Facebook ‘در تیم قرمز’ هک خود هوش مصنوعی برنامه های

حمله به طور فزاینده ای سعی کنید به اشتباه و دور زدن ماشین-آموزش سیستم های. بنابراین شرکت هایی که استقرار آنها در حال گرفتن خلاق است.

Instagram خود را تشویق میلیارد دلار و یا تا کاربران به اضافه کردن فیلتر به عکس های خود را به آنها را بیشتر به اشتراک گذاری. در فوریه 2019 برخی Instagram کاربران شروع به ویرایش عکس های خود را با مخاطبان مختلف در نظر داشته باشید: Facebook خودکار انجمن فیلتر.

Facebook به شدت به اعتدال طراحی شده توسط هوش مصنوعی و آن را می گوید فن آوری است به خصوص خوب در لکه محتوای صریح و روشن. اما برخی از کاربران متوجه آنها می تواند دزدکی حرکت کردن گذشته Instagram فیلتر توسط همپوشانی الگوهای مانند شبکه یا نقطه در قانون شکستن صفحه نمایش از پوست است. که به معنای کار بیشتر برای Facebook بشر در محتوای داوران.

Facebook AI مهندسین در پاسخ آموزش سیستم خود را به رسمیت شناختن ممنوع تصاویر با چنین الگوهای اما رفع کوتاه بود. کاربران “آغاز شده تطبیق با رفتن با الگوهای مختلف می گوید:” منهر Paluri که آگهی کار در بینایی کامپیوتر در Facebook. تیم او در نهایت رام مشکل AI-فرار برهنگی با اضافه کردن یکی دیگر از ماشین-آموزش سیستم که چک برای الگوهای مانند شبکه بر روی عکس ها و تلاش می کند تا به ویرایش آنها را با تقلید از پیکسل های مجاور. این روند نیست و کاملا از نو خلق کردن, اصلی, اما آن را اجازه می دهد تا انجمن طبقه بندی به انجام کار خود را بدون گرفتن افتاد ،

که موش و گربه حادثه کمک فوری Facebook چند ماه بعد به ایجاد یک “هوش مصنوعی تیم قرمز” برای درک بهتر این آسیب پذیری و نقاط کور آن از هوش مصنوعی و سیستم های. دیگر شرکت های بزرگ و سازمان ها از جمله مایکروسافت و دولت و پیمانکاران در حال نصب و راه اندازی شبیه تیم است.

این شرکت ها صرف به شدت در سال های اخیر برای استقرار هوش مصنوعی سیستم برای انجام وظایف مانند درک محتوای تصاویر و یا متن. در حال حاضر برخی از adopters اولیه می پرسید چگونه این سیستم را می توان فریب خورده و نحوه حفاظت از آنها. “ما از ‘متعجب? آیا این مسائل مفید است ؟ ‘در حال حاضر این تولید-انتقادی” می گوید: Mike Schroepfer, Facebook را افسر ارشد فناوری. “”اگر ما سیستم خودکار نتواند و یا می تواند واژگون در مقیاس بزرگ است که یک مشکل بزرگ است.”

کار حفاظت از هوش مصنوعی سیستم های خرس شباهت به کامپیوتر معمولی امنیت. Facebook AI تیم قرمز می شود نام خود را از یک مدت برای تمرین است که در آن هکرها کار برای یک سازمان پروب آن دفاع با نقش بازی کردن به عنوان مهاجم. آنها می دانند که هر گونه رفع استقرار آنها ممکن است طرف پا به عنوان دشمنان خود را می آیند تا با ترفندهای جدید و حملات.

از راه های دیگر هر چند کاهش حملات در هوش مصنوعی سیستم های بسیار متفاوت از متعارف جلوگیری از هک. این آسیب پذیری که مدافعان نگران هستند کمتر احتمال دارد به خاص قابل اشکالات و بیشتر احتمال دارد به منعکس ساخته شده است در محدودیت از امروز هوش مصنوعی فن آوری است. “آن را متفاوت از امنیت سایبر در این است که این چیزها ذاتی” می گوید: Mikel رودریگز یک محقق که با این نسخهها کار بر روی هوش مصنوعی آسیب پذیری در میتر شرکت غیر انتفاعی است که اجرا می شود فدرال برنامه های تحقیقاتی. “شما می توانید از یک ماشین-آموزش مدل که کاملا امن, اما آن را هنوز هم می تواند آسیب پذیر باشد.”

رشد سرمایه گذاری در هوش مصنوعی امنیت آینه چگونه Facebook گوگل و دیگران هم به فکر سخت تر در مورد پیامدهای اخلاقی استقرار هوش مصنوعی. هر دو مشکلات را ریشه در این واقعیت است که با وجود مفید بودن آن موجود با هوش مصنوعی فن آوری های باریک و انعطاف ناپذیر و آن را نمی توان انطباق با شرایط پیش بینی نشده در این راه مردم می توانند.

یک کتابخانه رو به رشد از ماشین-آموزش مقالات پژوهشی در اسناد و مدارک کلاهبرداری مانند تغییر فقط چند پیکسل در یک عکس به نرم افزار AI گرفتار اوهام و خیالات و تشخیص اشیاء که در حال حاضر نیست. یک مطالعه نشان داد که یک تصویر گوگل-سرویس تشخیص می تواند فریب خورده را به آمریكا تفنگ به عنوان یک هلیکوپتر; مطالعه دیگری 3D-چاپ اشیاء با یک شکل چند وجهی ساخته شده است که آنها نامرئی به lidar نرم افزار از یک نمونه اولیه خودرو از چین بایدو. حملات دیگر شامل “داده مسمومیت” که در آن دشمن تغییر داده های مورد استفاده برای آموزش یک ماشین-الگوریتم یادگیری به سازش عملکرد آن است.

میتر در حال همکاری با دولت و مشتریان از جمله در زمینه حمل و نقل و امنیت ملی در مورد چگونه آنها ممکن است به حداقل رساندن چنین آسیب پذیری. رودریگز کاهش برای به اشتراک گذاشتن جزئیات اما او می گوید که فقط به عنوان در Facebook, برخی از سازمان های دولتی آمریکا می خواهند بدانند که آنچه می تواند به اشتباه با هوش مصنوعی آنها در ساختمان به بحرانی توابع. تیم پروژه باید شامل نشان دادن آن بود که ممکن است برای استخراج چهره استفاده می شود برای آموزش صورت-الگوریتم به رسمیت شناختن و فریب ماشین-آموزش نرم افزار های نصب شده بر روی هواپیما پرواز سربار به تفسیر محیط اطراف خود. وزارت دفاع قصد دارد به AI به طور فزاینده ای مرکزی تخته از ارتش ایالات متحده از لکه بینی تهدیدات در میدان جنگ به مراقبت های بهداشتی و دفتر مدیر.

Facebook AI قرمز تیم به رهبری توسط Cristian کانتون کامپیوتر-vision متخصص که در پیوست این شرکت در سال 2017 و فرار یک گروه است که با این نسخهها کار بر روی تصویر اعتدال فیلتر. او با افتخار از تیم خود را کار بر روی هوش مصنوعی و سیستم های تشخیص ممنوع محتوا مانند پورنوگرافی کودکان و خشونت اما او شروع به تعجب که چگونه قوی آنها واقعا بودند.

در سال 2018 Canton سازمان “خطر-a-thon” است که در آن مردم از سراسر Facebook صرف سه روز رقابت برای پیدا کردن قابل توجه ترین راه برای سفر کردن این سیستم. برخی از تیم ها یافت می شود نقاط ضعف است که کانتون می گوید او را متقاعد کرد این شرکت نیاز به آن هوش مصنوعی سیستم های قوی تر.

یک تیم در این مسابقه نشان داد که با استفاده از زبان های مختلف در یک پست می تواند گیج کردن Facebook خودکار نفرت گفتار فیلتر. دوم کشف حمله استفاده می شود در اوایل سال 2019 به گسترش انجمن در Instagram, اما آن را به عنوان یک اولویت فوری برای رفع, در زمان. “ما پیش بینی آینده” کانتون می گوید. “الهام بخش من است که باید این روز من است.”

در سال گذشته کانتون در تیم جستوجو کرد Facebook را در اعتدال سیستم. همچنین شروع به کار با یکی دیگر از تیم تحقیقاتی در داخل شرکت است که ساخته شده است یک شبیه سازی شده نسخه از Facebook به نام WW است که می تواند مورد استفاده قرار گیرد به عنوان یک زمین بازی مجازی با خیال راحت به مطالعه رفتار بد. یک پروژه بررسی گردش خون از پست ارائه کالاهای ممنوع در شبکه های اجتماعی مانند مواد مخدر تفریحی.

قرمز تیم weightiest پروژه با هدف درک بهتر deepfakes تصاویر تولید شده با استفاده از هوش مصنوعی است که به نظر می رسد مانند آن دستگیر شد با یک دوربین. نتایج نشان می دهد که جلوگیری از AI حیله گری آسان نیست.

Deepfake تکنولوژی تبدیل شده است آسان تر برای دسترسی و استفاده شده است برای هدف آزار و اذیت. زمانی که کانتون گروه تشکیل شده در سال گذشته محققان را آغاز کرده بود به انتشار ایده هایی برای چگونه به طور خودکار فیلتر کردن deepfakes. اما او در بر داشت برخی از نتایج مشکوک. “وجود دارد هیچ راهی برای اندازه گیری پیشرفت,” او می گوید. “برخی از مردم گزارش 99 درصد دقت و ما مانند ‘که درست نیست.'”

Facebook AI تیم قرمز راه اندازی یک پروژه به نام Deepfakes تشخیص چالش به خار پیشرفت در تشخیص هوش مصنوعی-تولید فیلم. این پرداخت از 4,000 بازیگران به ستاره در فیلم های مختلف از جنس پوست و سنین است. پس از Facebook مهندسین تبدیل برخی از کلیپ ها به deepfakes با مبادله چهره مردم در اطراف توسعه دهندگان به چالش کشیده شد به ایجاد نرم افزار است که می تواند نقطه simulacra.

نتایج ماه گذشته منتشر شد نشان می دهد که بهترین الگوریتم می تواند نقطه deepfakes نه در Facebook مجموعه تنها 65 درصد از زمان. که نشان می دهد Facebook نیست به احتمال زیاد قادر به قابل اعتماد تشخیص deepfakes به زودی. “این واقعا سخت و مشکل است و آن را حل نشده” کانتون می گوید.

کانتون تیم در حال حاضر بررسی استحکام Facebook اطلاعات غلط آشکارسازهای سیاسی و تبلیغ طبقه. “ما در حال تلاش برای فکر می کنم بسیار گسترده در مورد مشکلات در انتخابات آینده” او می گوید.

اکثر شرکت ها با استفاده از هوش مصنوعی در کسب و کار خود لازم نیست به نگرانی به عنوان Facebook ندارد در مورد متهم حملات انتخابات ریاست جمهوری. اما رم شانکار Siva Kumar, که با این نسخهها کار بر روی هوش مصنوعی امنیتی در مایکروسافت می گوید که آنها هنوز هم باید نگران مردم خراب با خود هوش مصنوعی ، او به کمک یک مقاله منتشر شده در ماه مارس که پیدا کردم 22 از 25 شرکت تردید نیست خود را امن هوش مصنوعی سیستم در همه. “بخش عمده ای از تحلیلگران امنیتی هنوز هم پیچیدن سر خود را در اطراف یادگیری ماشین” او می گوید. “فیشینگ و نرم افزارهای مخرب بر روی جعبه است که هنوز هم اصلی آنها چیز است.”

در پاییز گذشته مایکروسافت منتشر شد اسناد و مدارک در AI امنیت توسعه یافته در همکاری با دانشگاه هاروارد است که این شرکت با استفاده از داخلی برای هدایت آن تیم های امنیتی. این بحث تهدیدات مانند “مدل سرقت” که در آن یک مهاجم می فرستد تکرار نمایش داده شد به یک خدمات هوش مصنوعی و با استفاده از پاسخ به ساخت یک کپی است که رفتار مشابه. که “سرقت” کپی هم می تواند به کار به طور مستقیم و یا استفاده به کشف نقص اجازه می دهد که حمله به دستکاری اصلی سرویس پرداخت می شود.

باتیستا Biggio یک استاد در دانشگاه کالیاری است که انتشارات مطالعات در مورد نحوه فوت و فن, ماشین-یادگیری سیستم برای بیش از یک دهه می گوید: صنعت فن آوری نیاز به شروع خودکار AI چک امنیتی.

شرکت های استفاده از باتری های از پیش برنامه ریزی شده آزمون برای بررسی اشکالات مرسوم در نرم افزار قبل از آن مستقر است. Biggio می گوید: بهبود امنیت هوش مصنوعی سیستم های در حال استفاده خواهد شد نیاز به ابزارهای مشابه به طور بالقوه ساختمان در حملات او و دیگران نشان داده اند در تحقیقات دانشگاهی.

که می تواند کمک به مقابله با شکاف کومار برجسته بین اعداد از مستقر ماشین-الگوریتم های یادگیری و نیروی کار از افراد آگاه در مورد آسیب پذیری های بالقوه خود را. اما Biggio می گوید هوش بیولوژیکی هنوز هم مورد نیاز باشد از دشمنان حفظ خواهد کرد اختراع جدید کلاهبرداری. “انسان در حلقه است که هنوز هم برای رفتن به یک جزء مهم,” او می گوید.


بزرگ تر سیمی داستان
  • چگونه ماسک های رفت و از همین حالا-پوشیدن به باید
  • 13 کانال یوتیوب ما گیک بیش از
  • تکنولوژی مواجه آن با استفاده از برچسب “استاد” و “برده”
  • پوکر و روانشناسی از عدم قطعیت
  • با نگه داشتن coronas—و یا چرا این ویروس برنده
  • 👁 آماده شدن برای هوش مصنوعی برای تولید کمتر جادوگری. به علاوه: دریافت آخرین اخبار AI
  • 🎙️ گوش دادن به سیمی ما پادکست جدید در مورد آینده چگونه متوجه است. گرفتن آخرین قسمت و مشترک به 📩 خبرنامه به نگه دارید تا با تمام ما را نشان می دهد
  • 💻 ارتقاء کار خود را با بازی ما دنده تیم های مورد علاقه, لپ تاپ, کیبورد تایپ جایگزین و سر و صدا لغو هدفون

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de

نرم افزار گرامرلی

ایندکسر