هوش مصنوعی ساخته شده است گام های بزرگ به تازگی در درک زبان, اما آن را هنوز هم می تواند از رنج می برند هشدار دهنده و به طور بالقوه خطرناک, نوع الگوریتمی نزديك است.

تحقیقات نشان می دهد که چگونه هوش مصنوعی برنامه هایی که تجزیه و تحلیل متن می توان به اشتباه و فریب دقت گردد عبارات. یک جمله که ساده به نظر می رسد به من یا شما ممکن است توانایی های عجیب و غریب برای فریب هوش مصنوعی الگوریتم.

که یک مشکل را به عنوان متن کاوی هوش مصنوعی برنامه های به طور فزاینده ای استفاده می شود به قاضی متقاضیان کار ارزیابی پزشکی ادعا می کند یا روند قانونی اسناد و مدارک. تغییرات استراتژیک به یک تعداد انگشت شماری از کلمات می تواند اجازه جعلی اخبار فرار از یک هوش مصنوعی آشکارساز; خنثی کردن الگوریتمهای هوش مصنوعی که شکار برای نشانه هایی از تجارت خودی; یا ماشه پرداخت بالاتر از بیمه بهداشت و درمان ادعا می کند.

“این نوع حمله بسیار مهم است” می گوید: دی جین دانشجوی تحصیلات تکمیلی در دانشگاه MIT توسعه یافته که یک تکنیک برای فریب متن مبتنی بر هوش مصنوعی برنامه های با محققان دانشگاه هنگ کنگ و سنگاپور آژانس علم و تکنولوژی و تحقیقات است. جین می گوید: جمله “خصمانه نمونه” می تواند ثابت کند به خصوص اگر مضر استفاده می شود برای فریب سیستم های خودکار در امور مالی و یا مراقبت های بهداشتی: “حتی یک تغییر کوچک در این مناطق می تواند باعث بسیاری از مشکلات.”

جین و همکارانش ابداع یک الگوریتم به نام TextFooler قادر به فریب یک سیستم هوش مصنوعی بدون تغییر معنای یک قطعه از متن است. این الگوریتم با استفاده از هوش مصنوعی نشان می دهد که کلمات باید تبدیل به مترادف به احمق یک ماشین.

به ترفند یک الگوریتم طراحی شده برای قاضی بررسی فیلم, برای مثال, TextFooler تغییر جمله:

“شخصیت بازیگران در غیرممکن ساختگی شرایط هستند کاملا جدا از واقعیت است.”

به عنوان خوانده شده:

“شخصیت بازیگران در غیرممکن مهندسی شرایطی هستند به طور کامل جدا از واقعیت است.”

این ناشی از این الگوریتم برای طبقه بندی نقد به عنوان “مثبت” به جای “منفی است.” تظاهرات برجسته یک حقیقت ناراحت کننده در مورد هوش مصنوعی—که می توان آن را هر دو قابل ملاحظه ای هوشمندانه و با کمال تعجب گنگ است.

محققان آزمایش رویکرد خود را با استفاده از چندین محبوب الگوریتم ها و داده های مجموعه, و آنها قادر به کاهش یک الگوریتم را به دقت بالای 90 درصد به زیر 10 درصد است. تغییر عبارات به طور کلی قضاوت مردم به همان معنی است.

یادگیری ماشین کار می کند با پیدا کردن الگوهای ظریف در, داده, که بسیاری از آنها غیر قابل مشاهده برای انسان است. این کدها سیستم های مبتنی بر یادگیری ماشین در معرض یک نوع عجیب و غریب از سردرگمی است. به رسمیت شناختن تصویر برنامه برای مثال می توان فریب یک تصویر است که به نظر می رسد کاملا طبیعی به چشم انسان. ترفند زیرکانه برای پیکسل ها در یک تصویر از یک هلیکوپتر برای مثال می توانید یک برنامه را به فکر آن است به دنبال یک سگ. ترین فریبنده ترفند را می توان شناسایی از طریق هوش مصنوعی با استفاده از یک فرایند مربوط به یک مورد استفاده برای آموزش الگوریتم در وهله اول.

محققان هنوز در حال بررسی میزان این ضعف همراه با خطرات بالقوه. آسیب پذیری را بیشتر نشان داده شده است در تصویر و سیستم های بازشناسی گفتار. با استفاده از هوش مصنوعی برای زرنگ تر بودن هوش مصنوعی ممکن است پیامدهای جدی هنگامی که الگوریتم مورد استفاده برای تصمیم گیری های حیاتی در امنیت کامپیوتر و سیستم های نظامی و همچنین به عنوان در هر نقطه وجود دارد تلاش برای فریب.

یک گزارش منتشر شده توسط دانشگاه استنفورد موسسه برای انسان محور AI هفته گذشته برجسته در میان چیزهای دیگر پتانسیل برای خصمانه نمونه برای فریب الگوریتمهای هوش مصنوعی نشان می دهد این می تواند فعال مالیاتی.

در همان زمان, هوش مصنوعی, برنامه تبدیل شده اند خیلی بهتر در تجزیه و تولید زبان به لطف دستگاه جدید-آموزش تکنیک ها و مقادیر زیادی از داده های آموزشی. در سال گذشته OpenAI نشان از یک ابزار به نام GPT-2 قادر به تولید قانع کننده اخبار پس از روت در مقدار بسیار عظیمی از متن slurped از وب است. دیگر الگوریتم های مبتنی بر همان هوش مصنوعی پیشرفت می تواند خلاصه و یا تعیین معنای یک تکه از متن را با دقت بیشتری نسبت به قبلا امکان پذیر است.

Jin’s تیم روش برای افزایش سرعت متن “است که در واقع واقعا موثر در تولید خوب دشمنان” برای هوش مصنوعی سیستم می گوید: Sameer Singh, دستیار استاد در دانشگاه UC Irvine که انجام می شود مربوط به پژوهش است.

سینگ و همکاران نشان داده اند که چگونه یک چند به ظاهر تصادفی کلمات می تواند باعث بزرگ زبان الگوریتم های بی ادبی در راه خاص. این “باعث” می توانید به عنوان مثال علت OpenAI الگوریتم برای پاسخ به یک بی درنگ با نژادپرستانه متن.

اما سینگ می گوید: این رویکرد نشان داده MIT تیم دشوار خواهد بود به جلو و در عمل به دلیل آن را شامل بارها و بارها کاوش یک سیستم هوش مصنوعی که ممکن است بالا بردن سوء ظن است.

سحر آهنگ یک استاد در دانشگاه برکلی متخصص در هوش مصنوعی و امنیت و استفاده خصمانه یادگیری ماشین به, در میان چیزهای دیگر تغییر علائم جاده ها به طوری که آنها فریب بینایی کامپیوتر سیستم. او می گوید: MIT مطالعه بخشی از بدن در حال رشد از کار نشان می دهد که چگونه زبان الگوریتم می تواند فریب خورده و انواع سیستم های تجاری ممکن است در معرض نوعی از حمله است.


بزرگ تر سیمی داستان
  • رفتن فاصله (و فراتر از آن) برای گرفتن ماراتن متقلب
  • ناسا حماسه قمار به خاک مریخ به زمین
  • چگونه چهار هکرهای چینی گفته می شود در زمان پایین Equifax
  • احسان توسط از دست رفته زایمان? اطلاعات زرنگ و دانا تکنولوژی کمک می کند
  • این آتش سوزی عکس یادآوری مداوم از هرج و مرج
  • 👁 تاریخچه راز از صورت به رسمیت شناختن. به علاوه آخرین اخبار در مورد هوش مصنوعی
  • ✨ خود را بهینه سازی صفحه اصلی زندگی ما با دنده تیم بهترین میدارد از ربات خلاء به قیمت مناسب تشک هوشمند بلندگو

tinyurlis.gdv.gdv.htclck.ruulvis.netshrtco.de

نرم افزار گرامرلی