یک الگوریتم که پیش بینی ‘ جنایت بر چهره جرقه یک دیوانگی

سازندگان آن گفته آنها می تواند با استفاده از تجزیه و تحلیل صورت برای تعیین اگر کسی را تبدیل به یک جنایتکار است. منتقدان گفت: این کار به یاد می آورد افشا و خنثی “مسابقه علم است.”

در اوایل ماه مه در یک مصاحبه مطبوعاتی از هریسبورگ دانشگاه ادعا کرد که دو نفر از استادان و دانشجویان تحصیلات تکمیلی در حال توسعه صورت-به رسمیت شناختن برنامه است که می تواند پیش بینی کند که آیا کسی می تواند یک جنایتکار است. آزادی گفت: کاغذ خواهد بود منتشر شده در مجموعه توسط اسپرینگر طبیعت یک ناشر دانشگاهی.

با “80 درصد دقت و بدون تعصب نژادی” این مقاله یک مدل شبکه عصبی برای پیش بینی جرم و جنایت با استفاده از پردازش تصویرادعا الگوریتم خود را می تواند پیش بینی کند “اگر کسی یک جنایتکار صرفا بر اساس یک عکس از چهره خود را.” آزادی مطبوعات شده و حذف شده از وب سایت دانشگاه.

سه شنبه بیش از 1000 ماشین-یادگیری, محققان, جامعه شناسان مورخان و ethicists منتشر شد نامه سرگشاده محکوم کردن کاغذ و اسپرینگر طبیعت تایید در توییتر آن را نمی خواهد نشر پژوهش.

اما محققان می گویند این مشکل وجود دارد متوقف نمی شود. امضاء کنندگان این نامه جمعی که خود را ائتلاف برای بحرانی تکنولوژی (CCT) گفت: این مقاله ادعا می کند “بر نادرست علمی و محوطه تحقیق و روش که … باید [شده است] افشا و خنثی در طول سال است.” در این نامه استدلال می کند آن است که غیر ممکن است برای پیش بینی جرم و جنایت بدون تعصب نژادی “از آنجا که این دسته از ‘جنایت’ خود را با نژاد مغرضانه.”

پیشرفت در علوم اطلاعات و یادگیری ماشین منجر به الگوریتم های متعدد در سال های اخیر است که ادعا به پیش بینی جرم یا جنایت. اما اگر داده های مورد استفاده برای ساخت این الگوریتم این است که گرایش به این الگوریتم’ پیش بینی نیز دارد. چرا که از لحاظ نژادی اریب ماهیت پلیس در آمریکا در این نامه استدلال هر گونه اخباری الگوریتم مدلسازی و جنایت را تنها تکثیر تعصبات در حال حاضر منعکس شده در سیستم عدالت کیفری.

نقشه برداری این تعصبات بر روی صورت تحلیل به یاد می آورد شنیع “مسابقه علمی” از قبل از قرن ها که ادعا به استفاده از تکنولوژی برای شناسایی تفاوت بین نژادها—در اندازه گیری مانند اندازه سر یا بینی عرض—به عنوان اثبات ذاتی خود را عقل فضیلت و یا جرم و جنایت.

مسابقه علم افشا و خنثی شد اما مقاله که با استفاده از یادگیری ماشین به “پیش بینی” صفات ذاتی و یا ارائه تشخیص های در حال ساخت ظریف اما نگران کننده بازگشت.

در سال 2016 محققان از شانگهای Jiao تانگ دانشگاه ادعا الگوریتم خود را می تواند پیش بینی جرایم در صورت استفاده از تجزیه و تحلیل. مهندس از دانشگاه استنفورد و گوگل رد این مقاله ادعا می کند تماس با رویکرد جدید “سیما” یک افشا و خنثی مسابقه علم محبوب در میان eugenists, که نسبت به شخصیت ویژگی های از شکل سر کسی.

در سال 2017 یک جفت از محققان دانشگاه استنفورد خود ادعا هوش مصنوعی می تواند بگوید اگر کسی همجنسگرا است و یا مستقیما بر روی چهره خود. تجاوز سازمان مورد مطالعه اشاره کرد که چگونه مضر مفهوم خودکار شناسایی تمایلات جنسی می تواند در کشورهایی که به جرم همجنسگرایی. سال گذشته محققان در دانشگاه Keele انگلستان خود ادعا الگوریتم آموزش دیده در یوتیوب ویدئوها از کودکان می تواند پیش بینی اوتیسم. در اوایل سال جاری یک مقاله در این مجله از داده های بزرگ نه تنها اقدام به “استنباط صفات شخصیتی از تصاویر صورت” اما ذکر Cesare Lombroso که در قرن 19 دانشمند که دفاع و پشتیبانی این تصور که جرم و جنایت به ارث برده بود.

هر یک از این مقالات موجب واکنش شدید هر چند هیچ کدام منجر به محصولات جدید و یا ابزار پزشکی. نویسندگان این هریسبورگ مقاله ادعا کرد الگوریتم خود را به طور خاص طراحی شده برای استفاده توسط اجرای قانون است.

“جرم و جنایت یکی از برجسته ترین مسائل در جامعه مدرن” گفت: Jonathan W. Korn یک دانشجوی دکترا در هریسبورگ و سابق افسر پلیس نیویورک در یک نقل قول از حذف آزادی مطبوعات. “توسعه ماشین آلات است که قادر به انجام وظایف شناختی مانند شناسایی جرم و جنایت از [یک] فرد از خود تصویر صورت فعال خواهد شد یک مزیت قابل توجه برای سازمان های اجرای قانون و دیگر سازمان های اطلاعاتی برای جلوگیری از جرم و جنایت از وقوع در مناطق تعیین شده.”

Korn و اسپرینگر طبیعت نمی پاسخ به درخواست ها برای اظهار نظر. ناتانیل اشبی یکی از این مقاله نویسندگان کاهش یافته است به نظر.

گروه های آزادی های مدنی به مدت طولانی هشدار داد در برابر اجرای قانون استفاده از تشخیص چهره. این نرم افزار کمتر دقیق در افراد تیره پوست از سبک پوست افراد با توجه به یک گزارش از هوش مصنوعی محققان Timnit Gebru و شادی Buolamwini هر دو از آنها را امضا CCT نامه.

در سال 2018 به ACLU در بر داشت که آمازون صورت-شناخت محصول Rekognition, misidentified اعضای کنگره به عنوان مجرمان گمراه اغلب در سیاه و مقامات نسبت به سفید هستند. آمازون به تازگی اعلام کرد یک سال توقف در فروش محصول به پلیس.

در هریسبورگ مقاله به ظاهر هرگز علنا نوشته شده اما انتشار مشکل پژوهش به تنهایی می تواند خطرناک باشد. سال گذشته در برلین مبتنی بر امنیت محقق آدم هاروی در بر داشت که در صورت به رسمیت شناختن مجموعه داده از دانشگاه های آمریکا مورد استفاده قرار گرفت با نظارت شرکت های مرتبط با دولت چین. چرا که تحقیقات هوش مصنوعی ایجاد شده برای یک هدف می تواند مورد استفاده قرار گیرد برای یکی دیگر از مقالات نیاز شدید اخلاقی موشکافی حتی اگر آنها به طور مستقیم منجر به محصولات جدید و یا روش.

“مانند کامپیوتر یا موتور احتراق داخلی, AI is a general-purpose فن آوری است که می تواند مورد استفاده قرار گیرد به طور خودکار بسیاری از وظایف از جمله آنهایی که باید انجام شود در وهله اول” در این نامه می خواند.


بزرگ تر سیمی داستان
  • The Last of Us قسمت دوم و آن بحران-پهن مسیر انتشار
  • سابق eBay مدیران گفته شده جهنم زندگی برای منتقدان
  • بهترین انجمن تکنولوژی و اسباب بازی برای هر بدن
  • هوش مصنوعی آر و (تا حدودی) نظری آینده از یک تکنولوژی سوخت FBI
  • Facebook گروه در حال از بین بردن امریکا
  • 👁 آنچه که هوش به هر حال ؟ به علاوه: دریافت آخرین اخبار AI
  • ✨ خود را بهینه سازی صفحه اصلی زندگی ما با دنده تیم بهترین میدارد از ربات خلاء به قیمت مناسب تشک هوشمند بلندگو

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.nettny.im