چشم نواز پیشرفت در برخی زمینه AI واقعی نیستند

Just_Super/iStock.com

هوش مصنوعی (AI) فقط به نظر می رسد به گرفتن دقیق و دقیق. هر یک از آی فون خود را می آموزد صورت صوتی و عادات بهتر از گذشته و تهدیدات هوش مصنوعی به حریم خصوصی و مشاغل همچنان به رشد. این افزایش نشان دهنده سریعتر تراشه اطلاعات بیشتر و بهتر الگوریتم. اما برخی از بهبود آید از ترفند به جای هسته و نوآوری های خود مخترعان ادعا می کنند—و برخی از دستاوردهای ممکن است در همه وجود دارد می گوید دیویس Blalock, یک علوم کامپیوتر فارغ التحصیل و دانشجو در موسسه تکنولوژی ماساچوست (MIT). Blalock و همکارانش در مقایسه با ده ها تن از روش های بهبود شبکه های عصبی—نرم افزار معماری که آزادانه تقلید مغز است. “پنجاه مقاله در” او می گوید: “روشن شد که آن را آشکار آنچه دولت از هنر حتی بود.”

این محققان مورد بررسی قرار 81 هرس الگوریتم برنامه هایی است که شبکه های عصبی کارآمد تر توسط پیرایش غیر ضروری اتصالات. همه ادعا برتری کمی در راه های مختلف. اما آنها به ندرت در مقایسه درستی—و هنگامی که محققان سعی در بررسی آنها را در کنار هم وجود دارد هیچ شواهد روشنی از بهبود عملکرد بیش از یک دوره 10 ساله. نتیجه ارائه شده در ماه مارس در یادگیری ماشین و سیستم های کنفرانس شگفت زده Blalock را Ph. D. مشاور MIT کامپیوتر دانشمند جان Guttag که می گوید ناهموار مقایسه خود ممکن است توضیح رکود. “این پیر را دیدم, راست?” Guttag گفت. “اگر شما نمی توانید اندازه گیری کنید, آن را سخت به آن را بهتر است.”

محققان در حال بیدار شدن از خواب به نشانه های لرزان پیشرفت در بسیاری از گرایش ها از هوش مصنوعی. یک 2019 متا تجزیه و تحلیل اطلاعات بازیابی الگوریتم های مورد استفاده در موتورهای جستجو این نتیجه رسیدند که “بالا علامت آب … شد در واقع مجموعه ای در سال 2009.” مطالعه دیگری در سال 2019 تکثیر هفت شبکه عصبی سیستم توصیه از نوع مورد استفاده توسط رسانه های جریان خدمات. آن را یافت که شش شکست خورده به بهتر کار بسیار ساده تر nonneural الگوریتم های توسعه یافته سال قبل از زمانی که در اوایل تکنیک های تنظیم آشکار “فانتوم پیشرفت” در این زمینه است. در یکی دیگر از مقاله ارسال شده در arXiv در مارس کوین Musgrave یک دانشمند علوم کامپیوتر در دانشگاه کرنل در زمان نگاهی به از دست دادن عملکرد بخشی از یک الگوریتم است که ریاضی را مشخص می کند هدف خود را. Musgrave در مقایسه با یک دوجین از آنها را در برابر, در یک کار مربوط به بازیابی تصویر و متوجه شد که بر خلاف خود توسعه دهندگان ادعا می کند دقت در حال بهبود از سال 2006. “وجود دارد همیشه این امواج از اعتیاد” Musgrave می گوید.

سود در ماشین-الگوریتم های یادگیری می تواند از تغییرات اساسی در معماری خود را از دست دادن عملکرد و یا استراتژی بهینه سازی—چگونه آنها با استفاده از بازخورد به منظور بهبود. اما ترفند زیرکانه برای هر یک از این نیز می تواند افزایش عملکرد می گوید زیکو Kolter یک دانشمند علوم کامپیوتر در دانشگاه کارنگی ملون که مطالعات تصویر-تشخیص مدل های آموزش دیده می شود سیستم ایمنی بدن به “حملات خصمانه” توسط یک هکر است. اوایل خصمانه آموزش روش شناخته شده به عنوان پیش بینی gradient descent (PGD) که در آن یک مدل است که به سادگی روت در هر دو واقعی و فریبنده نمونه به نظر می رسید که پیشی پیچیده تر روش. اما در ماه فوریه arXiv کاغذ Kolter و همکارانش دریافتند که تمام روش های انجام شده در مورد همان زمانی که با یک ترفند ساده استفاده شد و به منظور ارتقاء آنها.

پیر سگ, ترفندهای جدید

پس از متوسط ترفند پیر تصویر-بازیابی الگوریتم انجام به عنوان به خوبی به عنوان جدید نشان می دهد کمی واقعی نوآوری است.

تطبيق(2006)ProxyNCA(2017)SoftTriple(2019)0255075100دقت نمره عملکرد اصلیبهینه سازی عملکرد

(گرافیک) X. لیو/علم; (دیتا) MUSGRAVE ET AL., ARXIV: 2003.08505

“است که بسیار تعجب آور بود که تا به حال کشف شده است قبل از اینکه می گوید:” لسلی برنج Kolter را دانشجوی دکتری. Kolter می گوید یافته های خود را نشان می دهد نوآوری مانند PGD سخت به آمده و به ندرت بهبود قابل توجهی در راه است. “این بسیار روشن است که PGD است که در واقع فقط حق الگوریتم,” او می گوید. “آن چیزی که واضح است و مردم می خواهید برای پیدا کردن بیش از حد پیچیده راه حل است.”

دیگر عمده الگوریتمی پیشرفت نیز به نظر می رسد که آزمون زمان ایستاده بود. دستیابی به موفقیت بزرگ در آمد و در سال 1997 با یک معماری گفته می شود حافظه کوتاه مدت (LSTM) مورد استفاده در ترجمه زبان. هنگامی که به درستی آموزش دیده LSTMs همسان عملکرد ظاهرا پیشرفته تر معماری توسعه یافته 2 دهه بعد. یکی دیگر از ماشین-یادگیری دستیابی به موفقیت در آمد در سال 2014 با مولد خصمانه شبکه (GANs) که جفت شبکه در ایجاد-و-نقد چرخه به تیز کردن توانایی خود را برای تولید تصاویر ، یک 2018 مقاله گزارش شده است که به اندازه کافی با محاسبات اصلی گن روش منطبق بر توانایی های روش از سال بعد.

Kolter می گوید محققان انگیزه بیشتری برای تولید یک الگوریتم جدید و نیشگون گرفتن و کشیدن آن را تا زمانی که این دولت از-هنر نسبت به لحن یک موجود است. دومی می تواند به نظر می رسد کمتر رمان او اشاره می کند و آن را “بسیار سخت تر برای به دست آوردن یک کاغذ از.”

Guttag می گوید نیز وجود دارد یک عامل بازدارنده برای مخترعان از یک الگوریتم به طور کامل مقایسه عملکرد آن با دیگران—تنها برای پیدا کردن که آنها دستیابی به موفقیت است نه آنچه که آنها فکر آن بود. “وجود دارد یک خطر برای مقایسه بیش از حد دقت کنید.” این هم کار سخت: AI محققان با استفاده از داده های مختلف مجموعه, تنظیم, روش, متریک عملکرد و خطوط. “این درست نیست واقعا امکان پذیر برای انجام تمام سیب-به-سیب مقایسه است.”

برخی از اغراق عملکرد ادعا می کند می تواند chalked به رشد انفجاری از میدان که در آن مقالات تعداد داوران با تجربه. “بسیاری از این به نظر می رسد در حال رشد درد” Blalock می گوید. او خواستار داوران به اصرار بهتر مقایسه معیار و می گوید بهتر ابزار کمک خواهد کرد. در اوایل سال جاری Blalock همکاری نویسنده و محقق MIT Jose Gonzalez Ortiz منتشر شد نرم افزار به نام ShrinkBench که باعث می شود آن را آسان تر برای مقایسه الگوریتم هرس.

محققان اشاره می کنند که حتی اگر روش های جدید نیست و اساسا بهتر از آنهایی که قدیمی و ترفند اجرای آنها می توان به خود forebears. و هر یک بار در در حالی که یک الگوریتم جدید خواهد بود واقعی دستیابی به موفقیت. “آن را تقریبا مانند یک سرمایه گذاری نمونه کارها” Blalock می گوید: “که در آن برخی از کسب و کار نیست و واقعا کار اما برخی از آنها کار چشمگیری هست.”

tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.detny.im