Основатели компаний, занимающихся разработкой искусственного интеллекта, имеют репутацию людей, делающих смелые заявления о том, что эта технология способна перевернуть представление о сферах деятельности, особенно о науке. Но Томас Вольф, соучредитель и главный научный директор Hugging Face, придерживается более взвешенной точки зрения.
В эссе, опубликованном в четверг на сайте X, Вольф заявил, что опасается превращения ИИ в «людей на серверах», если не произойдет прорыва в исследованиях ИИ. Он подчеркнул, что нынешние парадигмы развития ИИ не приведут к появлению ИИ, способного нестандартно и творчески решать проблемы - такие, за которые присуждаются Нобелевские премии.
«Главная ошибка, которую обычно совершают люди, заключается в том, что они думают, что такие люди, как Ньютон или Эйнштейн, были просто увеличенными хорошими студентами, что гений появляется, когда вы линейно экстраполируете 10 % лучших студентов», - пишет Вольф. «Чтобы создать Эйнштейна в центре обработки данных, нам нужна не просто система, которая знает все ответы, а система, которая может задавать вопросы, до которых никто еще не додумался или не осмелился додуматься».
Утверждения Вульфа контрастируют с заявлениями генерального директора OpenAI Сэма Альтмана, который в своем эссе в начале этого года заявил, что «сверхинтеллектуальный» ИИ может «значительно ускорить научные открытия». Аналогичным образом, генеральный директор Anthropic Дарио Амодей предсказал, что ИИ поможет разработать лекарства от большинства видов рака.
Проблема ИИ сегодня - и то, куда, по его мнению, движется технология, - заключается в том, что он не генерирует никаких новых знаний, соединяя ранее не связанные факты. Даже имея в своем распоряжении большую часть Интернета, ИИ в его нынешнем понимании в основном заполняет пробелы между тем, что уже известно человеку, говорит Вольф.
Некоторые эксперты в области ИИ, в том числе бывший инженер Google Франсуа Шолле, высказывают аналогичное мнение, утверждая, что хотя ИИ и способен запоминать шаблоны рассуждений, он вряд ли сможет генерировать «новые рассуждения» на основе новых ситуаций.
Вольф считает, что лаборатории ИИ создают, по сути, «очень послушных учеников», а не научных революционеров в любом смысле этого слова. По его словам, сегодня у ИИ нет стимула задавать вопросы и предлагать идеи, которые могут противоречить его обучающим данным, что ограничивает его в ответах на известные вопросы.
«Чтобы создать Эйнштейна в центре обработки данных, нам нужна не просто система, которая знает все ответы, а система, которая может задавать вопросы, о которых никто еще не думал или не осмеливался спросить», - сказал Вольф. «Такая, которая пишет «А что, если все ошибаются?», когда все учебники, эксперты и общепринятые знания говорят об обратном».
Вольф считает, что в этом разочаровывающем положении дел отчасти виноват «кризис оценки» в ИИ. Он указывает на контрольные показатели, обычно используемые для оценки совершенствования систем ИИ, большинство из которых состоят из вопросов, имеющих четкие, очевидные и «закрытые» ответы.
В качестве решения Вольф предлагает индустрии ИИ «перейти к измерению знаний и рассуждений», способному прояснить, может ли ИИ использовать «смелые контрфактические подходы», делать общие предложения, основанные на «крошечных намеках», и задавать «неочевидные вопросы», которые ведут к «новым направлениям исследований».
По признанию Вольфа, сложность будет заключаться в том, чтобы определить, как выглядит эта мера. Но он считает, что это может стоить затраченных усилий.
«Самый важный аспект науки - это умение задавать правильные вопросы и оспаривать даже то, что уже изучено», - сказал Вольф. «Нам не нужен студент A+ [AI], который может ответить на каждый вопрос, используя общие знания. Нам нужен студент на четверку, который видит и ставит под сомнение то, что все остальные пропустили».
Оригинал
Уникальность