Сразу после окончания саммита AI Action Summit в Париже соучредитель и генеральный директор Anthropic Дарио Амодеи назвал это мероприятие «упущенной возможностью». В заявлении, опубликованном во вторник, он добавил, что «необходимо уделять больше внимания и уделять больше внимания ряду тем, учитывая темпы развития технологии».
ИИ-компания провела мероприятие для разработчиков в Париже в партнерстве с французским стартапом Dust, и у TechCrunch была возможность взять интервью у Амодея на сцене. На мероприятии он объяснил свою линию поведения и защитил третий путь, который не является ни чистым оптимизмом, ни чистой критикой, по темам инноваций ИИ и управления, соответственно.
«Раньше я был нейробиологом и зарабатывал на жизнь тем, что заглядывал внутрь настоящих мозгов. А теперь мы зарабатываем на жизнь тем, что смотрим внутрь искусственных мозгов. Так что в ближайшие несколько месяцев мы добьемся потрясающих успехов в области интерпретируемости - когда мы действительно начнем понимать, как работают модели», - сказал Амодей в интервью TechCrunch.
«Но это определенно гонка. Это гонка между тем, чтобы сделать модели более мощными, что невероятно быстро для нас и невероятно быстро для других - вы ведь не можете замедлиться, верно? ... Наше понимание должно идти в ногу с нашей способностью создавать вещи. Я думаю, это единственный путь», - добавил он.
Со времени проведения первого саммита по ИИ в Блетчли (Великобритания) тон дискуссии об управлении ИИ значительно изменился. Отчасти это связано с текущим геополитическим ландшафтом.
«Сегодня утром я здесь не для того, чтобы говорить о безопасности ИИ, что было названием конференции пару лет назад», - заявил вице-президент США Джей Ди Вэнс на саммите AI Action Summit во вторник. «Я здесь, чтобы говорить о возможностях ИИ».
Интересно, что Амодей пытается избежать этого противостояния между безопасностью и возможностями. На самом деле, он считает, что повышенное внимание к безопасности - это возможность.
«На первоначальном саммите в Блетчли (Великобритания) было много дискуссий о тестировании и измерении различных рисков. И я не думаю, что эти вопросы сильно замедлили развитие технологии», - сказал Амодей на мероприятии Anthropic. «Если уж на то пошло, проведение подобных измерений помогло нам лучше понять наши модели, что в конечном итоге помогает нам создавать более совершенные модели».
И каждый раз, когда Амодей делает акцент на безопасности, он также любит напоминать всем, что Anthropic по-прежнему нацелена на создание передовых моделей ИИ.
«Я не хочу делать ничего, что могло бы уменьшить обещания. Мы каждый день создаем модели, которые люди могут развивать и которые используются для удивительных вещей. И мы определенно не должны прекращать это делать», - сказал он.
Когда люди много говорят о рисках, меня это раздражает, и я говорю: «О, чувак, никто не сделал хорошую работу, чтобы объяснить, насколько замечательной может быть эта технология»», - добавил он позже в разговоре.
Расходы DeepSeek на обучение «просто не соответствуют действительности».
Когда разговор перешел к недавним моделям китайского производителя LLM DeepSeek, Амодей преуменьшил технические достижения и сказал, что, по его мнению, реакция общественности была «неорганичной».
«Честно говоря, моя реакция была очень слабой. Мы видели V3, которая является базовой моделью для DeepSeek R1, еще в декабре. И это была впечатляющая модель», - сказал он. «Модель, которая была выпущена в декабре, находилась на той самой обычной кривой снижения стоимости, которую мы видели в наших и других моделях».
Примечательно, что эта модель не была выпущена «тремя или четырьмя передовыми лабораториями», расположенными в США. Он перечислил Google, OpenAI и Anthropic как некоторые из передовых лабораторий, которые обычно продвигаются вперед с выпуском новых моделей.
«И это было для меня вопросом геополитики. Я никогда не хотел, чтобы авторитарные правительства доминировали в этой технологии», - сказал он.
Что касается предполагаемых затрат на обучение DeepSeek, то он отверг идею о том, что обучение DeepSeek V3 было в 100 раз дешевле по сравнению с обучением в США: «Я думаю, что это просто неточно и не основано на фактах», - сказал он.
Хотя Амодей не анонсировал ни одной новой модели на мероприятии в среду, он рассказал о некоторых предстоящих релизах компании - и да, они включают в себя некоторые способности к рассуждениям.
«Мы в целом сосредоточены на том, чтобы попытаться создать свои собственные модели рассуждений, которые были бы более дифференцированными. Мы заботимся о том, чтобы у нас было достаточно возможностей, чтобы модели становились умнее, и о безопасности», - говорит Амодей.
Одна из проблем, которую пытается решить Anthropic, - это проблема выбора модели. Например, если у вас есть аккаунт ChatGPT Plus, может быть сложно понять, какую модель вам следует выбрать во всплывающем окне выбора модели для следующего сообщения.
То же самое касается разработчиков, использующих API-интерфейсы больших языковых моделей (LLM) для своих приложений. Они хотят найти баланс между точностью, скоростью получения ответов и стоимостью.
«Мы были немного озадачены идеей, что есть обычные модели и есть модели рассуждений, и что они как бы отличаются друг от друга», - говорит Амодей.
Оригинал
Уникальность