В опубликованном в среду программном документе бывший генеральный директор Google Эрик Шмидт, генеральный директор Scale AI Александр Ванг и директор Центра безопасности ИИ Дэн Хендрикс заявили, что США не следует стремиться к разработке систем ИИ со «сверхчеловеческим» интеллектом, также известных как AGI, в стиле Манхэттенского проекта.
В документе под названием «Стратегия суперинтеллекта» утверждается, что агрессивное стремление США к исключительному контролю над сверхинтеллектуальными системами ИИ может вызвать жесткий отпор со стороны Китая, в том числе в виде кибератаки, что может дестабилизировать международные отношения. «Манхэттенский проект [для AGI] предполагает, что соперники скорее согласятся с длительным дисбалансом или омницидом, чем примут меры для его предотвращения», - пишут соавторы.
«То, что начинается как стремление к созданию супероружия и глобальному контролю, рискует вызвать враждебные контрмеры и эскалацию напряженности, тем самым подрывая ту самую стабильность, которую стратегия стремится обеспечить». Статья, написанная в соавторстве с тремя весьма влиятельными фигурами в американской индустрии ИИ, появилась всего через несколько месяцев после того, как комиссия Конгресса США предложила финансировать разработку ИИ в стиле «Манхэттенского проекта» по образцу американской программы создания атомной бомбы в 1940-х годах.
Министр энергетики США Крис Райт недавно заявил, что США находятся в «начале нового Манхэттенского проекта» по ИИ, стоя перед суперкомпьютерной площадкой вместе с соучредителем OpenAI Грегом Брокманом. Документ «Стратегия суперинтеллекта» опровергает идею, которую в последние месяцы отстаивали несколько американских политических и промышленных лидеров, о том, что поддерживаемая государством программа по созданию ИИ - лучший способ конкурировать с Китаем. По мнению Шмидта, Ванга и Хендрикса, США находятся в чем-то вроде противостояния AGI, не похожего на взаимное гарантированное уничтожение.
Подобно тому, как мировые державы не стремятся к монополии на ядерное оружие, которое может вызвать превентивный удар противника, Шмидт и его соавторы утверждают, что США должны быть осторожны в стремлении доминировать над чрезвычайно мощными системами ИИ. Хотя сравнение систем ИИ с ядерным оружием может показаться экстремальным, мировые лидеры уже считают ИИ одним из главных военных преимуществ.
Пентагон уже заявляет, что ИИ помогает ускорить цепочку убийств в армии. Шмидт и др. представляют концепцию, которую они называют Mutual Assured AI Malfunction (MAIM), в рамках которой правительства могут проактивно отключать угрожающие проекты ИИ, а не ждать, пока противники вооружатся AGI. Шмидт, Ванг и Хендрикс предлагают США сместить акцент с «победы в гонке за сверхинтеллектом» на разработку методов, сдерживающих другие страны от создания сверхинтеллектуального ИИ. Соавторы утверждают, что правительство должно «расширить арсенал кибератак, чтобы вывести из строя угрожающие проекты ИИ», контролируемые другими странами, а также ограничить доступ противников к передовым чипам ИИ и моделям с открытым исходным кодом.
Соавторы выявляют дихотомию, которая сложилась в мире политики в области ИИ. Есть «думеры», которые считают, что катастрофические последствия развития ИИ - это предрешенный факт, и выступают за то, чтобы страны замедлили прогресс ИИ. С другой стороны, есть «страусы», которые считают, что страны должны ускорить развитие ИИ и, по сути, просто надеяться, что все обойдется. В статье предлагается третий путь: взвешенный подход к развитию ИИ, в котором приоритет отдается оборонительным стратегиям.
Особенно примечательно, что эта стратегия прозвучала из уст Шмидта, который ранее неоднократно заявлял о необходимости агрессивной конкуренции США с Китаем в разработке передовых систем ИИ. Всего несколько месяцев назад Шмидт опубликовал статью, в которой заявил, что DeepSeek стал поворотным пунктом в гонке ИИ Америки с Китаем. Администрация Трампа, похоже, твердо намерена продвигаться вперед в развитии ИИ в Америке. Однако, как отмечают соавторы, решения Америки в области ИИ не существуют в вакууме. В то время как мир наблюдает за тем, как Америка расширяет границы возможностей ИИ, Шмидт и его соавторы считают, что, возможно, было бы разумнее занять оборонительную позицию.
Оригинал
Уникальность