После серии тревожных инцидентов, связанных с психическим здоровьем и использованием чат‑ботов на базе ИИ, группа генеральных прокуроров штатов направила письмо крупнейшим компаниям индустрии ИИ с предупреждением: устранить «бредовые ответы» или рискуете нарушить законы штатов.
Письмо, подписанное десятками прокуроров США и территорий в рамках Национальной ассоциации генеральных прокуроров, адресовано Microsoft, OpenAI, Google и ещё десяти крупным компаниям, включая Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika и xAI.
Документ появился на фоне усиливающегося противостояния между федеральными и региональными властями по поводу регулирования ИИ.
Среди предложенных мер — прозрачные независимые аудиты больших языковых моделей для выявления признаков бредовых или льстивых высказываний, а также новые процедуры отчётности, которые должны уведомлять пользователей о психологически вредных ответах чат‑ботов. Третьим сторонам, включая академические и общественные организации, должно быть разрешено «оценивать системы до релиза без риска репрессий и публиковать свои выводы без предварительного одобрения компании», говорится в письме.
«GenAI имеет потенциал изменить мир к лучшему. Но он также уже причинил — и может причинить — серьёзный вред, особенно уязвимым группам населения», отмечается в письме, где приводятся примеры громких инцидентов за последний год — включая случаи самоубийств и убийств, — в которых насилие связывали с чрезмерным использованием ИИ. «Во многих из этих случаев продукты GenAI генерировали льстивые и бредовые ответы, которые либо поддерживали заблуждения пользователей, либо убеждали их, что они не заблуждаются».
Генпрокуроры также предлагают компаниям относиться к инцидентам, связанным с психическим здоровьем, так же, как технологические компании относятся к киберинцидентам — с чёткой и прозрачной политикой отчётности.
Компании должны разработать и опубликовать «сроки обнаружения и реагирования на льстивые и бредовые ответы», говорится в письме. Подобно тому, как сейчас обрабатываются утечки данных, компании должны «незамедлительно, ясно и напрямую уведомлять пользователей, если те подверглись воздействию потенциально вредных льстивых или бредовых ответов».
Ещё одно требование — разработка «разумных и соответствующих тестов безопасности» для моделей GenAI, чтобы «гарантировать, что модели не будут производить потенциально вредные льстивые и бредовые ответы». Эти тесты должны проводиться до того, как модели будут предложены широкой публике.
TechCrunch не удалось получить комментарии от Google, Microsoft или OpenAI до публикации.
На федеральном уровне технологические компании, занимающиеся ИИ, встречают гораздо более тёплый приём. Администрация Трампа открыто заявила о своей поддержке ИИ и в течение прошлого года предпринимала несколько попыток ввести общенациональный мораторий на регулирование ИИ на уровне штатов. Пока эти попытки провалились — отчасти из‑за давления со стороны региональных властей.
Тем не менее, Трамп объявил в понедельник, что планирует подписать на следующей неделе указ, ограничивающий полномочия штатов в регулировании ИИ. Президент написал в Truth Social, что надеется, что его указ не позволит «УНИЧТОЖИТЬ ИИ В ЗАРОДЫШЕ».
Оригинал
Уникальность