Федеральная торговая комиссия США (FTC) начала масштабное расследование в отношении семи технологических гигантов — включая Alphabet, Meta*, OpenAI, xAI, Snap и Character Technologies, чтобы выяснить, как их ИИ-чат-боты влияют на детей и подростков.
Компании обязаны предоставить подробную информацию о безопасности, монетизации, обработке данных и механизмах защиты пользователей.
Особое внимание уделяется чат-ботам, способным имитировать человеческие эмоции и отношения. FTC интересует, как разработчики оценивают риски, утверждают виртуальных персонажей, ограничивают доступ несовершеннолетних и соблюдают нормы COPPA — закона о защите детской онлайн-конфиденциальности.
Глава FTC Эндрю Фергюсон заявил, что защита детей в интернете — приоритет, наряду с поддержкой инноваций. Расследование инициировано после серии инцидентов, включая иск к OpenAI от семьи подростка, покончившего с собой после общения с ChatGPT. Компания признала, что в длительных диалогах её защитные механизмы могут ослабевать.
Meta* также оказалась под давлением: расследование Reuters выявило, что её ИИ допускали «чувственные» беседы с детьми. В ответ компания ужесточила правила, запретив обсуждение тем, связанных с суицидом и расстройствами поведения.
OpenAI заявила о готовности к сотрудничеству с регулятором и пересмотру подходов к безопасности. Остальные компании пока не дали официальных комментариев.
*организация запрещена в РФ
Источник
Уникальность