Компания Anthropic объявила о значительных изменениях в своей политике обработки пользовательских данных, ставя всех пользователей Claude перед выбором: до 28 сентября они должны решить, хотят ли они, чтобы их беседы использовались для обучения моделей ИИ. Хотя компания направила нас к своему посту в блоге, описывающему изменения, она не раскрыла причин такого шага, что порождает множество вопросов и предположений. Ранее Anthropic не использовала данные пользовательских чатов для обучения моделей.
Теперь же компания намерена применять беседы и сессии программирования пользователей для совершенствования своих систем ИИ, а срок хранения данных для тех, кто не откажется, будет увеличен до пяти лет. Это радикальное изменение. До сих пор пользователям потребительских продуктов Anthropic сообщалось, что их запросы и результаты бесед автоматически удаляются из серверов компании через 30 дней, если только закон или политика не требовали иного, либо если данные не были помечены как нарушающие правила, в таком случае они могли храниться до двух лет.
Под потребительскими продуктами понимаются пользователи тарифов Claude Free, Pro и Max, включая тех, кто использует Claude Code. Бизнес-клиенты, использующие Claude Gov, Claude for Work, Claude for Education или доступ через API, не подпадают под новые правила, что схоже с подходом OpenAI, защищающим корпоративных клиентов от использования их данных для обучения. Почему это происходит? В своём посте Anthropic акцентирует внимание на выборе пользователей, утверждая, что, не отказываясь от участия, они помогут «улучшить безопасность моделей, повысить точность систем обнаружения вредоносного контента и снизить вероятность ошибочного флага для безобидных разговоров», а также поспособствуют улучшению навыков будущих моделей Claude в программировании, анализе и рассуждениях. Однако за этим риторическим фасадом, вероятно, скрываются менее альтруистические мотивы.
Как и любая другая компания, разрабатывающая большие языковые модели, Anthropic остро нуждается в данных, которые важнее, чем репутация бренда. Для обучения ИИ требуются огромные объёмы высококачественных диалоговых данных, и миллионы взаимодействий с Claude могут предоставить именно тот реальный контент, который укрепит конкурентные позиции Anthropic в борьбе с такими гигантами, как OpenAI и Google. Кроме того, изменения отражают более широкие тенденции в индустрии, где компании вроде Anthropic и OpenAI сталкиваются с нарастающим вниманием к их практикам хранения данных.
Например, OpenAI в настоящее время борется с судебным предписанием, требующим бессрочного хранения всех бесед пользователей ChatGPT, включая удалённые, из-за иска, поданного The New York Times и другими издателями. В июне операционный директор OpenAI Брэд Лайткап назвал это требование «чрезмерным и ненужным», противоречащим обязательствам компании по конфиденциальности. Судебное предписание затрагивает пользователей ChatGPT Free, Plus, Pro и Team, но не касается корпоративных клиентов и тех, у кого есть соглашения о нулевом хранении данных.
Ещё более тревожным является вызываемая этими изменениями путаница среди пользователей, многие из которых остаются в неведении о новых правилах. В условиях стремительного развития технологий изменения политик конфиденциальности неизбежны, но их масштаб и недостаточная прозрачность вызывают беспокойство. Обновление Anthropic, размещённое незаметно среди других новостей на сайте компании, едва ли привлекает должное внимание. Дизайн уведомлений также вызывает вопросы. Новые пользователи выбирают предпочтения при регистрации, но текущие пользователи сталкиваются с всплывающим окном, где крупным шрифтом указано «Обновления условий и политик» и выделена чёрная кнопка «Принять», тогда как переключатель для разрешения использования данных для обучения находится ниже, мелким шрифтом и по умолчанию включён.
Как отметило издание The Verge, такой дизайн может побуждать пользователей невнимательно соглашаться на передачу данных. Ставки высоки: эксперты по конфиденциальности давно предупреждают, что сложность ИИ делает осознанное согласие пользователей практически недостижимым. Федеральная торговая комиссия (FTC) при администрации Байдена даже заявляла, что компании, скрытно изменяющие условия или прячущие раскрытия в мелком шрифте, рискуют столкнуться с мерами принуждения. Однако, учитывая, что в FTC сейчас работает только три из пяти комиссаров, остаётся неясным, сохраняется ли внимание к этим практикам. Этот вопрос мы направили непосредственно в FTC, и ответ может пролить свет на будущее регулирования в этой области.
Оригинал
Уникальность