Компания Anthropic заблокировала доступ OpenAI к своим ИИ-моделям через API, сославшись на нарушение условий использования.
Об этом сообщило издание *Wired*, ссылаясь на информированные источники.
"Claude Code получил широкое признание среди разработчиков, и неудивительно, что команда OpenAI прибегла к нашим инструментам в процессе подготовки к запуску GPT-5. Однако такие действия противоречат нашим правилам", - пояснил представитель Anthropic.
Согласно политике компании, её сервисы нельзя использовать для разработки конкурирующих продуктов, в том числе - при обучении аналогичных ИИ-моделей. Именно ссылаясь на этот пункт, Anthropic ограничила OpenAI доступ на фоне слухов о скором релизе GPT-5, которая, как сообщается, существенно превосходит предыдущие версии в программных задачах.
По данным источников, OpenAI использовала специальный API-доступ, позволяющий работать с Claude в обход стандартного интерфейса. Это дало возможность провести внутренние тесты, включая проверку на способность к кодингу, а также анализ поведения модели при обсуждении чувствительных тем - от вопросов безопасности до самоповреждений. Такие исследования помогали OpenAI корректировать поведение своих моделей и повышать их надёжность.
Ханна Вонг, директор по коммуникациям OpenAI, отметила: "Анализ ИИ-решений конкурентов - это нормальная практика, важная для развития индустрии и повышения уровня безопасности. Мы уважаем решение Anthropic, но огорчены тем, что наш API по-прежнему доступен для них".
В ответ Anthropic уточнила, что продолжит предоставлять OpenAI доступ к своим моделям исключительно для целей анализа и сравнительного тестирования - в рамках отраслевых норм. Однако пока неясно, как сложившийся инцидент повлияет на будущие отношения между компаниями.
Источник
Уникальность