• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Anthropic закрыла доступ к ИИ-боту Claude для сотрудников OpenAI

1.jpg


Компания Anthropic заблокировала доступ OpenAI к своим ИИ-моделям через API, сославшись на нарушение условий использования.

Об этом сообщило издание *Wired*, ссылаясь на информированные источники.

"Claude Code получил широкое признание среди разработчиков, и неудивительно, что команда OpenAI прибегла к нашим инструментам в процессе подготовки к запуску GPT-5. Однако такие действия противоречат нашим правилам", - пояснил представитель Anthropic.

Согласно политике компании, её сервисы нельзя использовать для разработки конкурирующих продуктов, в том числе - при обучении аналогичных ИИ-моделей. Именно ссылаясь на этот пункт, Anthropic ограничила OpenAI доступ на фоне слухов о скором релизе GPT-5, которая, как сообщается, существенно превосходит предыдущие версии в программных задачах.

По данным источников, OpenAI использовала специальный API-доступ, позволяющий работать с Claude в обход стандартного интерфейса. Это дало возможность провести внутренние тесты, включая проверку на способность к кодингу, а также анализ поведения модели при обсуждении чувствительных тем - от вопросов безопасности до самоповреждений. Такие исследования помогали OpenAI корректировать поведение своих моделей и повышать их надёжность.

Ханна Вонг, директор по коммуникациям OpenAI, отметила: "Анализ ИИ-решений конкурентов - это нормальная практика, важная для развития индустрии и повышения уровня безопасности. Мы уважаем решение Anthropic, но огорчены тем, что наш API по-прежнему доступен для них".

В ответ Anthropic уточнила, что продолжит предоставлять OpenAI доступ к своим моделям исключительно для целей анализа и сравнительного тестирования - в рамках отраслевых норм. Однако пока неясно, как сложившийся инцидент повлияет на будущие отношения между компаниями.


Источник
Уникальность
 
Сверху Снизу