• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

Американская Anthropic закрывает доступ к своим AI-моделям для России и Китая

IMG_4671.jpeg


Американская компания Anthropic, создатель языковой модели Claude, ужесточила правила использования своих ИИ‑технологий, запретив компаниям с контролем большинства акций из Китая, России, Ирана или Северной Кореи работать с её моделями. Этот шаг направлен на укрепление национальной безопасности США.

Новые ограничения вступают в силу с 6 сентября 2025 года и касаются не только компаний, зарегистрированных в указанных странах, но и их зарубежных дочерних предприятий, если материнская компания владеет более 50% акций. Это первый случай, когда крупный американский разработчик ИИ вводит подобные меры.

Anthropic отмечает, что фирмы из авторитарных стран ранее обходили запреты, создавая дочерние компании в других государствах, например, в Сингапуре. По мнению компании, существует риск принудительного раскрытия данных и сотрудничества с разведслужбами этих стран, что может угрожать безопасности США. Использование возможностей ИИ такими организациями может ускорить разработку инструментов для иностранных военных или разведывательных структур, а также способствовать дистилляции моделей — переобучению на основе других, меньших моделей.

Financial Times сообщает, что под запрет могут попасть крупные китайские технологические компании, включая ByteDance, Tencent и Alibaba. Ограничения действуют как для прямых клиентов Anthropic, так и для организаций, использующих её модели через облачные сервисы.

Руководство Anthropic признаёт возможную потерю части бизнеса в пользу конкурентов, оценивая потенциальные финансовые убытки в сотни миллионов долларов. Тем не менее, в компании считают этот шаг необходимым.

Хотя чат-боты вроде Claude и ChatGPT официально заблокированы в Китае, доступ к ним сохраняется через VPN. В стране также развиваются собственные мощные модели ИИ, включая Qwen, Deepseek, Kimi и GLM. Новые ограничения Anthropic могут оказать заметное влияние на Китай, особенно когда объёмы обучения передовых моделей на высокопроизводительных ускорителях, таких как запрещённые в стране чипы Nvidia, превысят возможности локального оборудования.

источник
уникальность
 
Сверху Снизу