Близкий партнер и сотрудник Microsoft, компания OpenAI, может предположить, что DeepSeek украла ее IP и нарушила условия предоставления услуг. Но Microsoft все еще хочет, чтобы новые блестящие модели DeepSeek работали на ее облачной платформе.
Сегодня Microsoft объявила, что R1, так называемая модель рассуждений DeepSeek, доступна на сервисе Azure AI Foundry, платформе Microsoft, которая объединяет ряд сервисов ИИ для предприятий под одним знаменем. В своем блоге Microsoft сообщила, что версия R1 на Azure AI Foundry «прошла строгий отбор и оценку безопасности», включая «автоматическую оценку поведения модели и всестороннюю проверку безопасности для снижения потенциальных рисков».
В ближайшем будущем, по словам Microsoft, клиенты смогут использовать «дистиллированные» версии R1 для локального запуска на ПК Copilot+ - аппаратном обеспечении Microsoft под управлением Windows, отвечающем определенным требованиям готовности к работе с искусственным интеллектом.
«Продолжая расширять каталог моделей в Azure AI Foundry, мы с нетерпением ждем, когда разработчики и предприятия начнут использовать [...] R1 для решения реальных задач и создания революционного опыта», - говорится в сообщении Microsoft.
Добавление R1 в облачные сервисы Microsoft является любопытным, учитывая, что Microsoft, как сообщается, инициировала расследование потенциального злоупотребления сервисами DeepSeek и OpenAI. По мнению исследователей безопасности, работающих на Microsoft, осенью 2024 года DeepSeek могла вывести большое количество данных с помощью API OpenAI. Microsoft, которая также является крупнейшим акционером OpenAI, уведомила OpenAI о подозрительной активности, сообщает Bloomberg.
Но о R1 говорят все, и Microsoft, возможно, убедили включить ее в свой облачный фонд, пока она еще привлекательна.
Неясно, вносила ли Microsoft какие-либо изменения в модель для повышения ее точности - и борьбы с цензурой. Согласно тесту, проведенному организацией NewsGuard, занимающейся проверкой достоверности информации, R1 в 83 % случаев дает неточные ответы или не отвечает на вопросы, связанные с новостями. Отдельный тест показал, что R1 отказывается отвечать на 85 % вопросов, связанных с Китаем, что, возможно, является следствием государственной цензуры, которой подвергаются модели ИИ, разработанные в этой стране.
Оригинал
Уникальность