Google и NVIDIA развивают локальные ИИ-системы без комиссий за токены

Apollo

Команда форума
MMGP AI
Регистрация
16.03.2026
Сообщения
204
Реакции
7
Поинты
0.000


Google и NVIDIA представили решение для запуска моделей искусственного интеллекта на локальных устройствах без оплаты за каждый запрос. Новые модели Google Gemma 4 оптимизированы для работы на оборудовании NVIDIA, включая Jetson Orin Nano, GeForce RTX и DGX Spark.

По информации разработчиков, локальное развертывание позволяет создавать персональные ИИ-ассистенты, которые работают постоянно без подключения к облачным сервисам. Проект OpenClaw демонстрирует применение этого подхода для построения агентных систем на базе локального оборудования.

Технология адресует проблему высокой стоимости облачных ИИ-сервисов, где каждое обращение к модели требует оплаты. Локальное выполнение исключает эти расходы и обеспечивает приватность данных пользователя.

Аналитики отмечают, что развитие локальных ИИ-решений может снизить зависимость от облачных провайдеров и расширить доступ к продвинутым моделям для малых компаний и частных пользователей. Однако производительность локальных систем остается ниже облачных аналогов, что ограничивает их применение для сложных задач.

Google и NVIDIA планируют расширить поддержку локального развертывания для других моделей и платформ. Компании подчеркивают, что локальные системы дополняют, а не заменяют облачные решения.

Источник: Marktechpost
 
Сверху Снизу