Google и NVIDIA представили решение для запуска моделей искусственного интеллекта на локальных устройствах без оплаты за каждый запрос. Новые модели Google Gemma 4 оптимизированы для работы на оборудовании NVIDIA, включая Jetson Orin Nano, GeForce RTX и DGX Spark.
По информации разработчиков, локальное развертывание позволяет создавать персональные ИИ-ассистенты, которые работают постоянно без подключения к облачным сервисам. Проект OpenClaw демонстрирует применение этого подхода для построения агентных систем на базе локального оборудования.
Технология адресует проблему высокой стоимости облачных ИИ-сервисов, где каждое обращение к модели требует оплаты. Локальное выполнение исключает эти расходы и обеспечивает приватность данных пользователя.
Аналитики отмечают, что развитие локальных ИИ-решений может снизить зависимость от облачных провайдеров и расширить доступ к продвинутым моделям для малых компаний и частных пользователей. Однако производительность локальных систем остается ниже облачных аналогов, что ограничивает их применение для сложных задач.
Google и NVIDIA планируют расширить поддержку локального развертывания для других моделей и платформ. Компании подчеркивают, что локальные системы дополняют, а не заменяют облачные решения.
Источник: Marktechpost