Google Cloud анонсировала восьмое поколение собственных AI-чипов, разделив их на две специализированные версии. Чип TPU 8t предназначен для обучения моделей, а TPU 8i — для инференса, то есть использования уже обученных моделей при обработке запросов пользователей.
По данным компании, новые TPU обеспечивают ускорение обучения AI-моделей в три раза, улучшение производительности на доллар на 80% и возможность объединения более одного миллиона чипов в единый кластер. Компания заявляет, что это позволит снизить энергопотребление и затраты клиентов по сравнению с предыдущими поколениями.
Google не полностью отказывается от решений Nvidia. По информации компании, облачная платформа будет предлагать чипы Vera Rubin от Nvidia позже в этом году. Кроме того, Google и Nvidia договорились о совместной разработке сетевых технологий для повышения эффективности Nvidia-систем в облаке Google, включая оптимизацию программного обеспечения Falcon.
Аналитики отмечают, что крупные облачные провайдеры, включая Microsoft и Amazon, используют собственные чипы как дополнение к инфраструктуре на базе Nvidia, а не полную замену. Рынок AI-чипов остается конкурентным, однако Nvidia сохраняет доминирующую позицию с капитализацией около пяти триллионов долларов.
Разработка собственных AI-чипов позволяет облачным провайдерам снижать зависимость от Nvidia по мере роста спроса на облачные AI-услуги и миграции приложений на специализированные платформы.
Источник: TechCrunch AI
Реклама: 🔥 Хочешь получить Telegram Premium и стать гуру Polymarket? Кликай сюда!