Поскольку генеративный искусственный интеллект и модели больших языков (LLM) продолжают стимулировать инновации, требования к вычислениям для обучения и вывода растут с поразительной скоростью.
Чтобы удовлетворить эту потребность, Google Cloud сегодня объявила об общедоступной доступности своих новых экземпляров A3 на базе графических процессоров NVIDIA H100 Tensor Core. Эти графические процессоры обеспечивают беспрецедентную производительность для всех видов приложений искусственного интеллекта благодаря механизму Transformer Engine, специально созданному для ускорения LLM.
Доступность инстансов A3 последовала за тем, что NVIDIA была названа партнером года по генеративному ИИ Google Cloud — награда, которая признает глубокое и постоянное сотрудничество компаний в области ускорения генеративного ИИ в Google Cloud.
Совместные усилия принимают различные формы: от проектирования инфраструктуры до обширной реализации программного обеспечения, чтобы упростить создание и развертывание приложений искусственного интеллекта на платформе Google Cloud.
На конференции Google Cloud Next основатель и генеральный директор NVIDIA Дженсен Хуанг вместе с генеральным директором Google Cloud Томасом Курианом выступил с основным докладом мероприятия, чтобы отметить общедоступность экземпляров A3 с графическим процессором NVIDIA H100 и рассказать о том, как Google использует графические процессоры NVIDIA H100 и A100 для внутренних исследования и выводы в DeepMind и других подразделениях.
Источник
Уникальность