В понедельник Nvidia представила H200, графический процессор, предназначенный для обучения и внедрения моделей искусственного интеллекта, которые способствуют буму генеративного искусственного интеллекта.
Новый графический процессор представляет собой модернизацию H100, чипа, который OpenAI использовал для обучения своей самой совершенной модели большого языка — GPT-4. Крупные компании, стартапы и правительственные учреждения борются за ограниченные поставки чипов.
По оценкам Рэймонда Джеймса, чипы H100 стоят от 25 000 до 40 000 долларов, и тысячи таких чипов, работающих вместе, необходимы для создания самых больших моделей в процессе, называемом «обучением».
Ажиотаж по поводу графических процессоров Nvidia для искусственного интеллекта привел к резкому росту акций компании, которые в 2023 году выросли более чем на 230%. Nvidia ожидает, что в третьем квартале финансового года выручка составит около $16 млрд, что на 170% больше, чем год назад.
Ключевым улучшением H200 является то, что он включает в себя 141 ГБ памяти нового поколения «HBM3», которая поможет чипу выполнять «выводы» или использовать большую модель после того, как он обучен генерировать текст, изображения или прогнозы.
Nvidia заявила, что H200 будет генерировать производительность почти в два раза быстрее, чем H100. Это основано на тесте с использованием Llama 2 LLM от Meta.
H200, который, как ожидается, поступит в продажу во втором квартале 2024 года, будет конкурировать с графическим процессором AMD MI300X. Чип AMD, как и H200, имеет дополнительную память по сравнению со своими предшественниками, что помогает размещать на оборудовании большие модели для выполнения логических выводов.
Источник
Уникальность