Стремительный рост Nvidia в 2023 и 2024 годах был обусловлен взрывным спросом на графические процессоры в секторе искусственного интеллекта, в основном в США, странах Ближнего Востока и Китае. Поскольку в США действуют экспортные ограничения, и Nvidia не может продавать свои самые дорогие процессоры Hopper H100, H200 и H800 в Китай без экспортной лицензии от правительства, она продает свои урезанные графические процессоры HGX H20 организациям в Китае. Однако, по словам аналитика Клауса Аашольма, несмотря на то, что HGX H20 урезан, он демонстрирует необычайно высокие показатели продаж.
Показатели продаж продукта можно увидеть в таблице, приведенной в твите ниже. «Пониженная система H20, которая проходит по правилам эмбарго для Китая, показывает невероятно хорошие результаты», - написал Аашольм. «С ростом 50 % квартал за кварталом это самый успешный продукт Nvidia. Бизнес H100 «вырос» всего на 25 % по сравнению с предыдущим кварталом».
Судя по выводам Клауса Аашолма, Nvidia зарабатывает десятки миллиардов долларов, продавая графический процессор HGX H20, несмотря на его серьезно сниженную производительность по сравнению с полноценным H100. Искусственный интеллект - это действительно мегатренд, который стимулирует продажи практически всех типов оборудования для центров обработки данных, включая графические процессоры Hopper от Nvidia, в том числе HGX H20.
Ведущие экономики мира - США и Китай - стремятся получить максимальные возможности ИИ. Для Америки этот рост более или менее естественен: больше денег и больше оборудования - больше возможностей, но этого недостаточно. Одна только OpenAI зарабатывает миллиарды, но ей нужно еще больше, чтобы получить больше оборудования и, соответственно, возможностей для обучения и вывода ИИ.
Несмотря на все ограничения, возможности китайского ИИ - как в области аппаратного обеспечения, так и в области разработки крупных моделей - расширяются. Буквально на прошлой неделе выяснилось, что китайская ИИ-компания Deepseek в своей статье сообщила, что обучила свою языковую модель DeepSeek-V3 Mixture-of-Experts (MoE) с 671 миллиардом параметров на кластере из 2 048 графических процессоров Nvidia H800 и что на это ушло два месяца, в общей сложности 2,8 миллиона часов работы GPU.
Для сравнения, Meta потратила в 11 раз больше вычислительных ресурсов (30,8 млн GPU-часов) на обучение Llama 3 с 405 миллиардами параметров, используя 16 384 графических процессора H100 в течение 54 дней.
Со временем китайские ускорители от таких компаний, как Biren Technologies и Moore Threads, могут потеснить Nvidia, которая сейчас практически монополизирована в китайских дата-центрах. Однако это не может произойти в одночасье.
Оригинал
Уникальность