Технические гиганты OpenAI и Nvidia объявили о стратегическом партнёрстве, в рамках которого планируется развернуть центры данных для ИИ мощностью 10 гигаватт с инвестициями в размере 100 миллиардов долларов.
OpenAI обязалась создать несколько центров данных, выбрав Nvidia в качестве «предпочтительного стратегического партнёра по вычислениям и сетевым технологиям», при этом первый центр ожидается к развертыванию во второй половине 2026 года. Партнёрство предусматривает, что OpenAI будет активно строить центры, пока их совокупная мощность не достигнет «как минимум» 10 гигаватт. Со своей стороны, Nvidia выделила 100 миллиардов долларов, направляя эти средства на постепенные инвестиции в OpenAI, предположительно через покупку акций.
Кроме того, что особенно примечательно, обе компании обязались «совместно оптимизировать» свои дорожные карты. Не сложно предположить, что клиенты Nvidia в сфере ИИ уже влияют на дизайн её чипов, но это заявление может означать, что OpenAI получит большее влияние на планы Nvidia, чем ранее.
Компании также отмечают, что новое сотрудничество удачно дополняет существующие соглашения с такими партнёрами, как Microsoft, Oracle и SoftBank. OpenAI уже является эксклюзивным партнёром Microsoft по ИИ, причём в январе Microsoft пообещала инвестировать 80 миллиардов долларов в эту технологию.
Между тем, Сэм Альтман из OpenAI заметил, что «вычислительная инфраструктура станет основой экономики будущего» — утверждение, которое ещё два-три года назад могло показаться преувеличением.
Следующие центры данных OpenAI будут использовать платформу Nvidia Vera Rubin (и, вероятно, Rubin Ultra) — мощные ускорители с 76 ТБ памяти HBM4, которые, предположительно, способны выполнять вывод FP4 на уровне 3,6 эксафлопс и обучение FP8 на уровне 1,2 эксафлопс. Сам факт того, что префикс «экса» становится обыденным, вызывает одновременно восторг и тревогу.
Графические процессоры Rubin и процессоры Vera были разработаны в конце августа и сейчас производятся на мощностях TSMC. Ожидается, что Rubin Ultra обеспечит 15 эксафлопс для операций вывода FP4 и 5 эксафлопс для обучения FP4, благодаря 365 ТБ памяти HBM4e и 14 GPU GB300.
Оригинал
Уникальность