Одной из ключевых целей UALink является создание конкурентоспособной экосистемы подключения для ускорителей искусственного интеллекта, которая будет конкурировать с устоявшейся технологией NVLink от Nvidia, позволяющей «зеленой» компании создавать оптимизированные для искусственного интеллекта решения масштаба стойки, такие как Blackwell NVL72. С появлением UALink 1.0 такие компании, как AMD, Broadcom, Google и Intel, также смогут создавать подобные решения, используя стандартные для отрасли технологии, а не проприетарные решения Nvidia, что означает снижение стоимости.
Консорциум Ultra Accelerator Link во вторник официально опубликовал окончательную спецификацию UALink 1.0, что означает, что члены группы могут приступать к выпуску чипов, поддерживающих новую технологию. Новая технология межсоединений предназначена для ускорителей ИИ и высокопроизводительных вычислений и поддерживается широким кругом отраслевых игроков, включая AMD, Apple, Broadcom и Intel. Она обещает стать стандартом де-факто для подключения такого оборудования.
Спецификация UALink 1.0 определяет высокоскоростной интерконнект для ускорителей с низкой задержкой, поддерживающий максимальную двунаправленную скорость передачи данных 200 ГТ/с на линию с передачей сигнала на скорости 212,5 ГТ/с для обеспечения прямой коррекции ошибок и накладных расходов на кодирование. UALink может быть сконфигурирован как x1, x2 или x4, при этом четырехполосный канал достигает скорости до 800 ГТ/с как в направлении передачи, так и в направлении приема.
Одна система UALink поддерживает до 1024 ускорителей (GPU или других), подключенных через коммутаторы UALink, которые назначают один порт на ускоритель и 10-битный уникальный идентификатор для точной маршрутизации. Длина кабелей UALink оптимизирована до<4 метров, что обеспечивает задержку <1 мкс в обе стороны при использовании 64B/640B полезной нагрузки.
Каналы поддерживают детерминированную производительность в пределах от одной до четырех стоек. Стек протоколов UALink включает четыре аппаратно-оптимизированных уровня: физический, канальный, транзакционный и протокольный. Физический уровень использует стандартные компоненты Ethernet (например, 200GBASE-KR1/CR1) и включает модификации для снижения задержки с помощью FEC. Канальный уровень упаковывает 64-байтовые флиты транзакционного уровня в 640-байтовые блоки, применяя CRC и дополнительную логику повтора. Этот уровень также обеспечивает обмен сообщениями между устройствами и поддерживает обмен данными с микропрограммой в стиле UART.
Транзакционный уровень реализует сжатую адресацию, упрощая передачу данных с эффективностью протокола до 95 % при реальных рабочих нагрузках. Он также обеспечивает прямые операции с памятью, такие как чтение, запись и атомарные транзакции между ускорителями, сохраняя упорядоченность в локальных и удаленных пространствах памяти.
Поскольку протокол UALink ориентирован на современные центры обработки данных, он поддерживает интегрированные возможности безопасности и управления. Например, UALinkSec обеспечивает шифрование и аутентификацию всего трафика на аппаратном уровне, защищая от физического взлома и поддерживая конфиденциальные вычисления с помощью контролируемых арендатором сред Trusted Execution Environments (таких как AMD SEV, Arm CCA и Intel TDX). Спецификация позволяет разделять виртуальные модули (Virtual Pod partitioning), когда группы ускорителей изолируются в рамках одного модуля с помощью конфигурации на уровне коммутаторов, что позволяет одновременно выполнять многопользовательские рабочие нагрузки на общей инфраструктуре.
UALink Pods будут управляться с помощью специального программного обеспечения и агентов встроенного ПО, использующих стандартные интерфейсы PCIe и Ethernet. Полная управляемость поддерживается с помощью REST API, телеметрии, контроля рабочих нагрузок и изоляции от сбоев.
«С выпуском спецификации UALink 200G 1.0 компании-члены консорциума UALink активно создают открытую экосистему для подключения масштабируемых ускорителей», - говорит Питер Онуфрик, президент консорциума UALink. «Мы с нетерпением ждем разнообразных решений, которые вскоре появятся на рынке и обеспечат работу будущих приложений искусственного интеллекта».
Компания Nvidia в настоящее время доминирует на рынке ускорителей ИИ благодаря своей надежной экосистеме и решениям для масштабирования. В настоящее время она поставляет стойки Blackwell NVL72, которые используют NVLink для подключения до 72 GPU в одной стойке, а межстоечные модули позволяют подключать до 576 GPU Blackwell B200 в одном модуле. В будущем году Nvidia планирует создать платформу Vera Rubin, которая позволит масштабировать до 144 GPU в одной стойке, а Rubin Ultra в 2027 году - до 576 GPU в одной стойке.
Оригинал
Уникальность