Сдержанный анализ данных, представленных лабораторией искусственного интеллекта Университета Род-Айленда и опубликованных в *The Guardian*, указывает на утверждение, что модель ИИ GPT-5 от OpenAI превосходит своих предшественников по функциональным возможностям, однако сопровождается значительно более высоким энергопотреблением — предположительно в 8,6 раза выше, чем у GPT-4. Тем не менее, отсутствие официальных данных от OpenAI об энергопотреблении модели вызывает вопросы о достоверности таких выводов и подчеркивает неопределенность относительно ее экологического и энергетического воздействия. Важно подчеркнуть, что представленные результаты являются лишь оценками, основанными на ряде предположений, что требует критического подхода к их интерпретации.
Согласно расчетам лаборатории, среднее энергопотребление GPT-5 составляет около 18,35 Вт·ч на запрос. При заявленных 2,5 миллиардах ежедневных запросов к ChatGPT это может привести к общему энергопотреблению в 45 ГВт·ч в сутки. Подобный уровень энергопотребления представляется значительным: для сравнения, современный ядерный реактор вырабатывает от 1 до 1,6 ГВт электроэнергии в час, что предполагает, что дата-центры, обслуживающие GPT-5, могут требовать мощности, эквивалентной двум-трем ядерным реакторам. Однако такие сравнения требуют дальнейшей проверки, учитывая спекулятивный характер расчетов.
Оценки университета основаны на предположении, что генерация ответа GPT-5 длиной в 1000 токенов потребляет до 40 Вт·ч, в среднем 18,35 Вт·ч, по сравнению с 2,12 Вт·ч для GPT-4. Эти показатели превышают энергопотребление других протестированных моделей, за исключением o3 от OpenAI (25,35 Вт·ч) и R1 от DeepSeek (20,90 Вт·ч). Однако методология тестирования вызывает серьезные сомнения. Исследователи комбинировали время отклика модели с предполагаемым энергопотреблением оборудования, при этом точные данные о конфигурации серверов OpenAI отсутствуют. Предполагается, что GPT-5 развернута на системах Nvidia DGX H100 или DGX H200 в инфраструктуре Microsoft Azure, но это лишь гипотеза. Оценка энергопотребления основана на умножении времени ответа на запрос на предполагаемую мощность оборудования, что вносит значительную погрешность.
Кроме того, расчеты учитывали энергопотребление дополнительных компонентов (процессоров, памяти, систем хранения и охлаждения) и применяли экологические коэффициенты Azure, такие как PUE (эффективность использования энергии), WUE (эффективность использования воды) и CIF (коэффициент углеродной интенсивности). Однако если OpenAI или Azure используют более производительное оборудование, например Nvidia Blackwell, которое может быть до четырех раз быстрее, эти оценки могут быть существенно ошибочными.
Архитектура GPT-5, основанная на смеси экспертов, предполагает, что не все параметры используются для каждого запроса, что может снижать энергопотребление для простых запросов. Однако в режиме рассуждений, требующем увеличенного времени обработки, энергопотребление, по данным исследователей, таких как Шаолей Рен, процитированных в *The Guardian*, может возрастать в 5–10 раз, достигая более 40 Вт·ч на запрос. Эти утверждения также требуют независимой верификации.
Хотя оценки лаборатории Род-Айленда предлагают гипотетическое представление о сравнительном энергопотреблении GPT-5, их абсолютная точность вызывает сомнения из-за множества допущений и отсутствия прямых данных от OpenAI. Тем не менее, объективно подтверждается, что дата-центры для ИИ в США уже сталкиваются с резким ростом энергопотребления. Дальнейшее распространение подобных технологий, вероятно, усугубит проблему энергообеспечения, что требует более тщательного изучения и прозрачности в отношении реальных характеристик таких систем.
Оригинал
Уникальность