ChatGPT, платформа для чатботов от OpenAI, возможно, не так уж и требовательна к мощности, как считалось раньше. Но ее аппетит во многом зависит от того, как используется ChatGPT и какие модели ИИ отвечают на запросы, говорится в новом исследовании.
В недавнем анализе Epoch AI, некоммерческого исследовательского института ИИ, была предпринята попытка подсчитать, сколько энергии потребляет типичный запрос ChatGPT. Согласно часто приводимым данным, для ответа на один вопрос ChatGPT требуется около 3 ватт-часов энергии, что в 10 раз больше, чем при поиске в Google.
Epoch считает, что это завышенная оценка.
Используя последнюю модель OpenAI по умолчанию для ChatGPT, GPT-4o, в качестве эталона, Epoch обнаружила, что средний запрос ChatGPT потребляет около 0,3 ватт-часа - меньше, чем многие бытовые приборы.
«Потребление энергии действительно не так уж велико по сравнению с использованием обычных приборов, обогревом или охлаждением дома, или ездой на автомобиле», - сказал TechCrunch Джошуа Ю, аналитик Epoch, который проводил анализ.
Использование энергии ИИ - и его влияние на окружающую среду в целом - является предметом спорных дебатов, поскольку ИИ-компании стремятся быстро расширить свое инфраструктурное присутствие. Только на прошлой неделе группа из более чем 100 организаций опубликовала открытое письмо, в котором призвала индустрию ИИ и регулирующие органы обеспечить, чтобы новые центры обработки данных ИИ не истощали природные ресурсы и не заставляли коммунальные службы полагаться на невозобновляемые источники энергии.
Вы рассказали TechCrunch, что к анализу его подтолкнуло то, что он назвал устаревшими предыдущими исследованиями. Например, вы отметили, что автор отчета, в котором приводилась оценка в 3 ватт-часа, предполагал, что OpenAI использует старые, менее эффективные чипы для работы своих моделей.
«Я видел много публичных рассуждений, которые правильно признавали, что ИИ будет потреблять много энергии в ближайшие годы, но не совсем точно описывали энергию, которая идет на ИИ сегодня», - сказал Вы. «Кроме того, некоторые из моих коллег заметили, что наиболее распространенная оценка в 3 ватт-часа на запрос была основана на довольно старых исследованиях и, исходя из некоторых салфеточных расчетов, казалась слишком высокой».
Конечно, цифра в 0,3 ватт-часа, приведенная Epoch, тоже приблизительна; OpenAI не опубликовала подробностей, необходимых для точного расчета.
Анализ также не учитывает дополнительные затраты энергии, которые несут такие функции ChatGPT, как генерация изображений или обработка ввода. Вы признали, что «длинные входные» запросы ChatGPT - например, запросы с длинными прикрепленными файлами - вероятно, потребляют больше электроэнергии, чем обычный вопрос.
Вы сказали, что он ожидает, что базовое энергопотребление ChatGPT будет расти.
«ИИ станет более продвинутым, его обучение, вероятно, потребует гораздо больше энергии, и этот будущий ИИ может использоваться гораздо интенсивнее, решая гораздо больше задач и более сложных задач, чем те, которые люди используют в ChatGPT сегодня».
Несмотря на то что в последние месяцы были достигнуты значительные успехи в повышении эффективности ИИ, масштабы его внедрения, как ожидается, приведут к расширению инфраструктуры, требующей огромного количества энергии. По данным отчета Rand, в ближайшие два года центрам обработки данных ИИ может потребоваться почти вся энергетическая мощность Калифорнии за 2022 год (68 ГВт). К 2030 году обучение пограничной модели может потребовать мощности, эквивалентной мощности восьми ядерных реакторов (8 ГВт), прогнозируется в отчете.
Один только ChatGPT охватывает огромное - и все возрастающее - количество людей, что делает его серверы столь же массивными. OpenAI, вместе с несколькими инвестиционными партнерами, планирует потратить миллиарды долларов на новые проекты центров обработки данных для ИИ в течение следующих нескольких лет.
Внимание OpenAI - как и всей индустрии ИИ - также смещается в сторону моделей рассуждений, которые, как правило, более способны решать задачи, но требуют больше вычислений для выполнения.
В отличие от таких моделей, как GPT-4o, которые отвечают на запросы практически мгновенно, рассуждающие модели «думают» от нескольких секунд до нескольких минут, прежде чем ответить, и этот процесс отнимает больше вычислительных ресурсов, а значит, и мощности.
«Разумные модели будут все чаще брать на себя задачи, которые не под силу старым моделям, и генерировать для этого больше [данных], а для того и другого потребуется больше дата-центров».
OpenAI начала выпускать более энергоэффективные модели рассуждений, такие как o3-mini. Но кажется маловероятным, по крайней мере, на данный момент, что повышение эффективности компенсирует возросшие требования к мощности, связанные с процессом «мышления» моделей рассуждений и растущим использованием ИИ во всем мире.
Вы предложили людям, беспокоящимся об энергетическом следе ИИ, использовать такие приложения, как ChatGPT, нечасто или выбирать модели, которые минимизируют необходимые вычисления - в той степени, в какой это реально.
«Вы можете попробовать использовать небольшие модели ИИ, такие как [OpenAI's] GPT-4o-mini, и редко использовать их в тех случаях, когда требуется обрабатывать или генерировать тонну данных».
Оригинал
Уникальность