• Добро пожаловать на инвестиционный форум!

    Во всем многообразии инвестиций трудно разобраться. MMGP станет вашим надежным помощником и путеводителем в мире инвестиций. Только самые последние тренды, передовые технологии и новые возможности. 400 тысяч пользователей уже выбрали нас. Самые актуальные новости, проверенные стратегии и способы заработка. Сюда люди приходят поделиться своим опытом, найти и обсудить новые перспективы. 16 миллионов сообщений, оставленных нашими пользователями, содержат их бесценный опыт и знания. Присоединяйтесь и вы!

    Впрочем, для начала надо зарегистрироваться!
  • 🐑 Моисей водил бесплатно. А мы платим, хотя тоже планируем работать 40 лет! Принимай участие в партнеской программе MMGP
  • 📝 Знаешь буквы и умеешь их компоновать? Платим. Дорого. Бессрочная акция от MMGP: "ОПЛАТА ЗА СООБЩЕНИЯ"
  • 💰 В данном разделе действует акция с оплатой за новые публикации
  • 📌 Внимание! Перед публикацией новостей ознакомьтесь с правилами новостных разделов

ChatGPT может оказаться не таким уж и прожорливым, как предполагалось ранее

Чат.jpg

ChatGPT, платформа для чатботов от OpenAI, возможно, не так уж и требовательна к мощности, как считалось раньше. Но ее аппетит во многом зависит от того, как используется ChatGPT и какие модели ИИ отвечают на запросы, говорится в новом исследовании.

В недавнем анализе Epoch AI, некоммерческого исследовательского института ИИ, была предпринята попытка подсчитать, сколько энергии потребляет типичный запрос ChatGPT. Согласно часто приводимым данным, для ответа на один вопрос ChatGPT требуется около 3 ватт-часов энергии, что в 10 раз больше, чем при поиске в Google.
Epoch считает, что это завышенная оценка.

Используя последнюю модель OpenAI по умолчанию для ChatGPT, GPT-4o, в качестве эталона, Epoch обнаружила, что средний запрос ChatGPT потребляет около 0,3 ватт-часа - меньше, чем многие бытовые приборы.

«Потребление энергии действительно не так уж велико по сравнению с использованием обычных приборов, обогревом или охлаждением дома, или ездой на автомобиле», - сказал TechCrunch Джошуа Ю, аналитик Epoch, который проводил анализ.

Использование энергии ИИ - и его влияние на окружающую среду в целом - является предметом спорных дебатов, поскольку ИИ-компании стремятся быстро расширить свое инфраструктурное присутствие. Только на прошлой неделе группа из более чем 100 организаций опубликовала открытое письмо, в котором призвала индустрию ИИ и регулирующие органы обеспечить, чтобы новые центры обработки данных ИИ не истощали природные ресурсы и не заставляли коммунальные службы полагаться на невозобновляемые источники энергии.

Вы рассказали TechCrunch, что к анализу его подтолкнуло то, что он назвал устаревшими предыдущими исследованиями. Например, вы отметили, что автор отчета, в котором приводилась оценка в 3 ватт-часа, предполагал, что OpenAI использует старые, менее эффективные чипы для работы своих моделей.

«Я видел много публичных рассуждений, которые правильно признавали, что ИИ будет потреблять много энергии в ближайшие годы, но не совсем точно описывали энергию, которая идет на ИИ сегодня», - сказал Вы. «Кроме того, некоторые из моих коллег заметили, что наиболее распространенная оценка в 3 ватт-часа на запрос была основана на довольно старых исследованиях и, исходя из некоторых салфеточных расчетов, казалась слишком высокой».

Конечно, цифра в 0,3 ватт-часа, приведенная Epoch, тоже приблизительна; OpenAI не опубликовала подробностей, необходимых для точного расчета.
Анализ также не учитывает дополнительные затраты энергии, которые несут такие функции ChatGPT, как генерация изображений или обработка ввода. Вы признали, что «длинные входные» запросы ChatGPT - например, запросы с длинными прикрепленными файлами - вероятно, потребляют больше электроэнергии, чем обычный вопрос.
Вы сказали, что он ожидает, что базовое энергопотребление ChatGPT будет расти.

«ИИ станет более продвинутым, его обучение, вероятно, потребует гораздо больше энергии, и этот будущий ИИ может использоваться гораздо интенсивнее, решая гораздо больше задач и более сложных задач, чем те, которые люди используют в ChatGPT сегодня».

Несмотря на то что в последние месяцы были достигнуты значительные успехи в повышении эффективности ИИ, масштабы его внедрения, как ожидается, приведут к расширению инфраструктуры, требующей огромного количества энергии. По данным отчета Rand, в ближайшие два года центрам обработки данных ИИ может потребоваться почти вся энергетическая мощность Калифорнии за 2022 год (68 ГВт). К 2030 году обучение пограничной модели может потребовать мощности, эквивалентной мощности восьми ядерных реакторов (8 ГВт), прогнозируется в отчете.

Один только ChatGPT охватывает огромное - и все возрастающее - количество людей, что делает его серверы столь же массивными. OpenAI, вместе с несколькими инвестиционными партнерами, планирует потратить миллиарды долларов на новые проекты центров обработки данных для ИИ в течение следующих нескольких лет.
Внимание OpenAI - как и всей индустрии ИИ - также смещается в сторону моделей рассуждений, которые, как правило, более способны решать задачи, но требуют больше вычислений для выполнения.

В отличие от таких моделей, как GPT-4o, которые отвечают на запросы практически мгновенно, рассуждающие модели «думают» от нескольких секунд до нескольких минут, прежде чем ответить, и этот процесс отнимает больше вычислительных ресурсов, а значит, и мощности.
«Разумные модели будут все чаще брать на себя задачи, которые не под силу старым моделям, и генерировать для этого больше [данных], а для того и другого потребуется больше дата-центров».

OpenAI начала выпускать более энергоэффективные модели рассуждений, такие как o3-mini. Но кажется маловероятным, по крайней мере, на данный момент, что повышение эффективности компенсирует возросшие требования к мощности, связанные с процессом «мышления» моделей рассуждений и растущим использованием ИИ во всем мире.

Вы предложили людям, беспокоящимся об энергетическом следе ИИ, использовать такие приложения, как ChatGPT, нечасто или выбирать модели, которые минимизируют необходимые вычисления - в той степени, в какой это реально.

«Вы можете попробовать использовать небольшие модели ИИ, такие как [OpenAI's] GPT-4o-mini, и редко использовать их в тех случаях, когда требуется обрабатывать или генерировать тонну данных».

Оригинал
Уникальность
 
Сверху Снизу