В попытке более жестко конкурировать с конкурирующими ИИ-компаниями, такими как Google, OpenAI запускает Flex processing, API-вариант, который обеспечивает более низкие цены на использование ИИ-моделей в обмен на более медленное время отклика и «случайную недоступность ресурсов».
Flex processing, доступная в бета-версии для недавно выпущенных OpenAI моделей рассуждений o3 и o4-mini, предназначена для менее приоритетных и «непроизводственных» задач, таких как оценка моделей, обогащение данных и асинхронные рабочие нагрузки, говорят в OpenAI.
Это снижает стоимость API ровно в два раза. Для o3 стоимость обработки Flex составляет $5/M входных токенов (~750 000 слов) и $20/M выходных токенов по сравнению со стандартными $10/M входных токенов и $40/M выходных токенов. Для o4-mini Flex снижает цену до $0,55/M входных токенов и $2,20/M выходных токенов с $1,10/M входных токенов и $4,40/M выходных токенов.
Запуск процессинга Flex происходит на фоне продолжающегося роста цен на передовой ИИ и выпуска конкурентами более дешевых и эффективных бюджетных моделей. В четверг Google выпустила Gemini 2.5 Flash, модель рассуждений, которая соответствует или превосходит DeepSeek's R1 по производительности при более низкой стоимости входных токенов.
В электронном письме клиентам, сообщающем о запуске цен на Flex, OpenAI также указала, что разработчики, находящиеся на 1-3-м уровнях иерархии уровней использования, должны будут пройти недавно введенный процесс проверки ID, чтобы получить доступ к o3. (Уровни определяются количеством денег, потраченных на услуги OpenAI.) Резюме рассуждений O3 - и других моделей - и поддержка потокового API также будут закрыты после проверки.
Ранее OpenAI заявляла, что проверка идентификационных данных призвана остановить недобросовестных участников от нарушения политики использования.
Оригинал
Уникальность