ИИ на открытом коде менее экономичны в работе

ИИ, нейросети, токены, эффективность, экономичность

Нейросети с открытым исходным кодом тратят значительно больше ресурсов на обработку запросов, чем их закрытые аналоги. К такому выводу пришел исследователь под псевдонимом Tim (@cpldcpu), изучив эффективность работы языковых моделей разных разработчиков.

По данным анализа, ИИ с открытым кодом используют в 1,5–4 раза больше токенов при решении схожих задач, чем закрытые модели OpenAI и Grok-4. В простых вопросах, не требующих рассуждений, например, «Столицей какой страны является Канберра?» — разница может быть десятикратной. Несмотря на то что модели с открытым кодом часто дешевле в использовании, их склонность к «многословию» делает итоговую стоимость запроса сопоставимой или даже выше.

«Закрытые модели, например GPT от OpenAI, оптимизированы для минимального количества токенов, что снижает затраты и ускоряет генерацию ответов», — отмечает Tim. Открытые модели, напротив, чаще полагаются на длинные цепочки рассуждений (Chain of Thought), что может объяснять их высокое потребление токенов.

Самой эффективной среди моделей с открытым кодом оказалась llama-3.3-nemotron-super-49b-v1 от Nvidia, показавшая наименьшее количество избыточных токенов. Лидером по экономичности в целом стал новый open-weight от OpenAI — gpt-oss-120b.