Искусственный интеллект, проникающий во все сферы жизни, грозит стать одним из главных потребителей электроэнергии на планете, считает Алекс де Врис-Гао, аспирант Института исследований окружающей среды VU Amsterdam.
Производители крупных языковых моделей (LLM), вроде ChatGPT, давно признают энергоемкость своих технологий, но в последнее время стали менее охотно делиться подробностями о своем потреблении энергии, что и побудило Алекса де Врис-Гао провести собственную оценку.
Он анализировал данные о чипах, производимых Taiwan Semiconductor Manufacturing Company (TSMC), которая стала основным поставщиком для Nvidia. В расчет исследователь взял оценки ведущих аналитиков, финансовые отчеты и детали о закупках и использовании оборудования для создания ИИ-дата-центров.
Кроме того, он изучил публичные отчеты о потреблении электроэнергии аппаратным обеспечением, используемым для работы ИИ-приложений, их коэффициенты загрузки.
В результате текущее глобальное потребление электроэнергии ИИ-центрами составит примерно 82 тераватт-часа в год. Это эквивалентно энергопотреблению Швейцарии.
Однако самое важное — это прогноз на будущее. Если спрос на искусственный интеллект удвоится к концу 2025-го, как это предполагают аналитики, то ИИ-приложения могут потреблять около половины всей энергии дата-центров по всему миру.