Представьте себе знакомую многим картину: вы отправляете простой текстовый запрос чат-боту. На экране смартфона почти мгновенно появляется ответ, сгенерированный ИИ-моделью. И вы даже не задумываетесь о том, что для выполнения этого единичного запроса гигантский дата-центр где-то в американской Неваде или в немецком Франкфурте потребил столько же энергии, сколько хватило бы на несколько секунд работы LED-лампочки. Казалось бы, сущая мелочь, но теперь умножьте эти микроскопические затраты на сотни миллионов подобных запросов в сутки — и вы получите цифры, в годовом пересчете исчисляемые уже сотнями тераватт-часов (ТВт·ч).
Так, по прошлогодним оценкам Института исследований электроэнергетики (Electric Power Research Institute, EPRI), в 2024 году центры обработки данных (ЦОД) в одних только Соединенных Штатах, на которые приходится основной объем мирового спроса, потребили от 177 до 192 ТВт·ч электроэнергии — это 4‒5% всей электроэнергии в США — и, по прогнозам, к 2030 году будут потреблять уже от 9 до 17% (столь большой разброс — следствие различных сценариев, разработанных экспертами EPRI). Причем этот диапазон оценок примерно на 60% выше, чем более ранние прогнозы EPRI, сделанные всего за полтора года до этого, и предполагает увеличение энергопотребления ЦОДами в 2–4 раза по сравнению с показателями 2024 года.
В свою очередь, в середине апреля 2026 года аналитики Мирового энергетического агентства (МЭА) представили уже второй по счету доклад Key Questions on Energy and AI («Ключевые вопросы в области энергетики и ИИ»). По их оценкам (базовый сценарий), к 2030 году глобальное потребление электроэнергии универсальными ЦОДами может удвоиться — с 485 ТВт·ч в 2025 году до 950 ТВт·ч, а в центрах, непосредственно специализирующихся на ИИ, — утроиться. А в случае реализации альтернативного сценария «быстрого взлета» (liftoff case) глобальный спрос может достигнуть 1260 ТВт·ч.