КирТАГ
Кыргызское телеграфное
агентство

Бишкек, 0:37 | 05 ноября

Развитие искусственного интеллекта требует все больше электроэнергии

Дата: 18:38, 04-11-2025.

Бишкек. 4 ноября. КирТАГ – Создание искусственных интеллектов следующих поколений, еще более масштабных, сложных и точных, столкнулось с неожиданным препятствием: их работа требует так много электричества, что существующие мощности могут просто не справиться с генерацией, пишут СМИ.

Узкое горлышко

Чем крупнее, тем «умнее» становятся нейросети. При обучении они перерабатывают огромные массивы данных, настраивая миллиарды, а то и триллионы своих внутренних переменных. Чем больше у модели таких параметров, тем проще ей находить закономерности и связи. Вышедшая в 2018 году GPT-1 использовала 117 млн переменных, GPT-2 — около 1,5 млрд, а в GPT-4, по некоторым данным, их более 1,7 трлн. Однако по мере увеличения размеров нейросети оказываются все более «прожорливыми»: если обучение GPT-2 обошлось компании OpenAI всего в 50 тысяч долларов, то на GPT-4 пришлось потратить уже более 100 млн.

Ведущие разработчики ИИ активно инвестируют в энергетическую инфраструктуру для собственных нужд. Google и Amazon Web Services запустили проекты по строительству атомных реакторов специально для питания своих серверов. А корпорация Microsoft и вовсе анонсировала возведение термоядерной электростанции Helion, которая обеспечит ее вычислительные мощности в штате Вашингтон.

Деньги нужны на инфраструктуру и работу дата-центров, питание и охлаждение десятков и сотен тысяч графических процессоров. Энергетические затраты, как и финансовые, растут экспоненциально. Эксперты подсчитали, что для подготовки GPT-4 было затрачено 51–62 ГВт*ч — такого количества электроэнергии мегаполису Сан-Франциско хватило бы на несколько дней.

По данным Международного энергетического агентства (МЭА), на вычисление и хранение данных сегодня уходит до 1,5% всей мировой электроэнергии. В США эта цифра уже достигла 4,4%; ожидается, что к 2028 году она вырастет до 12%. Однако новые огромные дата-центры для будущих нейросетей грозят сделать ситуацию куда более напряженной. В Вайоминге запланировано строительство дата-центра, который будет поглощать до 87,6 ТВт·ч в год — в пять раз больше, чем все жители штата, вместе взятые, и вдвое больше текущих возможностей генерации.

«Ненасытный спрос ИИ на электроэнергию опережает десятилетние циклы развития энергосистемы, создавая критическое «узкое горлышко»»

По капле

Энергия расходуется не только на обучение нейросети, но и на ее использование, то есть на обработку запросов. Каждая такая задача требует не слишком много ресурса, но если их приходится решать миллионами, непрерывным потоком, то цифры становятся весьма значительными.

По данным исследователей Университета Карнеги – Меллона, типичный текстовый запрос требует всего 0,47 Вт*ч, но в месяц GPT-4, обрабатывающий порядка 1,2 млрд подобных задач, потратит более 550 МВт*ч. Генерация изображений еще более затратна: согласно тому же докладу, на создание одной картинки требуется примерно столько же энергии, сколько на зарядку смартфона. К сожалению, точная оценка энергопотребления конкретных языковых моделей затруднена, поскольку компании разработчики не спешат раскрывать информацию.

Актуальной официальной статистики по потреблению электроэнергии системами ИИ в России, к сожалению, нет. По оценкам экспертов компании Gbig Holdings, за 2025 год оно составит 8–12 ТВт*ч — менее 1% от общей генерации. При консервативном (самом вероятном) сценарии к 2030 году нейросети будут расходовать 30–50 ТВт*ч, а при агрессивном (предусматривающем активное внедрение ИИ в промышленности и государственном управлении) — до 80–100 ТВт*ч. Все это пока сравнительно невысокий уровень, неспособный опасно перегрузить энергосистему страны или потребовать серьезных инвестиций в ее развитие.

Летом 2025 года глава OpenAI Сэм Альтман сообщил, что один запрос к GPT-4 требует 0,34 Вт*ч, а корпорация Google заявила, что на каждое обращение к ее модели Gemini расходуется 0,24 Вт*ч. И хотя названные цифры невелики, рядовые пользователи уже начали сталкиваться с ограничениями на использование нейросетей или платным доступом к ним. С другой стороны, проблема стимулирует разработчиков учитывать и новый, прежде не столь важный фактор — «энергетическую стоимость» создания и эксплуатации моделей. Недаром китайская DeepSeek стала таким заметным событием: предлагая многие функции «настоящих» масштабных нейросетей, она потребляет в 2–2,5 раза меньше ресурсов.

Источник фото: Из открытых источников

Поделиться новостью: