Снаружи дата-центр выглядит почти стерильно. Ровные ряды стоек, белый свет, дисциплина кабельных трасс, тишина, которую портит только ровный фон вентиляторов. Но если смотреть на него не глазами маркетолога, а глазами инженера, картина совсем другая. Это не “здание с серверами”. Это электрическая нагрузка огромной плотности, которая живет круглосуточно, плохо терпит перебои, требует резервирования почти на каждом уровне и почти всю потребленную электроэнергию превращает в тепло, которое надо быстро и надежно убрать. Именно здесь и начинается настоящая проблема.
Еще несколько лет назад разговор про энергопотребление дата-центров обычно крутился вокруг одной цифры - коэффициента PUE (Power Usage Effectiveness, коэффициент эффективности использования энергии дата-центра). Если он красивый, значит объект якобы хороший. Если не очень, значит надо подтянуть охлаждение и посмотреть, где уходят киловатты. Сегодня этого уже мало. Масштаб отрасли вырос, вычислительная плотность выросла, нагрузка от систем искусственного интеллекта выросла еще быстрее, и стало видно, что дата-центр упирается не только в счет за электричество, но и в подстанцию, качество питания, систему охлаждения, воду, резервирование и, в конечном итоге, в физические ограничения энергосистемы вокруг него. По оценке Международного энергетического агентства, то есть IEA (International Energy Agency, Международное энергетическое агентство), мировое потребление электроэнергии дата-центрами в базовом сценарии вырастет примерно до 945 тераватт-часов к 2030 году, что будет составлять чуть меньше 3% мирового спроса на электроэнергию. Это уже не узкая ниша, а заметный промышленный фактор.
Если взять не мир в целом, а Соединенные Штаты, масштаб становится еще более неприятно конкретным. По данным Министерства энергетики США, то есть DOE (Department of Energy, Министерство энергетики США), дата-центры потребили около 176 тераватт-часов в 2023 году, что соответствовало примерно 4,4% общего потребления электроэнергии в стране. К 2028 году прогнозный диапазон уже составляет 325-580 тераватт-часов, или примерно 6,7-12% от национального потребления. Когда отрасль выходит на такие числа, разговор “ну да, серверные стали прожорливее” заканчивается. Дальше начинается разговор о сетевой инфраструктуре, газовых турбинах, задержках на присоединение и том, как вообще физически доставить эту мощность туда, где ее хотят видеть операторы новых площадок.
Почему мегаватт дата-центра ощущается тяжелее обычного мегаватта
Один мегаватт на бумаге всегда выглядит одинаково. В реальности - нет. Мегаватт, который потребляет дата-центр, обычно идет в комплекте с резервированием, несколькими ступенями преобразования, повышенными требованиями к качеству питания и необходимостью немедленно убрать выделившееся тепло. Это значит, что сам полезный вычислительный киловатт редко приходит в зал в одиночку. Вместе с ним живут потери на трансформации, на распределении, на системах охлаждения, на источниках бесперебойного питания и на частично загруженной резервной инфраструктуре.
Именно поэтому дата-центры так резко отличаются от обычной коммерческой недвижимости. Министерство энергетики США прямо относит их к числу самых энергоемких типов зданий: в пересчете на площадь они могут потреблять в 10-50 раз больше электроэнергии, чем типичный офис. Для инженера это означает простую вещь. Ошибка в одном, казалось бы, второстепенном узле здесь почти всегда масштабируется. Перестарались с температурной уставкой - переплатили по всей холодопроизводительности. Переусердствовали с резервированием и оставили систему далеко от рабочей точки - получили потери на полупустой силовой инфраструктуре. Плохо организовали воздушные потоки - расплатились лишними киловаттами на вентиляторах и холодильной машине.
Uptime Institute, один из наиболее цитируемых отраслевых источников по эксплуатации дата-центров, в отчете за 2024 год зафиксировал очень показательный факт: примерно каждый четвертый объект из их опроса обычно использует менее 40% доступной мощности UPS (Uninterruptible Power Supply, источника бесперебойного питания). На русском это проще назвать системой резервного питания между сетью и ИТ-нагрузкой. Такая недозагрузка выглядит красиво с точки зрения “у нас есть запас”, но энергетически бьет по эффективности и силовой части, и охлаждения. Резервирование вообще редко бывает бесплатным. Оно почти всегда оставляет после себя постоянный энергетический налог.
Коэффициент PUE полезен, но он уже не объясняет всей картины
У дата-центров слишком долго была одна любимая цифра. PUE (Power Usage Effectiveness, коэффициент эффективности использования энергии дата-центра) показывает, сколько электроэнергии объект потребляет всего по отношению к тому, сколько из этого реально уходит на ИТ-нагрузку. Если совсем по-простому, это способ понять, сколько энергии “съедает” вся инженерная обвязка вокруг серверов. Чем ближе показатель к единице, тем меньше накладные потери на охлаждение, распределение питания и вспомогательные системы.
Проблема не в самом показателе. Проблема в том, что его слишком часто принимают за итоговую истину. Uptime Institute в 2024 году оценил средний годовой уровень PUE по отрасли примерно в 1,56. Для новых крупных объектов, особенно у гиперскейлеров, значения 1,2-1,3 и даже ниже уже не выглядят чем-то фантастическим. Google, например, по итогам 2024 года публично показал средний PUE по своему глобальному парку дата-центров на уровне 1,09. Это очень сильный результат, и он действительно говорит о высокой инженерной культуре. Но сам по себе коэффициент не отвечает на вопрос, какой ценой этот результат получен и насколько он воспроизводим на более старых объектах, в другом климате и под другую вычислительную нагрузку.
Uptime в том же отчете прямо говорит, что реальная жизнь сложнее одной дроби. Почти половина опрошенных операторов работает на объектах старше 11 лет, и именно этот “наследованный парк” сильно тормозит отраслевой прогресс. Кроме того, показатель PUE не показывает эффективность самих вычислений, не учитывает водопотребление и не объясняет, что происходит с объектом при росте плотности стоек или переходе к жидкостному охлаждению. Получается интересная ловушка: оператор может улучшить показатель на бумаге, но при этом ухудшить другие параметры - например, начать тратить больше воды, повысить капитальные затраты или сделать объект менее гибким для следующей модернизации.
Именно поэтому сегодня все чаще рядом с PUE вспоминают WUE (Water Usage Effectiveness, коэффициент эффективности использования воды), а еще чаще - вообще уходят от веры в один универсальный показатель и смотрят на объект как на совокупность нескольких режимов. Microsoft на своей странице по устойчивости дата-центров подчеркивает именно это: и энергоэффективность, и водоэффективность сильно зависят от климата, влажности, архитектуры площадки и инженерных решений, а значит прямое сравнение “число к числу” без контекста очень легко превращается в маркетинг.
Почти вся проблема упирается в тепло
Есть одна жесткая физическая истина, о которую разбиваются все красивые презентации. Почти все электричество, которое дата-центр потребил, превращается в тепло. Не абстрактно когда-нибудь потом, а очень быстро и очень локально. Именно поэтому у ЦОДов почти всегда две проблемы одновременно: как доставить мощность и как отвести тепло с той же скоростью.
На практике это означает, что охлаждение стало не побочной темой эксплуатации, а второй половиной всей энергетической задачи. Национальная лаборатория возобновляемой энергетики США, то есть NREL (National Renewable Energy Laboratory, Национальная лаборатория возобновляемой энергетики США), указывает, что на охлаждение может приходиться до 40% общего энергопотребления дата-центра. Это чудовищно большая доля. Получается, что почти половина ваших киловатт-часов может уходить не на вычисления, а на борьбу с теплом, которое сами вычисления и породили.
И тут особенно хорошо видно, почему старое интуитивное правило “чем холоднее в зале, тем надежнее” больше не работает. ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers, Американское общество инженеров по отоплению, холодильной технике и кондиционированию воздуха) уже давно рекомендует смотреть на дата-центр трезво, а не как на гигантский холодильник. Для воздушного охлаждения их актуальные тепловые рекомендации говорят о рекомендуемом диапазоне 18-27 °C для широкого набора классов оборудования, а допустимые пределы для части сценариев еще шире. На русском смысл простой: если архитектура площадки и характеристики оборудования позволяют, слишком агрессивное “вымораживание” зала - это чаще лишний расход энергии, чем признак зрелой эксплуатации.
Но на практике перейти от этого понимания к нормальной эксплуатации трудно. Причина банальная и очень инженерная. Нельзя просто поднять уставку температуры и ждать счастья. Нужно, чтобы воздушные потоки были организованы грамотно, горячие и холодные коридоры реально работали, байпасы были закрыты, recirculation был под контролем, а стойки не имели абсурдных локальных перегрузок. Иначе вместо экономии получится набор точечных перегревов, который потом лечат привычным способом - еще больше охлаждать весь зал целиком. Именно из-за таких историй многие площадки годами тратят лишнюю энергию, даже не считая это проблемой.
Рост плотности стоек сломал старые спокойные проектные допуски
Еще одна неприятная перемена последних лет - дата-центр стал гораздо менее равномерным. Раньше можно было строить инфраструктуру под условный средний профиль и рассчитывать, что стойки будут более-менее одинаковыми. Сегодня такой роскоши почти нет. Нагрузка стала гораздо более локальной и более дерганой по плотности.
Uptime Institute в опросе 2024 года отмечает, что средняя плотность серверных стоек продолжает ползти вверх. Диапазон 7-9 киловатт на стойку стал заметно более распространенным как типовой уровень, а среди максимальных плотностей заметно чаще встречается зона 15-29 киловатт на стойку. При этом 29% операторов модернизируют существующие площадки именно для того, чтобы принять более плотные вычислительные нагрузки. То есть рынок уже не просто строит новые дата-центры “под AI”, а довольно грубо пытается заставить старые здания работать в режиме, под который они изначально не проектировались.
Это критический момент. Потому что энергетическая проблема в дата-центре определяется не только общим количеством мегаватт, но и тем, насколько плотно они сидят на квадратном метре белого пространства. Один и тот же мегаватт, равномерно размазанный по залу, и тот же мегаватт, загнанный в несколько плотных GPU-стоек, - это два совершенно разных объекта по требованиям к охлаждению, шинопроводам, стойкам распределения питания и мониторингу температуры по месту.
Если добавить сюда системы искусственного интеллекта, становится совсем интересно. Schneider Electric в 2025 году пишет, что fully loaded NVIDIA-based GPU серверы уже требуют порядка 132 киловатт на стойку, а NVIDIA параллельно продвигает архитектуру 800 вольт постоянного тока для будущих площадок с расчетом на поддержку ИТ-стоек уровня 1 мегаватт и выше начиная с 2027 года. Да, это уже frontier-сценарий, а не типовой корпоративный зал. Но именно такие сценарии сейчас переписывают требования ко всей низовой инженерной инфраструктуре.
Именно здесь старые компромиссы перестают работать. В какой-то момент воздух как основной носитель тепла начинает проигрывать по экономике, по локальной эффективности и по нервам эксплуатационной команды. Дальше уже приходится смотреть на жидкостные контуры, локальные распределительные блоки охлаждающей жидкости и вообще на совсем другую геометрию охлаждения.
Вода стала второй валютой дата-центра после электроэнергии
У энергетической проблемы дата-центров есть еще один слой, о котором раньше говорили реже. Электричество почти всегда упирается в воду. Чем интенсивнее вы боретесь с теплом, тем чаще оказывается, что вопрос не только в киловаттах, но и в литрах.
Microsoft в конце 2024 года объявила о новом дизайне дата-центров, оптимизированном под нагрузки искусственного интеллекта и не потребляющем воду именно для охлаждения. За счет перехода к закрытым схемам с охлаждением на уровне чипа компания оценивает экономию более 125 миллионов литров воды в год на один дата-центр такого типа. Это очень показательная история. Она показывает не просто красивый экологический жест, а то, насколько остро отрасль почувствовала конфликт между ростом плотности вычислений и водными ограничениями, особенно в регионах с напряженной гидрологией.
Почему это важно даже для тех, кто не любит разговоры про устойчивое развитие? Потому что вода в инженерии дата-центра - это не только ESG-слайд и не только отчетность. Это реальный эксплуатационный ресурс, который может стать ограничителем проекта так же быстро, как и электрическая мощность на вводе. Поэтому хороший инженер сегодня думает не только о коэффициенте энергоэффективности, но и о том, какой водный режим он покупает вместе со своей системой охлаждения.
Главная проблема уже не в самом дата-центре, а в сети вокруг него
Есть один неприятный конфликт ритмов. Дата-центр можно построить довольно быстро. Электросетевую инфраструктуру - нет. Отсюда и рождается главный внешний барьер для отрасли.
IEA в своем отчете подчеркивает, что сами дата-центры могут вводиться в эксплуатацию за два-три года, тогда как расширение подстанций, линий, систем генерации и прочей сетевой инфраструктуры требует гораздо более длинных циклов планирования и строительства. На глобальном уровне доля дата-центров в общем спросе на электроэнергию еще может выглядеть управляемой. На локальном уровне это уже совсем другая история: именно концентрация нагрузки в отдельных кластерах создает самые болезненные узкие места.
Министерство энергетики США и национальные лаборатории говорят об этом все более открыто. В белой книге NREL по edge data centers прямо обсуждается идея более тесной интеграции дата-центров с сетевой логикой на уровне площадки и фидера: анализ доступной мощности, использование гибкости нагрузки и даже повторное использование сбросного тепла рассматриваются как способы уменьшить задержки на присоединение и сократить объем дорогих сетевых модернизаций. На русском это читается так: дата-центр будущего должен быть не только надежным потребителем, но и более дисциплинированным участником энергосистемы.
Именно отсюда растет новая тема - дата-центр как гибкий актив сети. В 2025 году NREL вместе с партнерами описывал платформу Vulcan как 70-мегаваттный grid-interactive data center, то есть объект, который может не только стабильно потреблять энергию, но и довольно быстро реагировать на запросы сети за счет управляемой нагрузки и накопителей. Для классического ИТ-мышления это почти ересь. Для энергетиков - уже вполне рабочий разговор. Если объект может на короткое время изменить профиль потребления, не убив при этом свой уровень доступности, это меняет правила игры и для оператора, и для utility.
Углеродный след - это не только “зеленые” контракты
Дата-центры любят говорить о возобновляемой энергии. И это правильно. Но здесь есть одна важная инженерная оговорка. Электричество, которое объект физически потребляет в конкретную минуту, и электричество, которое компания контрактно “закрыла” через закупку зеленой генерации, - это не одно и то же.
IEA отдельно делает акцент на том, что их анализ считает именно физическое энергоснабжение дата-центров, то есть реальный энергомикс локальной сети и onsite generation, а не только корпоративные механизмы учета. По их базовому сценарию прирост спроса дата-центров до 2030 года почти наполовину будет закрываться возобновляемыми источниками, но свыше 40% дополнительного спроса все равно покроют уголь и газ. Это неприятная правда. Она означает, что даже очень красивый корпоративный отчет не отменяет физику региональной энергосистемы.
Поэтому сегодня крупные операторы постепенно смещают акцент от годового “мы компенсировали потребление” к более жесткой логике почасового соответствия безуглеродной генерации. Google, например, давно продвигает подход 24/7 carbon-free energy - то есть стремление обеспечить безуглеродное питание не в среднем за год, а в каждый час работы. Для инженера смысл здесь простой: мегаватт может быть дешевым, может быть доступным быстро, может быть “зеленым” на бумаге, а может совпадать со всеми этими критериями сразу. Но далеко не всегда. Обычно приходится чем-то жертвовать.
Почти все потребленное электричество можно потом использовать как тепло. Но отрасль делает это пока слабо
Есть красивая и немного грустная ирония. Пока дата-центры тратят огромные деньги, чтобы выбросить тепло в атмосферу, соседние города и районы иногда тратят деньги, чтобы где-то еще это тепло получить. Эти две задачи можно соединить, но массовым стандартом это пока не стало.
IEA в 2025 году подчеркивало, что почти все электричество дата-центра превращается в тепло, причем примерно 70-80% этого объема в принципе можно извлечь с помощью тепловых насосов и использовать в системах теплоснабжения зданий, если рядом есть подходящий потребитель. Потенциал на бумаге огромный. Но на практике проект упирается в расстояние, температурный график, тарифную модель, городскую теплосеть и сроки окупаемости. То есть сама физика уже не проблема. Проблема в том, чтобы экономика и градостроительная логика успели догнать эту физику.
Тем не менее отдельные примеры уже есть. Google открыто пишет про проекты утилизации тепла на своих площадках, включая Хамину в Финляндии. Microsoft также развивает подобные инициативы в Европе. Это еще не универсальный рецепт, но это уже хороший маркер того, куда будет двигаться зрелая инфраструктура. В какой-то момент “выкидывать тепло просто в воздух” станет не инженерной нормой, а признаком того, что объект строился слишком узко и без оглядки на внешнюю энергетику.
Что на самом деле будет болеть у операторов в ближайшие годы
Не думаю, что главным предметом страха станет просто высокий счет за электричество. Это слишком плоский взгляд на ситуацию. Реальная боль будет жить на пересечении нескольких ограничений.
Первое ограничение - доступная мощность именно там, где ее хотят получить. Не в среднем по стране, а на конкретной площадке, в конкретном узле сети. Второе - охлаждение высокой плотности. Не рекламное “мы тоже готовы к AI”, а реальный вопрос: какой контур охлаждения, какой запас по температуре, какая тепловая инерция, какая стратегия на случай частичной деградации системы. Третье - работа резервированной силовой инфраструктуры в неидеальном режиме загрузки. Четвертое - вода, особенно в сухом климате. И пятое - взаимоотношения с внешней сетью. Кто первым научится строить дата-центр не только как надежный объект, но и как управляемую энергетическую единицу, тот получит очень серьезное преимущество.
Для российских инженеров здесь есть еще один интересный слой. Несмотря на всю облачную и AI-риторику, очень большая часть инфраструктуры дата-центра по своей природе - это обычная, просто очень ответственная промышленная автоматизация. Насосные группы. Чиллеры. Вентиляция. Силовой мониторинг. Диспетчеризация. Аварийная сигнализация. Распределение питания. Для небольших локальных площадок, модульных дата-центров и edge-объектов это означает, что опыт из АСУ ТП ложится сюда почти напрямую. И если задача стоит собрать инженерную диспетчеризацию без лишнего пафоса, а с упором на надежность и понятную эксплуатацию, то промышленная платформа вроде СТАБУР здесь может быть вполне уместной именно как низовой инструмент для инфраструктурной обвязки.
Заключение
Проблемы энергопотребления дата-центров давно перестали быть темой “про серверы”. Сегодня это вопрос того, как совмещаются вычислительная плотность, система охлаждения, резервирование, вода, углеродный профиль и физические ограничения сети вокруг площадки. Чем плотнее вычисления, тем меньше прощаются старые проектные привычки. Чем быстрее растет сегмент искусственного интеллекта, тем хуже работают решения в духе “добавим еще холода и еще запас по питанию”.
Дата-центр будущего будет не просто более эффективным. Он будет устроен иначе. Более гибким по отношению к энергосистеме. Более требовательным к локальному охлаждению. Более внимательным к воде. Менее терпимым к холостому резервированию ради галочки. И, скорее всего, намного ближе к промышленной энергетике, чем к классической “айтишной серверной”, к которой многие до сих пор мысленно привязывают слово “ЦОД”.
Коротко о главном
PUE (Power Usage Effectiveness, коэффициент эффективности использования энергии дата-центра) остается полезным, но уже не может в одиночку объяснить, насколько хорош объект. Сегодня рядом с ним нужно смотреть на плотность стоек, воду, режим охлаждения, загрузку резервной инфраструктуры и поведение площадки по отношению к внешней сети.
Главная проблема дата-центров - не просто “они много потребляют”, а то, что их нагрузка стала слишком плотной, почти непрерывной и локально неудобной для сетей. Почти вся потребленная электроэнергия превращается в тепло, а значит каждый новый мегаватт - это одновременно задача по питанию, по охлаждению и все чаще по воде.