С каждым нашим вопросом к ChatGPT компьютеры в дата-центрах расходуют всё больше энергии. Новейшие чипы, на которых работают современные модели ИИ, потребляют в шесть раз больше электричества, чем оборудование, доминировавшее на рынке всего несколько лет назад. И это тревожит не только экологов, но и энергетиков: сети не справляются с нагрузкой, и охлаждение цифровых «мозгов» становится вопросом устойчивости всего сектора.
AI нагревает планету: центры обработки данных – в борьбе за энергоэффективность
Кремниевый кризис
Центры обработки данных сегодня потребляют около 4% всей электроэнергии США, и эта цифра может более чем удвоиться к 2035 году. В горячих точках, вроде Вирджинии и Техаса, энергетические компании настолько перегружены заявками на подключение дата-центров, что берут миллионы долларов только за предварительные оценки доступности мощностей.
Индустрия бьёт тревогу и вспоминает старую метрику — соотношение PUE (Power Usage Effectiveness), которая показывает, сколько энергии реально уходит на вычисления, а сколько — на охлаждение и накладные расходы. При PUE 1,5 на вычисления идёт лишь 67% поступающей энергии. Уменьшение этого показателя хотя бы на 0,1 может сэкономить десятки тысяч долларов в месяц на каждый мегаватт. А для дата-центров мощностью в 27 мегаватт — это до $16 млн в год экономии.
Температура растёт — и вместе с ней расходы
Современные ИИ-серверы греются всё сильнее. Чтобы справиться с этим, дата-центры внедряют жидкостное охлаждение, используют утренние окна для техобслуживания, а в некоторых случаях — даже зимний наружный воздух. По мнению представителей отрасли, до 50% новых центров будут использовать водяное охлаждение уже в ближайшие пару лет. Но это создаёт новые экологические вызовы: такие системы могут расходовать миллионы литров воды ежегодно.
Некоторые идут ещё дальше — применяют иммерсионное охлаждение, погружая серверы в минеральное масло. Это исключает использование воды, но остаётся сложным в реализации.
Чипы становятся умнее — но и прожорливее
Производители чипов, такие как Nvidia и AMD, обещают повышение энергоэффективности, создавая архитектуры нового поколения. Однако реальность сложнее. По словам учёных, счета за электричество удваиваются при переходе на мощные чипы, несмотря на ускорение работы. Проблема — в логике самой отрасли. Стартапы и техгиганты оцениваются по тому, насколько хорошо их модели показывают себя в тестах, а не на показателях энергоэффективности. Поэтому выигрывают не самые экономные, а наиболее результативные.
Таким образом, индустрия ИИ сегодня стоит перед выбором — гнаться за скоростью или подумать об устойчивости. Пока выигрывает первое. Но с ростом счетов и ограничений электросетей вопрос энергоэффективности рискует стать не трендом, а насущной необходимостью.