Материалы по тегу: электропитание

05.08.2025 [12:11], Руслан Авдеев

Hyundai поможет Fermi America построить в Техасе «ядерный» ЦОД HyperGrid

Ядерная энергетика в США переживает своеобразное возрождение — гиперскейлеры и компании поменьше столкнулись с ненасытными аппетитами ИИ. На этом фоне Fermi America выбрала южнокорейскую Hyundai для поддержки развёртывания до 6 ГВт ядерных мощностей в рамках проекта HyperGHrid в Амарилло (Amarillo, Техас), сообщает The Register. Проект строительства «крупнейшего в мире энергетического кампуса» поддержан политиками и инвесторами. Его цель — превратить Техас в крупнейший энергетический и вычислительный центр США.

Строительство в Амарилло первого из четырёх реакторов Westinghouse AP1000 планируется начать в 2026 году. Согласно меморандуму, к 2032 году АЭС будет снабжать электричеством ЦОД напрямую. Пока нет гарантий, что проект площадью 2,3 тыс. га действительно будет реализован полностью, но курировать его в любом случае будет Hyundai. Компания хорошо разбирается в атомной энергетике и уже участвовала в развёртывании 22 реакторов.

Проект будет довольно дорогим. Один реактор AP1000 оценивался два года назад в $6,8 млрд. Впрочем, с масштабами проектов гиперскейлеров и облачных гигантов это несопоставимо — они ежегодно тратят десятки миллиардов долларов. Правда, строительство может оказаться не таким уж дешёвым и быстрым. Например, на строительство двух аналогичных реакторов в Джорджии ушло 15 лет и более $36 млрд. Конечно, ситуацию не улучшило и банкротство Westinghouse в 2017 году, в самый разгар строительства.

 Источник изображения:  Gabriel Tovar/unsplash.com

Источник изображения: Gabriel Tovar/unsplash.com

Как именно Fermi America намерена оплатить строительство хотя бы одного реактора AP1000, не говорится. Известно, что Hyundai также поддержит развертывание газовых электростанций с парогазовым циклом мощностью 4 ГВт, 1 ГВт солнечных электростанций и накопителей, а также малых модульных реакторов (SMR) на 2 ГВт. Кто именно будет поставщиком SMR, пока не сообщается. На данный момент только NuScale ближе всех к запуску своего первого SMR.

Пока Fermi America и Hyundai решают вопросы с регуляторами относительно ядерного проекта, строительство «газовой» части 11-ГВт мегапроекта уже началось. В июле Fermi America сообщила о намерении купить газогенераторы мощностью 600 МВт для поддержки первых дата-центров, которые должны быть запущены до конца текущего года. Речь идёт о шести газовых турбинах Siemens Energy SGT800, и одной паровой турбине SST600, которые в совокупности обеспечат 478 МВт. Также Fermi America объявила о покупке «восстановленных» турбин GE Frame 6B мощностью 135 МВт. По словам компании, новые генераторы на треть «чище» традиционных, а использование специальных каталитических систем дополнительно сократит выбросы. К концу 2026 года Fermi America намерена довести генерацию до 1 ГВт.

Впрочем, это далеко не первая компания, предложившая концепцию «атомных» ЦОД. За последние годы появилось множество подобных инициатив. Ещё в 2023 году Green Energy Partners представила концепцию строительства огромного ЦОД в Вирджинии, полностью работающего на SMR и водородных генераторах. Не так давно Amazon потратила $650 млн, чтобы приобрести объекты Cumulus Data у АЭС Susquehanna. Microsoft намерена возродить АЭС Three Mile Island, Мета выкупила всю энергию АЭС Clinton Clean Energy Center на 20 лет вперёд, а Oracle заявлила о намерении развернуть три SMR общей мощностью более 1 ГВт.

Постоянный URL: http://servernews.ru/1127106
04.08.2025 [16:21], Руслан Авдеев

AEP увеличит мощности подключений ЦОД на 18 ГВт к 2029 году — Exelon, PPL и PG&E прогнозируют ещё десятки

Ключевая для США коммунальная группа American Electric Power (AEP) сообщила о планах увеличить электрические мощности для ЦОД на 18 ГВт к 2029 году. Не менее впечатляющие цифры обнародовали и некоторые другие коммунальные компании США, а некоторые даже превзошли AEP, сообщает Datacenter Dynamics.

В финансовом отчёте AEP за II квартал говорится о росте операционной прибыли на акцию, что в первую очередь обусловлено увеличением числа подключаемых дата-центров. Именно на их долю придётся наибольшая часть новой нагрузки из 24 ГВт, прогнозируемой к концу десятилетия.

Благодаря развитию рынка ЦОД объём проектов в очереди на подключение к сети вырос до 190 ГВт, что привело к увеличению пятилетнего инвестиционного плана на 30 % — до $70 млрд. Средства распределены на развитие передачи электроэнергии (50 %), генерации (40 %) и распределительных сетей (10 %). Сообщается, что на все 24 ГВт уже подписаны будущие соглашения, что защищает от возможных колебаний спроса.

 Источник изображения:  Randy Laybourne/unsplash.com

Источник изображения: Randy Laybourne/unsplash.com

Энергокомпания зафиксировала рост пикового спроса на электроэнергию более чем на 4 ГВт по сравнению с прошлым годом. Основная причина — ввод в эксплуатацию новых ЦОД в Индиане, Огайо и Техасе. По словам руководства компании, район её ответственности чрезвычайно привлекателен для операторов ЦОД: здесь есть достаточное количество оптоволоконных соединений, доступ к воде и крупнейшая в стране ЛЭП, включая магистральную сеть на 765 кВ. Впрочем, в компании признают, что в сфере ЦОД остаётся немало нерешённых задач.

Приоритет AEP — предложение инновационных решений. Особо отмечено соглашение с AWS и Cologix о поставке электроэнергии с помощью твёрдооксидных топливных элементов Bloom Energy. В прошлом году AEP Ohio подписала с Bloom соглашение о поставке до 1 ГВт для ЦОД. Также подчёркивается важность нового законодательства для ЦОД. Недавно регуляторы в Огайо утвердили нормы, согласно которым новые дата-центры должны будут оплачивать не менее 85 % заявленной ежемесячной потребности в энергии, даже если фактическое потребление окажется меньше, — для покрытия расходов на инфраструктуру.

Тем временем Exelon объявила, что в очереди на подключение к её сетям находятся ЦОД общей мощностью 33 ГВт. Компания обслуживает более 10 млн клиентов в Делавэре, Иллинойсе, Мэриленде, Нью-Джерси, Пенсильвании и Вашингтоне, контролируя шесть коммунальных предприятий.

Из этих 33 ГВт 17 ГВт уже находятся в очереди на подключение, а ещё 16 ГВт, вероятно, будут официально добавлены в этом году. От общего объёма 10 % должны быть подключены к 2028 году, ещё треть — к 2030-му и 75 % — к 2034-му. Для удовлетворения спроса владелец сетей даже рассматривает возможность строительства собственных электростанций. Правда, в нескольких штатах такая практика запрещена по антимонопольным соображениям, но законы могут пересмотреть на фоне энергодефицита. В целом финансовые показатели компании заметно различаются по штатам.

 Источник изображения: Miguel Bruna/unsplash.com

Источник изображения: Miguel Bruna/unsplash.com

Также появились данные о показателях за II квартал крупнейшей в Калифорнии коммунальной компании Pacific Gas and Electric Company (PG&E). Сейчас в очереди на подключение к её сетям находятся ЦОД суммарной мощностью 10 ГВт, которые должны быть подключены в течение ближайших десяти лет. Ещё в мае речь шла о 8,7 ГВт, а в феврале — о 5,5 ГВт. Из этих 10 ГВт 17 проектов дата-центров суммарной мощностью 1,5 ГВт находятся в завершающей стадии проектирования. Их ввод в эксплуатацию намечен на 2026–2030 гг. Большинство объектов расположено в Кремниевой долине.

Предполагается, что подключения благоприятно скажутся на стоимости электричества для налогоплательщиков, обеспечив экономию на уровне 1–2 % в месяц. Кроме того, рост спроса позволит активнее использовать энергетическую инфраструктуру: по данным PG&E, в зоне ответственности компании она задействована лишь на 45 %. При этом компания сможет получать за это больше дохода. Однако, несмотря на прогресс в подключении ЦОД, финансовые показатели PG&E во II квартале оказались слабыми: операционные и эксплуатационные расходы выросли на 3,7 %. Ранее компанию обвиняли в причастности к пожарам из-за неудовлетворительного обслуживания сетей, что вынудило увеличить расходы.

В прошлом году компания объявила о планах построить три ЦОД в Сан-Хосе (San Jose) общей мощностью 200 МВт. Проект реализуется совместно с Westbank. В прошлом месяце PG&E подписала первое в своём роде соглашение с Сан-Хосе об оптимизации и гарантиях поставок энергии для дата-центров и других крупных клиентов. Также недавно компания заключила соглашение с бизнесом Smart Wires о проекте по повышению надёжности сети и поддержке роста энергопотребления ЦОД в Сан-Хосе.

Наконец, PPL Electric, которая в основном обслуживает Пенсильванию, объявила, что запросы со стороны ЦОД вырастут с 800 МВт в 2026 году до 14,4 ГВт в 2034-м. Часть проектов общей мощностью 5 ГВт уже были публично анонсированы. Среди них гигантский ИИ ЦОД AWS стоимостью $20 млрд, а также целый ряд других объектов поменьше. В конце 2024 года сообщалось, что в 2028 году на дата-центры США может прийтись уже 12 % энергопотребления всей страны.

Постоянный URL: http://servernews.ru/1127064
04.08.2025 [14:17], Владимир Мироненко

Суперускоритель с «батарейкой» — NVIDIA GB300 NVL72 получили особые блоки питания для сглаживания энергопотребления

NVIDIA представила решение для платформы GB300 NVL72, которое позволяет смягчать колебания напряжения, вызванные синхронной работой тысяч ускорителей (GPU) при работе ИИ-систем, и снижать пиковую нагрузку на сеть до 30 %. Подобные колебания крайне негативно влияют на энергосеть и других потребителей. Новое решение NVIDIA также будет использоваться в системах GB200 NVL72.

В процессе обучения ИИ-моделей тысячи ускорителей работают синхронно и выполняют одни и те же вычисления с разными данными. Эта синхронизация приводит к колебаниям мощности на уровне сети — падению напряжения или появлению излишков энергии при внезапных простоях, в отличие от традиционных рабочих нагрузок ЦОД, где ускорители работают асинхронно и некоррелированные задачи «сглаживают» нагрузку. Meta даже пришлось в качестве временной меры добавить в PyTorch опцию PYTORCH_NO_POWERPLANT_BLOWUP, которая загружает ускорители бессмысленной работой в моменты простоя.

Для решения этой проблемы компания оснастила NVIDIA GB300 блоком питания с конденсаторами, т.е. накопителями энергии, разработанными с привлечением компании LITEON Technology, а также необходимым аппаратным и программным обеспечением. На разных этапах работы системы используется несколько механизмов, включая ограничение мощности, накопление энергии и «сжигание» энергии — функция NVIDIA GPU Burn.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Электролитические конденсаторы обеспечивают равномерное энергопотребление непосредственно в стойке. Они занимают почти половину объёма БП и обеспечивают накопление 65 джоулей энергии на каждый ускоритель. Накопитель (конденсатор) заряжается при низком потреблении энергии ускорителем и разряжается при высоком. Этот своего рода буфер помогает снизить колебания энергопотребления, что продемонстрировано в сравнительных тестах GB200 и GB300 при одинаковой нагрузке. GB300 снижает пиковую нагрузку на сеть на 30 %, обеспечивая при этом аналогичную мощность для ускорителей.

GB300 ограничивает скачки, пошагово увеличивая энергопотребление ускорителя. Ограничение по мощности увеличивается постепенно, в соответствии с возможностями сети. По завершении задания, программный драйвер, реализующий алгоритм сглаживания энергопотребления, активирует аппаратное снижение энергопотребления. Ускоритель продолжает потреблять постоянную мощность благодаря функции NVIDIA GPU Burn, ожидая возобновления нагрузки.

Если нагрузка не возобновляется, ускоритель плавно снижает энергопотребление. Если нагрузка на ускоритель возобновляется, функция NVIDIA GPU Burn мгновенно отключается. После завершения нагрузки ускоритель с помощью NVIDIA GPU Burn постепенно снижает энергопотребление со скоростью, соответствующей возможностям сети, а затем отключается.

Эти параметры контролируются такими настройками, как минимальное энергопотребление в режиме ожидания и время постепенного снижения нагрузки, которые можно настроить с помощью NVIDIA SMI или Redfish. Такой полный контроль энергопотребления снижает нагрузку на электросеть и делает планирование заданий более предсказуемым.

Как отметил ресурс The Futurum Group, благодаря предложенной NVIDIA схеме питания ЦОД больше не нужно строить с учётом пиковых потребностей в мощности. Вместо этого их можно масштабировать ближе к средним показателям использования, что означает возможность размещения большего количества оборудования в том же пространстве или снижение общих затрат на электроэнергию. Суперконденсаторы в качестве энергетического буфера для всего объекта целиком предлагает Siemens, хотя уже есть и более компактные решения размером со стойку.

Кроме того, поскольку сглаживание потребления мощности ограничено стойкой без её подачи обратно в сеть, операторы получают больше контроля над энергопотреблением. Такое сочетание аппаратного и программного обеспечения обеспечивает масштабируемость и делает ЦОД дружественными к энергосети, независимо от того, используют ли они системы GB200 или GB300 NVL72. Как отметил ресурс ServeTheHome, использование дополнительных аккумулирующих модулей в стойке, предложенное LITEON, также поможет более равномерному распределению нагрузки между крупными ИИ-кластерами.

Сантьяго Грихальва (Santiago Grijalva), профессор электротехники и вычислительной техники в Технологическом институте Джорджии, назвал новую технологию «довольно серьёзным событием», учитывая доминирующую роль NVIDIA в этой области. «Но это решение ограничено высококлассными системами NVIDIA, — указал он в электронном письме ресурсу Utility Dive. — Это решение конкурирует с решениями Tesla и аппаратными оптимизациями Meta, предлагая существенное, но не революционное усовершенствование существующих методов управления питанием».

Постоянный URL: http://servernews.ru/1127050
25.07.2025 [17:26], Руслан Авдеев

По пути Маска: Crusoe заказала 29 газовых турбин для ИИ ЦОД, часть которых достанется OpenAI

Crusoe заказала у GE Vernova ещё 19 газотурбинных установок LM2500XPRESS на основе авиационных двигателей, сообщает Datacenter Dynamics. В общей сложности Crusoe получит 29 турбин — с учётом заказанных в декабре 2024 года. Ожидается, что в совокупности они обеспечат мощность 1 ГВт. Сейчас Crusoe строит в интересах OpenAI 1,2-ГВт кампус Stargate I в Абилине (Техас), который частично будет запитан именно от газовых турбин.

По словам Crusoe, экспоненциальный рост ИИ требует энергетических решений с возможностью быстрого развёртывания. В том числе рассматривает строительство генерирующих мощностей непосредственно рядом с дата-центрами, чтобы обеспечить последние устойчивым и контролируемым энергоснабжением. В компании заявляют, что создают ИИ-фабрики с рекордной скоростью, а технология GE Vernova является ключевым фактором, ускоряющим энергообеспечение клиентов и партнёров. Кроме того, компания использует аккумуляторы и готова подключиться к солнечным и ветряным электростанциям, а в перспективе рассматривает возможность установки малых модульных реакторов.

LM2500XPRESS — это мобильная газотурбинная электростанция мощностью до 35 МВт на базе авиационного двигателя General Electric LM2500, адаптированного для наземного использования, включающая газовый компрессор и систему контроля выбросов. В GE Vernova заявили, что выбросы сокращаются за счёт каталитического нейтрализатора, преобразующего окиси азота в водяной пар и безвредный азот. В результате генератор обеспечивает на 90 % меньше выбросов, чем традиционные поршневые двигатели на газе или дизельном топливе. Ранее в этом году Crusoe создала совместное предприятие с инвестиционной компанией Engine No. 1 из Сан-Франциско для закупки газовых турбин на 4,5 ГВт у GE Vernova и Chevron.

 Источник изображения: GE Vernova

Источник изображения: GE Vernova

Производители газовых турбин столкнулись с резко возросшим спросом со стороны дата-центров, особенно из-за бума ИИ и высоких энергозатрат на вычисления. Тем не менее, расширять производство они пока опасаются. Очередь на турбины растянулась как минимум до 2030 года, что создаёт задержки в строительстве энергомощностей для новых дата-центров. Дело в том, что операторы ЦОД не желают годами ждать присоединения к энергосетям, пока не готовым к столь высоким нагрузкам.

Примечательно, что активным освоением газовой энергетики занимается не только Crusoe. ИИ-стартап xAI Илона Маска (Elon Musk) в своё время установил газовые генераторы на территории своего кампуса ЦОД и даже получил разрешение на 15 турбин из оставшихся 24-х. Конечно, довольны этим далеко не все, и компания встретила жёсткое противодействие со стороны местных жителей. Впрочем, ещё в мае сообщалось, что второй ЦОД в Мемфисе, вероятно, тоже получит газовые генераторы, тем более, что Маск анонсировал запуск нового суперкомпьютера Colossus 2, которому тоже понадобится немало энергии.

Постоянный URL: http://servernews.ru/1126543
24.07.2025 [09:24], Руслан Авдеев

«Атомное» охлаждение: Vertiv и Oklo создают комплексную систему питания и охлаждения ЦОД на базе малых модульных реакторов

Стартап Oklo, поддерживаемый главой OpenAI Сэмом Альтманом (Sam Altman), объявил о партнёрстве с компанией Vertiv для разработки передовой технологии управления электропитанием и охлаждением для гиперскейлеров и колокейшн-ЦОД, сообщает Datacenter Knowledge.

Компании совместно разработают интегрированную систему электропитания и охлаждения дата-центров, применяющую малые модульные реакторы Oklo и передовые системы управления электропитанием Vertiv. Партнёры объявили, что это обеспечит надёжное выполнение ресурсоёмких задач HPC и ИИ с попутным снижением негативного воздействие на окружающую среду.

Система будет использовать пар и электричество, вырабатываемые SMR Oklo. Демонстрация технологии планируется на первом объекте Oklo Aurora Powerhouse в Национальной лаборатории Айдахо. Речь идёт о полноценном коммерческом реакторе, который начнёт вырабатывать электричество к концу 2027 или началу 2028 гг.

 Источник изображения: Oklo

Источник изображения: Oklo

Компании объявили, что намерены создать комплексные эталонные проекты для дата-центров, желающих интегрировать новую систему охлаждения. Используя тепло реакторов Oklo для питания систем охлаждения Vertiv, можно будет значительно повысить энергоэффективность дата-центров. Партнёры заявили, что разрабатывают концепцию, позволяющую использовать проверенные общедоступные готовые компоненты без внесения существенных изменений в базовую инфраструктуру.

Представитель компании сообщил журналистам, что ядерные технологии обеспечивают «чистое», надёжное и предсказуемое электропитание. Компания подчеркивает, что атомные электростанции обладают самым высоким коэффициентом использования установленной мощности (92 %), что значительно выше, чем у геотермальной (74 %) и ветровой (35 %) энергетики, что делает ядерную энергию ключевым решением для стабильного энергоснабжения. К текущему моменту компания заключила предварительные договоры на поставку 14 ГВт.

Постоянный URL: http://servernews.ru/1126426
14.07.2025 [10:37], Руслан Авдеев

Inuverse планирует оснастить дата-центр AI Daegu Data Center топливными элементами FuelCell Energy

Американская FuelCell Energy, разрабатывающая топливные элементы, начала сотрудничать с застройщиком Inuverse с целью изучения возможности развёртывания топливных элементов мощностью до 100 МВт для питания строящегося дата-центра AI Daegu Data Center (AI DDC) в Тэгу (Daegu, Южная Корея), сообщает Datacenter Dynamics.

Компании подписали меморандум о взаимопонимании (не влекущий юридических последствий), определяющий параметры возможного партнёрства. Реализовать проект начнут поэтапно, начиная с 2027 года. По словам Inuverse, новый экологичный ИИ ЦОД получит систему абсорбционного охлаждения на платформе FuelCell Energy с околонулевыми выбросами. Первый этап предусматривает строительство 150 МВт, на втором мощность увеличат до более чем 300 МВт.

FuelCell Energy ориентируется на рынок дата-центров как на ключевого потребителя своих технологий. В компании заявляют, что её «чистая», надёжная и масштабируемая платформа специально разработана для рынка ЦОД. Проект с Inuverse станет для компании первым в этой сфере. По данным FuelCell Energy, она уже развёртывает 188 модулей на топливных элементах в четырёх проектах, в том числе 58,8 МВт в Хвасоне (Hwaseong, Южная Корея).

 Источник изображения: FuelCell Energy

Источник изображения: FuelCell Energy

Крупнейшим игроком в сегменте топливных элементов для ЦОД считается Bloom Energy. В ноябре прошлого года компания подписала контракт с American Electric Power на поставку 1 ГВт для ИИ ЦОД, а в феврале Также у компании есть контракты с CoreWeave и QCT, а в феврале этого года она расширила соглашение с Equinix, в рамках которого топливные элементы разместят у 19 ЦОД общей мощностью более 100 МВт.

Хотя топливные элементы обычно отличаются низкими выбросами в сравнении с решениями на ископаемом топливе благодаря возможности работать на водороде, всё ещё нет единого мнения относительно того, насколько они на самом деле «низкоуглеродны». Сейчас они работают в основном на природном газе из-за высокой стоимости «зелёного» водорода, получаемого, например, из воды. Так, в 2024 году Amazon под давлением общественности отказалась от ячеек Bloom Energy в Орегоне (США) из-за проблем с выбросами, но зато заключила аналогичный контракт для своего калифорнийского дата-центра.

Постоянный URL: http://servernews.ru/1125893
09.07.2025 [09:09], Руслан Авдеев

Японская Mitsui OSK Lines построит плавучий ЦОД и запитает его от турецкого корабля-электростанции

Японская судоходная компания Mitsui OSK Lines (MOL) намерена превратить своё судно в плавучий дата-центр, который сможет получать энергию не только с берега, но и с сопровождающего его судна-электростанции, сообщает The Register. Предполагается, что плавучий ЦОД введут в эксплуатацию к 2027 году. Компания не исключает, что в дальнейшем могут появиться и другие плавучие ЦОД.

MOL заявила, что объект мощностью 20–73 МВт будет охлаждаться морской или речной водой — в зависимости от того, где будет пришвартовано судно. Для подключения к Сети будут использоваться наземные и подводные кабели, но при необходимости баржу могут оснастить и спутниковым телекоммуникационным оборудованием. Под ЦОД переоборудуют неизвестное пока 120-метровое судно водоизмещением 9 731 т. До конца года MOL намерена завершить проектные работы, подписать соглашение с властями одного из портов и заключить контракт с оператором объекта. Выполнение работ по фактическому переоснащению судна запланировано на 2026 год.

 Источник изображения: MOL

Источник изображения: MOL

В MOL считают, что главным преимуществом плавучего дата-центра является возможность перемещать его в зависимости от изменений спроса и условий эксплуатации, а также использовать ЦОД буквально в открытом океане. Утверждается, что переоборудование барж в плавучие ЦОД занимает всего около года, что меньше, чем время строительства обычного наземного дата-центра. При этом не нужно выделять землю и покупать её, хотя могут взиматься сборы за швартовку. В MOL отмечают, что в странах вроде США энергокомпании не в состоянии удовлетворить спрос, в результате на присоединение к сети можети уходить пять и более лет, nогда как плавучие ЦОД могут начать работу буквально сразу почти в любом прибрежном районе.

Проект реализуют в рамках меморандума о взаимопонимании с Kinetics — подразделением турецкой Karpowership, выступающей оператором кораблей-электростанций. Такие суда оснащены генераторами на газе или жидком топливе с низким содержанием серы. Предполагается, что первый плавучий ЦОД MOL будет запитан от пришвартованной рядом электростанции, благодаря чему не придётся искать прибрежное подключение к энергосети, достаточное для работы дата-центра. Впрочем, питание с берега тоже не исключается.

В Японии есть и другой аналогичный проект, развиваемый консорциумом во главе с судоходной компанией NYK Line. Объект будет состоять из транспортных контейнеров на платформе, пришвартованной в порту Иокогамы. За пределами плавучие ЦОД уже есть. Например, в Стоктоне (Stockton, Калифорния) действует дата-центр Nautilus Data. Нечто подобное намеревались реализовать и в России. Кроме того, стационарные подводные дата-центры развивают Subsea Cloud, NetworkOcean и Highlander.

Постоянный URL: http://servernews.ru/1125591
05.07.2025 [14:25], Руслан Авдеев

Маску дали разрешение на 15 турбин для питания ИИ-суперкомпьютера xAI Colossus, но на снимках по-прежнему видны 24 турбины

После нескольких напряжённых месяцев, во время которых эксплуатация газовых турбин на площадке xAI была под вопросом, компания всё-таки получила разрешение на работу нескольких генераторов для питания своего ИИ-суперкомпьютера Colossus в Мемфисе (Теннесси, США). Тем не менее, экоактивисты утверждают, что дело не закончено, сообщает Ars Technica.

В минувшую среду Департамент здравоохранения округа Шелби выдал xAI разрешение на определённый объём выбросов, позволяющее эксплуатировать 15 турбин. Срок разрешения истекает 2 января 2027 года, а от xAI требуется уже к 1 сентября установить систему контроля выбросов (BACT). При этом любые нарушения могут привести к санкциям со стороны властей. Жители Мемфиса требуют от властей расследования деятельности xAI, более года эксплуатирующей турбины без BACT.

В июне ассоциация NAACP пригрозила компании судебным иском, если xAI откажется от встречи с активистами, обеспокоенными вероятным загрязнением воздуха. Как заявили юристы SELC, представляющие интересы NAACP и уже подававшие иск против xAI, сам факт требования установки BACT не успокаивает потенциальных пострадавших. Проблема в том, что разрешение на выбросы, вероятно, не распространяется на все газовые турбины, стоящие на площадке xAI.

 Источник изображения: Eugene Nelmin/unsplash.com

Источник изображения: Eugene Nelmin/unsplash.com

На спутниковом снимке от 1 июля видно, что всего на объекте установлены 24 генератора (а было и вовсе 35), хотя только для 15 из них есть разрешение. Утверждается, что даже одна турбина без BACT выбрасывает вещества, вызывающие приступы астмы, проблемы с сердцем и даже онкологические заболевания. При этом данная местность и без того не соответствует многим национальным стандартам, касающимся выбросов. Уровень заболевания астмой и раком здесь в четыре раза выше, чем в среднем по стране.

SELC обвиняет власти в закрытии глаз на явные нарушения «Закона о чистом воздухе» и требует большей прозрачности. В частности, даже методика проверки загрязнения воздуха возле дата-центра xAI вызвала вопросы у экологов. Впрочем, если раньше данные о работе генераторов удавалось получать с большим трудом, то теперь xAI обязали подробно отчитываться о каждом запуске каждой турбины и всегда минимизировать их выбросы. Записи должны предоставляться в Департамент здравоохранения раз в полгода, а первый отчёт нужно подготовить к 31 декабря.

В разрешении указываются даже такие параметры, как уровень видимости выбросов, время работы и частота запуска генераторов: общая продолжительность работы 15 турбин не должна превышать 110 часов в год, каждую из них можно запускать и останавливать не более 22 раз в год. Также xAI обязана хранить архив записей о запусках и эксплуатации турбин за пять лет, которые власти смогут запросить в любое время.

SELC, агентство и его партнёры намерены и дальше контролировать деятельность xAI в районе Мемфиса. Подчёркивается, что компания собирается построить поблизости и второй дата-центр, что вызовет новые экологические проблемы. Например, xAI не сообщила, как намерена обеспечивать питанием новый ЦОД и будет ли использовать для него газовые турбины. Ходили слухи, что xAI может построить 1,56-ГВт газовую электростанцию для очередного ИИ-суперкомпьютера, а то и вовсе привезти её из-за границы.

Постоянный URL: http://servernews.ru/1125433
30.06.2025 [16:19], Руслан Авдеев

Б/у автоаккумуляторы запитали ИИ ЦОД с 2 тыс. ускорителей

В США заработал дата-центр на 2 тыс. ускорителей, оснащённый энергохранилищем с аккумуляторами, ранее применявшимися в электромобилях. Речь идёт о совместном проекте Redwood Materials и Crusoe — участнице проекта Stargate, курируемого компанией OpenAI, сообщает Bloomberg. Проект Crusoe и Redwood был реализован за четыре месяца.

Спрос на «чистую» энергию растёт, подстёгиваемый ростом числа ИИ ЦОД. Благодаря аккумуляторным энергохранилищам можно запасать энергию, поступающую от магистральных электросетей и возобновляемых источников впрок с последующей стабильной подачей для питания серверов.

Дата-центр на 2 тыс. ускорителей находится в кампусе Sparks в Неваде — именно там компания утилизирует аккумуляторы электромобилей в промышленных масштабах. По словам её представителя, новая система на 12 МВт использует сотни старых АКБ общей ёмкостью 62 МВт∙ч, а солнечные панели помогают напитать их энергией. По словам Redwood, это крупнейшая микросеть в Северной Америке, но компания уже нацелена на реализацию в 20–100 раз масштабнее.

Redwood основана одним из соучредителей Tesla Джей Би Страубелом (JB Straubel) в 2017 году. Компания занимается выпуском материалов для аккумуляторов и переработкой отработавших АКБ. Это один из крупнейших переработчиков аккумуляторов в Северной Америке. Модули АКБ, характеристики которых уже не позволяют использовать их в электромобилях, всё ещё годятся для создания энергохранилищ, например, в сочетании с проектами ветряной и солнечной энергетики. Именно эта сфера применения станет основной для проектов нового подразделения — Redwood Energy.

 Источник изображения: Redwood Materials

Источник изображения: Redwood Materials

Компания сравнивает такие проекты с «домом престарелых для батарей». Такие АКБ вдвое дешевле новых Li-Ion систем, но обеспечивают почти ту же производительность. В прошлом году Redwood выручила $200 млн на переработке АКБ и теперь ожидает значительного увеличения денежных поступлений во II половине 2025 года по мере развёртывания новых энергохранилищ.

Как сообщил представитель Crusoe (Crusoe Energy), одним из важных факторов при реализации энергетических проектов является скорость, поскольку многие компании, подавшие заявки на подключение к сетям, оказываются в очередях на 5–10 лет. ИИ-суперкомпьютер Colossus компании xAI, которая вместе с Tesla принадлежит Илону Маску (Elon Musk), оснащён аккумуляторами Tesla MegaPack. Подобные BESS компания теперь предлагает и другим ЦОД.

Постоянный URL: http://servernews.ru/1125156
21.06.2025 [08:41], Руслан Авдеев

Через 10 лет ИИ-ускорители получат терабайты HBM и будут потреблять 15 кВт — это изменит подход к проектированию, питанию и охлаждению ЦОД

ИИ-чипы нового поколения не просто будут быстрее — они станут потреблять беспрецедентно много энергии и потребуют кардинально изменить инфраструктуру ЦОД. По данным учёных, к 2035 году энергопотребление ИИ-ускорителей может вырасти до порядка 15 кВт, из-за чего окажется под вопросом способность инфраструктуры современных ЦОД обслуживать их, сообщает Network World.

Исследователи лаборатории TeraByte Interconnection and Package Laboratory (TeraLab), подведомственной Корейскому институту передовых технологий (KAIST), подсчитали, что переход к HBM4 состоится в 2026 году, а к 2038 году появится уже HBM8. Каждый этап развития обеспечит повышение производительности, но вместе с ней вырастут и требования к питанию и охлаждению. В лаборатории полагают, что мощность только одного GPU вырастет с 800 Вт до 1200 Вт к 2035 году. В сочетании с 32 стеками HBM, каждый из которых будет потреблять 180 Вт, общая мощность может увеличиться до 15 360 Вт (в таблице ниже дан расчёт для стеков HBM8, а не HBM7 — прим. ред.).

Ожидается, что отдельные модули HBM8 обеспечат ёмкость до 240 Гбайт и пропускную способность памяти до 64 Тбайт/с. В рамках ускорителя можно суммарно получить порядка 5–6 Тбайт HBM с ПСП до 1 Пбайт/с. Это приведёт к изменению конструкции самого ускорителя. Ключевым элементом становятся стеки HBM — процессоры, контроллеры и ускорители будут интегрированы в единую подложку с HBM-модулями. Возможен переход к 3D-упаковке с использованием двусторонних интерпозеров-подложек или даже нескольких интерпозеров на разных «этажах» кристаллов.

 Источник изображений: KAIST

Источник изображений: KAIST

Кроме того, для ускорителей придётся разработать и новые системы охлаждения. К уже традиционным прямому жидкостному охлаждению (DLC) и погружным СЖО, вероятно, придётся добавить системы теплоотвода, интегрированные непосредственно в корпуса чипов. Также будут использоваться «жидкостные сквозные соединения» (F-TSVs) для отвода тепла из многослойных чипов, «бесстыковые» соединения Cu–Cu, термодатчики в кристаллах и интеллектуальные системы управления, позволяющие чипам адаптироваться к температурным изменениям.

На уровне ЦОД изменится и контур охлаждения, и температурное зонирование всего объекта. В KAIST подчёркивают, что высокую плотность размещения мощностей объекты в большинстве регионов попросту не смогут поддерживать. Пока гиперскейлеры резервируют гигаватты на десятилетия вперёд, региональным коммунальным службам потребуется 7–15 лет на модернизацию ЛЭП. А где-то этого может и не произойти. Так, в Дублине (Ирландия) по-прежнему действует мораторий на строительство новых ЦОД, во Франкфурте-на-Майне похожий запрет действует до 2030 года, а в Сингапуре сегодня доступно всего лишь 7,2 МВт.

Как считают эксперты, электричество превратилось из одной из статей расходов в определяющий фактор — от его доступности будет зависеть сама возможность реализации ИИ-проектов. На электричество приходится 40-60 % операционных расходов в современной инфраструктуре ИИ, облачной и локальной. Как отмечают в TechInsights, один 15-кВт ускоритель при круглосуточной работе может «съедать» энергии на $20 тыс./год, и это без учёта стоимости охлаждения.

Компании уже вынуждены пересматривать стратегии развёртывания инфраструктуры, учитывая соответствие регуляторным требованиям, региональные тарифы на электроэнергию и др. Гиперскейлеры получают дополнительное преимущество благодаря более низкому PUE, доступу к возобновляемой энергии и оптимизированным схемам закупки энергии. В новой реальности производительность измеряется не только в долларах или флопсах, но и киловаттах.

Более того, меняется география рынка ЦОД. Богатые энергией регионы вроде США, Скандинавии или стран Персидского залива привлекают всё больше инвестиций для строительства дата-центров, а регионы со слабыми энергосистемами рискуют превратиться в «ИИ-пустыни», в которых масштабировать мощности невозможно.

Строителям ИИ-инфраструктуры теперь придётся уделять очень много внимания вопросам энергетики: расходами на электричество, наличие источников энергии, прозрачностью выбросов, близостью ЦОД к электросетям и др. Буквально на днях американский регулятор NERC, отвечающий за надзор за электросетями и сопутствующей инфраструктурой в США, заявил, что подключение к сетям ЦОД в настоящее время весьма рискованно из-за непредсказуемости ЦОД.

Постоянный URL: http://servernews.ru/1124637

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus