Материалы по тегу: охлаждение
|
31.12.2025 [12:02], Сергей Карасёв
DapuStor и ZTE внедряют в дата-центрах SSD с иммерсионным охлаждениемКомпания DapuStor объявила об успешном внедрении в серверной инфраструктуре ZTE систем хранения данных на основе SSD с иммерсионным (погружным) жидкостным охлаждением. Применённые накопители семейства DapuStor J5, как утверждается, продемонстрировали исключительную стабильность и надёжность при непрерывных нагрузках чтения/записи. Отмечается, что на фоне стремительного развития ИИ быстро растёт нагрузка на ЦОД — это приводит к увеличению энергопотребления. В результате, возможностей традиционного воздушного охлаждения становится недостаточно, в связи с чем гиперскейлеры и облачные провайдеры внедряют передовые жидкостные решения, в том числе иммерсионные системы. Однако существуют риски: хотя погружное охлаждение обеспечивает эффективный отвод тепла, оно предъявляет дополнительные требования к оборудованию. Длительное нахождение в диэлектрической жидкости может провоцировать химическую эрозию и ускорение старения из-за проникновения состава в микроскопические структурные зазоры электронных компонентов. В случае SSD это чревато системными сбоями. Поэтому для достижения долгосрочной надёжности необходима комплексная адаптация устройств хранения с точки зрения базовых материалов, конструкции и производственных процессов.
Источник изображения: DapuStor Накопители DapuStor J5, оптимизированные для иммерсионного охлаждения, разработаны специально с прицелом на эксплуатацию в экстремальных условиях. Все используемые материалы прошли тщательную проверку, исключающую ухудшение характеристик после длительного контакта с охлаждающей жидкостью. Гарантированы целостность сигнала и долговременная стабильность, говорят компании. Заявленная скорость последовательного чтения и записи данных достигает соответственно 7,4 и 7,0 Гбайт/с. Показатель IOPS при произвольном чтении составляет до 1,75 млн, при произвольной записи — до 340 тыс. Задержка — 67/9 мкс. Отмечается, что при использовании иммерсионного охлаждения средний годовой показатель PUE составляет менее 1,15 против 1,4–1,6 при традиционном воздушном охлаждении, что соответствует снижению на 15–28 %. Плотность мощности в расчёте на стойку возрастает на порядок — с 3–5 кВт до 48 кВт.
29.12.2025 [10:03], Руслан Авдеев
Китайские поставщики заработают на буме ИИ несмотря на напряжённость в отношениях с ЗападомНесмотря на геополитическую напряжённость между Китаем и Западом, китайские поставщики оборудования для ИИ-проектов, от энергетических решений до систем охлаждения, переживают настоящий бум экспорта, сообщает Nikkei Asian Review. ИИ ЦОД потребляют намного больше энергии по сравнению с традиционными дата-центрами и требуют иных технологических решений, например, в области охлаждения. Для обслуживания таких ЦОД нередко нужна модернизация электросетей, поэтому инвестиции в эту сферу стали расти в США, Европе и на Ближнем Востоке с 2022 года. Однако энергооборудование остаётся дефицитным во всём мире. В модернизации электросетей ключевую роль играют трансформаторы. При этом, как сообщает Wood Mackenzie, в США 80 % силовых трансформаторов и 50 % распределительных трансформаторов импортируются в страну из-за рубежа. В 2025 году ожидается дефицит поставок в объёме 30 % и 10 % соответственно. На этом стремится заработать, например, китайская Sieyuan Electric, выпускающая электрооборудование. В прошлом году она создала в США дочернюю компанию для компенсации дефицита в стране трансформаторов. С начала 2025 года акции Sieyuan Electric выросли более чем вдвое, планируется SPO в Гонконге. Производство трансформаторов требует специального оборудования, приобретаемого буквально годами. Кроме того, организация нового производства потребует строительства нового завода и обучения рабочих, поэтому быстрое наращивание производства затруднительно. По данным китайской таможни, за первые 11 месяцев 2025 года экспорт трансформаторов из КНР достиг почти ¥58 млрд ($8,2 млрд), на 36,3 % больше, чем в тот же период 2024 года. На фоне бурного роста спроса за рубежом темпы роста экспорта производителей из КНР превысили рост на внутреннем рынке. Например, крупнейший в мире производитель трансформаторов (по совокупной мощности) Tebian Electric Apparatus нарастил стоимость международных контрактов в годовом исчислении на 65,91 %, на внутреннем рынке рост составил 14,08 %. По мнению экспертов, одним из главных преимуществ китайского бизнеса является скорость организации работ. Как сообщил Bank of America Securities, с момента получения заказа китайским поставщиком до получения готовой продукции проходит менее года, тогда как в США, Европе или Южной Корее речь может идти о двух-трёх годах. По словам экспертов, производство трансформаторов в КНР отличается высокой конкурентоспособностью, поскольку электротехническая листовая сталь раньше импортировалась, а теперь её производство полностью локализовано. Сообщается, что китайские экспортёры постоянно прилагают усилия по расширению бизнеса за рубежом, посколкьу в самой стране жёсткая конкуренция и относительно слабый внутренний рынок. Впрочем, мелкие игроки уровня Dishin с её 150 сотрудниками, вероятно, столкнутся с серьёзными проблемами — стандарты от страны к стране отличаются, что требует технических корректировок и местной сертификации. Кроме того, нужны налаженные каналы сбыта, поскольку трансформаторы обычно продают энергетическим компаниям и одного качества продукции для успеха бизнеса недостаточно. По оценкам UBS, капитальные затраты на ИИ в 2025 году достигнут $423 млрд и $571 млрд — в 2026 году. Ряд инвестиционных банков прогнозирует, что к 2030 году расходы на ИИ превысят $1 трлн. Ожидается, что американские гиперскейлеры, включая Google, Meta✴, Microsoft, Amazon и Oracle в этом году потратят от $350 млрд до $400 млрд, что будет способствовать росту строительства ЦОД и создаст дополнительную нагрузку на электросети. Для сравнения, в Китае, по прогнозам Bank of America, аналогичные капиталовложения в 2025 году составят ¥600–700 млрд ($85–$100 млрд), в основном благодаря правительству и местным крупным компаниям, а к 2030 году достигнут ¥2–¥2,5 трлн ($285–$356 млрд). Около трети этих средств направят на ИИ-инфраструктуру.
Источник изображения: BofA Global Research Системы хранения энергии (ESS) — ещё одна область, где Китай опережает конкурентов. Недавно JP Morgan сообщала, что глобальное развёртывание ИИ ЦОД увеличит спрос на подобные системы. Пока связанный с ИИ спрос на такие системы составляет лишь 2 % от мировых поставок, перспективы очень хорошие. За первые 10 месяцев текущего года поставки аккумуляторных ESS (BESS) выросли на 70 % год к году, во многом благодаря росту китайского экспорта на ключевые рынки на 61 %. JP Morgan прогнозирует рост поставок на 80 % в 2025 году и на 30 % в 2026 году. Дефицит предложения может привести к росту цен. В Bank of America заявляют, что LG также наращивает производственные мощности для энергохранилищ, но темпы роста отстают от реального роста спроса, поэтому заинтересованным сторонам в основном приходится импортировать продукцию из Китая. На мировом рынке аккумуляторов доминируют китайские CATL, EVE Energy и BYD и др. Также, по словам экспертов из Nomura, хотя дефицит сетевых компонентов ожидается до 2026 года из-за высокого спроса и роста технических барьеров, сетевое оборудование для ИИ, включая коммутаторы, маршрутизаторы, оптические и медные кабели и др. станут всё более важными для развёртывания ЦОД. Это может сыграть на руку ведущим поставщикам — вырастет цена и увеличится маржа на мировом рынке. В Bank of America также ожидают роста экспорта из Китая оборудования для охлаждения ИИ-инфраструктуры. В Юго-Восточной Азии, где бурный рост строительства ЦОД стимулирует спрос на компоненты, включая CDU и быстроразъёмные соединения (UQD), по-прежнему доминируют некитайские бренды. Тем не менее, китайские поставщики играют важную роль в обеспечении трубопроводов и коллекторов. По мнению экспертов, поскольку китайские IT-компании всё чаще строят ИИ ЦОД в Юго-Восточной Азии из-за ограничений на экспорт передовых чипов в КНР и высоких цен на электричество в китайских мегаполисах, ожидается, что у китайских производителей охлаждающего оборудования появится больше экспортных возможностей.
23.12.2025 [12:28], Сергей Карасёв
Goodram представила 122,88-Тбайт SSD для ЦОД с иммерсионным охлаждениемКомпания Goodram Industrial, принадлежащая Wilk Elektronik SA, без громких анонсов представила свой первый SSD вместимостью 122,88 Тбайт, предназначенный для использования в системах с иммерсионным (погружным) жидкостным охлаждением. Устройство рассчитано на дата-центры и площадки гиперскейлеров. Накопитель относится к семейству DC25F. В его основу положены чипы флеш-памяти QLC NAND. Доступны модификации в форм-факторах E3.S и E3.L: в обоих случаях для подключения служит интерфейс PCIe 5.0 x4. Заявленная скорость последовательного чтения информации достигает 14 600 Мбайт/с, скорость последовательной записи — 3200 Мбайт/с. Показатель IOPS составляет до 3 млн при произвольном чтении данных 4K-блоками и до 35 тыс. при произвольной записи. Накопители способны выдерживать 0,3 полных перезаписи в сутки (0,3 DWPD) на протяжении пяти лет. Это ставит их в один ряд с другими QLC-устройствами корпоративного класса, предназначенными для «теплого» и «холодного» хранения данных.
Источник изображения: Goodram Goodram отмечает, что накопители прошли всестороннее тестирование с использованием различных диэлектрических жидкостей для иммерсионного охлаждения, включая составы Shell и Chevron. Утверждается, что эти SSD рассчитаны на длительную эксплуатацию без деградации. Помимо модели вместимостью 122,88 Тбайт, Goodram предлагает широкий выбор других SSD для систем с иммерсионным охлаждением. Это устройства ёмкостью от 1,92 Тбайт и выше на основе чипов TLC NAND и QLC NAND с интерфейсами SATA, PCIe 4.0 и PCIe 5.0. Они доступны в форм-факторах SFF U.2 и U.3, E3.S и E1.S, M.2 2280 и M.2 22110.
23.12.2025 [09:39], Руслан Авдеев
Около 80 % всех дата-центров мира построены в не слишком подходящих климатических условияхСогласно исследованию Rest of World, почти 7 тыс. из 8808 дата-центров в мире построены в не самых комфортных, согласно стандартам ASHRAE, климатических условиях. Большинство находятся «за пределами оптимального температурного диапазона» для охлаждения, а 600 — в слишком жарких местах. Проблема в том, что развитие ИИ вынуждает размещать ЦОД и в неблагоприятных регионах. Анализ свидетельствует, что экономические, политические и даже сетевые реалии часто важнее для строителей и операторов, чем экологическая целесообразность. При анализе эксперты Rest of World сопоставляли данные о местоположении дата-центров с информацией о температуре из базы Copernicus. Данные сравниваются с рекомендациями ASHRAE, согласно которым эффективнее всего ЦОД работают при температуре окружающего воздуха 18 °C до 27 °C. Другими словами, почти 7 тыс. ЦОД находятся за пределами рекомендованного температурного диапазона. Большинство находятся в регионах со среднегодовой температурой ниже 18 °C, где решающее значение имеет управление влажностью и циркуляцией. Около 600 объектов, находятся в местах со среднегодовой температурой выше 27 °C, там постоянной проблемой является жара. В 21 стране вообще все ЦОД расположены в зонах с температурой выше рекомендованной. К ним, например, относятся Сингапур, Таиланд, Нигерия и ОАЭ. В Саудовской Аравии и Малайзии почти все дата-центры находятся в таких же горячих зонах, в Индонезии — почти половина, а в Индии — чуть меньше трети. Сингапур является уникальным регионом — на очень небольшой площади размещены дата-центры мощностью более 1,4 ГВт (ещё 300 МВт на очереди), при этом средняя дневная температура составляет около 33 °C, а относительная влажность нередко переваливает за 80 %. Для дата-центров такие условия близки к экстремальным. Сингапур фактически вводил мораторий на развитие ЦОД из-за нехватки энергии, значительная часть которой в случае ЦОД уходила на охлаждение. В общемировом масштабе дата-центры часто приходится строить в не слишком пригодных для их эксплуатации климатических условиях. Спрос на облака и генеративный ИИ быстро растёт, и особенно в регионах с самым жарким климатом. При этом правительства всё чаще требуют хранения данных в пределах национальных границ. В результате ЦОД строят совсем не там, где их использование дешевле всего. Впрочем, даже если операторы не гонятся за суверенитетом данных, в расчёт часто принимается доступность и стоимость электричества и воды. Также учитывается цена земли, частота в регионе стихийных бедствий, местные законы, налоговые льготы, простота получения разрешений на строительство. Рост нагрузки на системы охлаждения создаёт и дополнительную нагрузку на местные электросети. По информации Международного энергетического агентства (IEA), в 2024 году дата-центры потребили около 415 ТВт∙ч, это около 1,5 % от мирового спроса на электричество. По некоторым оценкам, к 2030 году цифра вырастет более чем вдвое по мере развития ИИ, места строительства новых ЦОД будут значить ещё больше. В ответ операторы ЦОД по-новому подходят к охлаждению объектов. Хотя воздушное охлаждение по-прежнему доминирует (на него приходится 54 % рынка), всё популярнее становятся СЖО, особенно для ИИ-стоек высокой плотности. Впрочем, модернизация уже действующих объектов довольно затратна, а многие из наиболее перспективных рынков ЦОД в мире имеют ограниченные ресурсы. По словам экспертов, к 2040 году экстремальная жара может существенно сказаться на ⅔ крупнейших ЦОД по всему миру, в т.ч. на всех основных дата-центрах в Азиатско-Тихоокеанском регионе и на Ближнем Востоке.
18.12.2025 [16:20], Сергей Карасёв
IXcellerate разработала собственное решение для эффективного охлаждения высоконагруженных ЦОДРоссийский оператор коммерческих дата-центров IXcellerate сообщил о разработке передового решения для охлаждения высоконагруженных машинных залов. Компания уже получила патент на изобретение, которое прошло независимую экспертизу Федеральной службы по интеллектуальной собственности. Целью исследовательского проекта являлось создание технологии для увеличения мощности системы кондиционирования при неизменной площади помещения. При этом требовалось решить проблемы неравномерного распределения воздуха, обеспечив возможность размещать стойки в любой точке машинного зала без изменения конфигураций инженерных систем. В процессе разработки специалисты использовали CFD-инструменты. В результате, была получена специальная формула для расчёта объёма расходуемого воздуха, температурного режима и суммарной площади теплообменников для оптимального подбора мощности и количества вентиляторов. Формула позволила сконструировать новую воздухоохладительную камеру статического давления: она обеспечивает равномерное распределение воздушных потоков на все теплообменные аппараты. Инновационное решение внедрено в действующих машинных залах Южного кампуса IXcellerate с общей нагрузкой более 30 МВт. По заявлениям компании, применённая технология обеспечивает ряд преимуществ по сравнению с другими системами. В частности, благодаря оптимизации повышена энергоэффективность ЦОД и снижено потребление электроэнергии. Количество стойко-мест удалось увеличить на 15 % при сохранении прежней площади машинного зала. Исключены риски перегрева высоконагруженного IT-оборудования. Кроме того, достигнут оптимальный температурный график теплоносителя, благодаря чему дата-центр работает в энергосберегающем режиме фрикулинга. Разработка новой технологии особенно важна в свете сформировавшейся геополитической обстановки, из-за которой поставки импортной продукции в Россию ограничены. Предложенное решение позволяет поддерживать параметры климата по стандарту ASHRAE, обеспечивает отказоустойчивость и сервисное обслуживание оборудования без перерывов на ремонты. Система подходит для любых дата-центров и помещений с серверным оборудованием.
15.12.2025 [09:18], Руслан Авдеев
Как ЦОД используют воду и почему никак не могут «напиться»После дебюта ChatGPT в 2022 году и взрывного роста рынка ЦОД вследствие этого, повышенное внимание стало уделяться воздействию последних на окружающую среду. Впрочем, беспокоиться стоит не только об электроэнергии. Любые, даже самые современные ЦОД используют колоссальные объёмы питьевой воды. В презентации техасской Strategic Thermal Labs упоминается, что в США дата-центры потребляют миллионы литров питьевой воды ежедневно для охлаждения оборудования. В некоторых случаях на долю ЦОД приходится до четверти потребления воды муниципалитетами. С распространением энергоёмких систем генеративного ИИ проблема только усугубилась. В апреле 2024 года сообщалось, что потребление воды китайскими ЦОД удвоится к 2030 году, дойдя до более чем 3 млрд м3/год. В августе того же года — что ЦОД в Вирджинии потребляют огромные объёмы питьевой воды, а развитие ИИ только усугубляет ситуацию. В ближайшие годы гиперскейлеры и прочие операторы ЦОД намерены построить гигаваттные ЦОД с миллионами ускорителей, поэтому воды потребуется ещё больше. Эксперты Калифорнийского университета в Риверсайде и Техасского университета в Арлингтоне предполагают, что мировой спрос на ИИ к 2027 году может привести к использованию 4,2–6,6 млрд м3/год. В первую очередь «виноваты» системы испарительного охлаждения, в которых вода берётся из местных источников и подаётся к оборудованию, где и испаряется, передавая тепло воздуху. Главной причиной популярности такой технологии среди операторов ЦОД стала высокая эффективность таких систем и отсутствие необходимости использовать для охлаждения много энергии. Испарения около 40 л/мин. достаточно для оборудования на 1,5 МВт, передаёт The Register со ссылкой на данные Strategic Thermal Labs. При этом испарительные системы обычно эффективнее всего работают в жарких и засушливых пустынных областях, где воды и так мало. Хуже того, 20–30 % воды в таких системах используются для промывки минеральных отложений и смывается в очистительные установки. Нейтрализация таких отложений — отдельная задача. Тем не менее, испарительные системы всё равно дешевле в эксплуатации в сравнении с альтернативами, у них выше КПД, а энергии они тратят мало. А, например, Digital Realty с помощью мониторинга и автоматизации насосов сократила использование воды в системах с испарительным охлаждением на 15 % — полностью исключить его практически невозможно. Любые технологии, даже не потребляющие воду напрямую, всё равно зависят от неё. Например, «сухие» охладительные системы тратят на порядки больше электричества в сравнении с испарительными, что потенциально увеличивает косвенные выбросы воды. Так, статистика свидетельствует, что порядка 89 % электроэнергии США получают от газовых, атомных и угольных электростанций, а многие из них применяют паровые турбины, расходующие чрезвычайно много воды. ЦОД, находящиеся в регионах с большими ресурсами ГЭС, солнечных и ветряных электростанций, обеспечивают меньшее косвенное потребление воды, чем те, что питаются, например, от ископаемого топлива. Примечательно, что при генерации энергии всё равно теряется намного больше воды, чем потребляется современными ЦОД. Как показало исследование Национальной лаборатории Лоуренса в Беркли (LBL) от 2016 года, порядка 83 % потребления воды ЦОД приходится на генерацию энергии. Другими словами, использование энергоёмких систем для «безводного» охлаждения ЦОД в итоге ведёт… к большему потреблению воды. Впрочем, речь может идти о «другой» воде в другом месте — электростанции могут быть очень далеко от ЦОД и часто получают воду из рек и озёр. Операторы ЦОД прекрасно это понимают, пытаясь скрыть расходы воды уровня Scope 2 и 3. Для сокращения прямого и косвенного потребления целесообразно, например, использование фрикулинга везде, где это возможно. Впрочем, действительно комфортный для ЦОД климат, где нет жары, но нет и морозов, есть далеко не везде. В этом отношении выигравают страны Северной Европы, где много ГЭС и других возобновляемых источников. Поэтому даже если использовать вспомогательные чиллеры, косвенное потребление воды будет относительно небольшим, а тепло можно направлять на обогрев теплиц, зданий, бассейнов и т.п. Там, где фрикулинг нецелесообразен, возможен переход на СЖО — как DLC, так иммерсионные. Хотя «сухие» системы охлаждения потребляют больше энергии, чем испарительные, улучшение индекса PUE в итоге может компенсировать разницу. Например, переход на прямое жидкостное охлаждение чипов NVIDIA Blackwell может снизить PUE с 1,69–1,44 до 1,1 и ниже. Впрочем, баланс зависит от многих факторов. Та же NVIDIA пока не готова к погружным СЖО, да и средний по миру PUE с годами особо уже не меняется.
Источник изображения: Uptime Institute Хотя многие новые технологии охлаждения предусматривают внесение изменений в инфраструктуру объектов, в качестве альтернативы можно перераспределить нагрузки между ЦОД — примерно так же, как это делается в часы пиковых нагрузок на электросети, эффективность использования испарителей может меняться даже в зависимости от времени суток. Правда, многим, например колокейшн-провайдерам будет довольно трудно добиться эффективности из-за ограниченного контроля над серверами и нагрузками. Такой подход может не подойти и для инференса, где быстрое выполнение задач играет решающее значение. При этом обучение ИИ не имеет таких ограничений и проводиться удалённого на севере и в заданное время. Тюнинг моделей требует гораздо меньше вычислений, и такие задачи тоже можно планировать, например на ночь, когда температура ниже, как и объёмы испарения. Важнейшую роль играют источники воды для ЦОД. В некоторых регионах не хватает даже воды для питья. Эксперты предлагают операторам дата-центров инвестировать в опреснители, сети распределения воды, локальные очистные сооружения и др. для более широкого использования испарительных охладителей. По некоторым расчётам, опреснение и транспортировка воды с морского побережья всё ещё эффективнее, чем отказ от испарительных систем — даже с доставкой не трубопроводами, а в цистернах. Впрочем, Microsoft готовит ЦОД с почти нулевым расходом воды, а ранее экспериментировала со сбором дождевой воды. AWS обещала перевести ещё 100 дата-центров на использование очищенных сточных вод для охлаждения.
12.12.2025 [17:21], Руслан Авдеев
Никаких закладок: NVIDIA анонсировала новое ПО для мониторинга и продления жизни ИИ-ускорителей в ЦОД
dcim
nvidia
open source
software
амортизация
ии
мониторинг
охлаждение
цод
электропитание
энергоэффективность
NVIDIA разрабатывает новое открытое ПО, благодаря которому операторы ЦОД смогут получать более подробные данные о тепловом состоянии и иных параметрах работы ИИ-ускорителей. Предполагается, что это поможет решать проблемы, связанные с перегревом оборудования и его надёжностью, увеличив его срок службы и производительность. NVIDIA отдельно подчёркивает, что телеметрия собирается только в режиме чтения без слежки за оборудованием, а в ПО нет «аварийных выключателей» и бэкдоров. Да и в целом использование новинки опционально. ПО обеспечивает операторам ЦОД доступ к мониторингу потребления энергии, загрузки, пропускной способности памяти и других ключевых параметров в масштабах всего парка ускорителей. Это помогает выявлять на ранних стадиях риски и проблемные компоненты и условия работы, отслеживать использование ИИ-ускорителей, их конфигурации и ошибки. Детализированная телеметрия становится всё важнее для планирования и управления масштабными инфраструктурами, говорит компания. ПО позволит:
Такой мониторинг особенно важен на фоне недавнего отчёта учёных Принстонского университета, в котором сообщается, что интенсивные тепловые и электрические нагрузки способны сократить срок службы ИИ-чипов до года-двух, хотя обычно предполагается, что они способны стабильно проработать до трёх лет. Современные ускорители потребляют 700 Вт и более, а высокоплотные системы — от 6 кВт. Из-за этого формируются зоны перегрева, происходят колебания энергопотребления и растёт риск деградации интерконнектов в высокоплотных стойках. Телеметрия, позволяющая оценить потребление энергии в реальном времени, состояние интерконнектов, систем воздушного охлаждения и др. позволяет перейти от реактивного мониторинга к проактивному проектированию. Рабочие нагрузки можно размещать с учётом теплового режима, быстрее внедрять СЖО или гибридные системы охлаждения, оптимизировать работу сетей с уменьшением тепловыделения. Также ПО может помочь операторам ЦОД выявлять скрытые ошибки, вызванные несоответствием версий прошивки или драйверов. Благодаря этому можно повысить общую стабильность парка ускорителей. Кроме того, без задержек передаваемые данные об ошибках и состоянии компонентов могут значительно сократить среднее время восстановления работы и упростить анализ причин сбоев. Соответствующие данные могут влиять на решения о тратах на инфраструктуру и стратегию её развития на уровне предприятия.
Источник изображения: NVIDIA Как заявляют в Gartner, современный ИИ представляет собой «энергоёмкого и сильно нагревающегося монстра», разрушающего экономику и принципы работы ЦОД. В результате, предприятиям нужны специальные инструменты мониторинга и управления для того, чтобы ситуация не вышла из-под контроля. В ближайшие годы использование подобных решений, вероятно, станет обязательным. Кроме того, прозрачность на уровне всего парка оборудования становится необходимой для обоснования роста бюджетов на ИИ-инфраструктуру. По словам экспертов, такие программные инструменты позволяют оптимизировать капитальные и операционные затраты на ЦОД и инфраструктуру, запланированные на ближайшие годы. «Каждый доллар и каждый ватт» должны быть учтены при эффективном использовании ресурсов.
08.12.2025 [09:28], Руслан Авдеев
И запитать, и охладить: LG и LS сделали Microsoft пакетное предложение на инфраструктуру для ИИ ЦОД стоимостью миллиарды долларовТоп-менеджеры южнокорейских LG Group и LS Group посетили штаб-квартиру Microsoft в США для того, чтобы предложить всеобъемлющий план внедрения ИИ-инфраструктуры нового поколения. Это довольно редкий случай координации действий компаний на уровне высшего руководства для привлечения внимания одного из ключевых инвесторов в ИИ, сообщает The Korea Herald. Вместо того, чтобы предлагать отдельные продукты, южнокорейская делегация представила комплексную концепцию, направленную на решение двух главных проблем современных ЦОД — высокого тепловыделения и высокого энергопотребления. Вместо закупок компонетов по отдельности у компаний вроде Vertiv или Schneider Electric, в последнее время не готовых похвастаться малыми сроками поставок оборудования, Microsoft получила чрезвычайно выгодное пакетное предложение от вертикально интегрированных участников цепочки поставок. Для решения проблем с теплоотводом LG предложила передовые технологии терморегуляции вроде прямого жидкостного охлаждения чипов, системы иммерсионного охлаждения и чиллеры с центробежными компрессорами на магнитных подшипниках. Все эти решения направлены на оптимизацию использования энергии и улучшения коэффициента PUE. Ранее уже было объявлено о партнёрстве LG и Microsoft в вопросе охлаждения будущих ИИ ЦОД. LS предложила инфраструктурные решения, связанные непосредственно с подачей энергии, в том числе технологию шин, заменяющих громоздкие кабели для экономии места и снижения тепловыделения в условиях высокой плотности размещения оборудования в стойках, высоковольтные трансформаторы и системы подключения к энергосетям. LS включила в пакет предложений и аккумуляторные энергохранилища для сглаживания потребления в часы пиковых нагрузок. Хотя южнокорейские СМИ поспешили сообщить, что крупномасштабная сделка с Microsoft, стоимость которой оценивается в несколько миллиардов в год, уже подписана, участники делегации выпустили официальное уведомление о том, что окончательного соглашения ещё нет и дальнейшее взаимодействие продолжают обсуждать. Впрочем, присутствие топ-менеджеров двух крупных южнокорейских бизнес-групп в Редмонде уже свидетельствует о серьёзном настрое южнокорейского бизнеса позиционировать себя как инфраструктурного партнёра мирового уровня для ИИ-проектов. Стремление к унификации и объединения технологий прослеживается и среди других игроков рынка ЦОД. Так, в ноябре сообщалось, что NVIDIA ужесточит контроль над выпуском ИИ-платформ, задвинув Foxconn и других партнёров на второй план.
01.12.2025 [09:15], Руслан Авдеев
Японская Daikin намерена утроить продажи систем охлаждения ЦОД в Северной Америке, надеясь на гиперскейлеров и ИИ-бумЯпонская Daikin Industries рассчитывает утроить продажи охлаждающего оборудования для ЦОД в Северной Америке на фоне бума ИИ-технологий — до более чем ¥300 млрд ($1,92 млрд) к 2030 финансовому году, сообщает Nikkei Asian Review. Сейчас Daikin скупает технологии охлаждения американских компаний и намерена учредить отдельную штаб-квартиру для североамериканского рынка в 2026 финансовом году. Основная цель — работа со всеми гиперскейлерами. По оценкам Daikin, на Северную Америку приходится 40 % мирового рынка решений для охлаждения ЦОД, и её доля, вероятно, продолжит расти. Ключевыми заказчиками являются гиперскейлеры, и Daikin уже работает с Google и Amazon. Крупные HVAC-системы нередко приобретаются для нескольких зданий одновременно, так что объёмы единовременных продаж обычно составляют десятки миллионов долларов. Доля Daikin на североамериканском рынке, по её собственным оценкам, составляет около 12 %. Она занимает третье место в своём сегменте. К 2030 году компания намерена довести долю до 30 %. Конкуренцию ей составит как минимум LG, которая будет поставлять свои системы охлаждения для ИИ ЦОД Microsoft. В 2007 году Daikin купила малайзийскую OYL Industries, которая владела американским производителем кондиционеров McQuay International (бренд Applied). В 2023 году за ¥30 млрд ($192 млн) она купила американскую Alliance Air Products, специалиста по оборудованию для обработки воздуха. В августе того же года она приобрела американскую же Dynamic Data Centers Solutions, разрабатывавшую технологию индивидуального охлаждения стоек. Наконец, в ноябре компания купила американский стартап Chilldyne, специализирующийся на СЖО. Массовое производство систем воздушного и жидкостного охлаждения для серверов начнётся весной следующего года. По прогнозам Daikin, приблизительно 70 % рынка к 2030 году будет приходиться на системы воздушного охлаждения и около 30 % — на СЖО. Daikin намерена предлагать оптимальные комбинации этих методов для операторов ЦОД и отраслевых подрядчиков. Дополнительно она предлагает и системы контроля охлаждения. Также компания сообщает, что намерена создать в США хаб по выпуску решений для ЦОД в 2026 фискальном году для контроля над североамериканским рынком. По данным индийской Fortune Business Insights, мировой рынок систем охлаждения для ЦОД должен вырасти более чем вдвое с 2024 по 2032 гг. до $42,4 млрд. Впрочем, гиперскейлеры работают над собственными решениями, которые позволят обрести им «суверенитет» от независимых вендоров. Например, собственную СЖО всего за 11 месяцев разработала и запустила в производство AWS. А Meta✴ пришлось пойти на ухищрения, чтобы обойтись воздушным охлаждением ИИ-стоек.
28.11.2025 [21:12], Владимир Мироненко
Сбой в системе охлаждения ЦОД обрушил крупнейшую в мире товарную биржу CMEВ пятницу, 28 ноября, на мировых фьючерсных рынках началась неразбериха после того, как CME Group (Чикагская товарная биржа, Chicago Mercantile Exchange), крупнейший в мире биржевой оператор по рыночной стоимости, столкнулся с одним из самых длительных сбоев в работе за последние годы, из-за которого была приостановлена торговля акциями, облигациями, сырьевыми товарами и валютой. Как сообщает агентство Reuters со ссылкой на данные LSEG, после продолжительного перерыва торговля на CME Group возобновилась в 13:35 по Гринвичу (16:35 МСК). EBS market, платформа, используемая для обмена валюты, вновь открылась немного раньше — в 15:00 МСК, пишет Bloomberg со ссылкой на уведомление на веб-сайте CME Group. В уведомлении не содержится никакой информации о том, когда возобновят работу другие затронутые рынки, от акций до облигаций и сырьевых товаров. CME сообщила о прекращении торгов на своих ключевых площадках из-за сбоя в системе охлаждения ЦОД CyrusOne в Авроре (Aurora, Иллинойс). Сбой повлиял на фьючерсы Globex, валютный рынок EBS и другие, остановив торги фондовыми индексами, сырьевыми товарами, энергоносителями, металлами и сельскохозяйственными товарами примерно на 10 часов в период низких объемов торгов в «чёрную пятницу». По данным LSEG, из-за сбоя были приостановлены торги основными валютными парами на платформе CME EBS, а также фьючерсами на нефть WTI, пальмовое масло, золото, Nasdaq 100 и Nikkei.
Источник изображения: CyrusOne «27 ноября на нашем объекте CHI1 произошел сбой в работе холодильной установки, затронувший несколько холодильных агрегатов. Наши инженерные группы совместно со специализированными подрядчиками по механическому оборудованию работают на месте над восстановлением полной мощности охлаждения. Мы успешно перезапустили несколько охлаждающих установок с ограниченной мощностью и развернули временное охлаждающее оборудование в дополнение к нашим постоянным системам», — пояснила CyrusOne в письме ресурсу Data Center Dynamics. Компания отметила, что находится на прямой связи со всеми пострадавшими клиентами и регулярно предоставляет обновлённую информацию по мере развития ситуации. «Наши команды работают круглосуточно, чтобы как можно быстрее и безопаснее восстановить нормальную работу», — подчеркнула CyrusOne. Как сообщает Data Center Dynamics, CyrusOne управляет примерно 55 ЦОД по всему миру. В 2016 году CME Group продала за $130 млн свой ЦОД в Авроре компании CyrusOne, который тут же арендовала на 15 лет. Кампус Aurora включает три ЦОД общей площадью 41,8 тыс. м2 общей мощностью 109 МВт. Глава CMC Markets по Азии и Ближнему Востоку Кристофер Форбс (Christopher Forbes) сообщил агентству Reuters, что не видел столь масштабного сбоя порядка 20 лет. Нынешний сбой в работе CME произошёл более чем через десять лет после того, как в апреле 2014 года бирже пришлось закрыть электронную торговлю некоторыми сельскохозяйственными контрактами из-за технических проблем. В 2021 году CME подписала соглашение с Google Cloud, в рамках которого Google инвестировала в неё $1 млрд, а CME запланировала перенести свою ИТ-инфраструктуру на платформу Google Cloud в течение следующего десятилетия. Биржа также является клиентом ЦОД Equinix за пределами США. Похожая сделка была заключена между Microsoft Azure и Лондонской фондовой биржей. А Nasdaq постепенно перебирается в AWS. Последняя недавно пережила крупный сбой. UPD 01.12.2025: CyrusOne сообщила, что сбой произошёл из-за проблем с чиллерами, но компания уже приняла меры и повысила надёжность охлаждения пострадавшего ЦОД. UPD 08.12.2025: причиной сбоя официально назван человеческий фактор — при подготовке системы охлаждения к холодам не были соблюдены все необходимые процедуры. |
|
