Материалы по тегу:
|
08.03.2026 [14:50], Сергей Карасёв
Карборунд-алмазные водоблоки Coherent Thermadite 800 вдвое теплопроводнее и к тому же легче медныхКомпания Coherent анонсировала охлаждающие пластины Thermadite 800 Liquid Cold Plates (LCP) для систем жидкостного охлаждения, рассчитанных на ИИ-ускорители следующего поколения. Новые изделия, как утверждается, способны снизить температуру чипа более чем на 15 °C по сравнению с обычными медными аналогами. Thermadite представляет собой композитный материал на основе реакционно-связанного карбида кремния (RB-SiC), который формируется путём инфильтрации кремния в пористую заготовку из карбида кремния и углерода. А благодаря включению алмаза в матрицу SiC материал Thermadite обеспечивает высокую теплопроводность, низкий коэффициент теплового расширения, жёсткость и стабильность размеров. Такие характеристики позволяют использовать Thermadite для отвода тепла от мощных электронных компонентов, в частности, от GPU в передовых ИИ-ускорителях. По заявлениям Coherent, Thermadite 800 обладает теплопроводностью 800 Вт/м⋅К — примерно вдвое больше, чем у меди. Кроме того, материал имеет приблизительно на 60 % меньшую плотность, чем медь, что позволяет использовать его в системах, к массе которых предъявляются жёсткие требования. При этом устраняются проблемы с деформацией и надёжностью, которые могут возникать в обычных металлических охлаждающих пластинах при работе под высоким давлением. Пластины Thermadite 800 имеют сложную микроканальную архитектуру, оптимизированную под конкретные чипы: это даёт возможность эффективно отводить тепло от наиболее горячих зон при минимизации расхода охлаждающей жидкости. В результате, снижаются общие эксплуатационные расходы.
08.03.2026 [14:44], Владимир Мироненко
Huawei представила решения для оптических сетей нового поколения для ИИ-нагрузокHuawei провела на MWC 2026 презентацию продуктов и решений, в рамках которой Боб Чен (Bob Chen), президент подразделения оптических продуктов Huawei, представил продукты и решения для оптических сетей нового поколения, призванные способствовать синергии между ИИ и сетями, с упором на ориентированные на ИИ. Он отметил, что развитие ИИ открывает новые возможности для операторов, но также предъявляет более высокие требования к пропускной способности сети, задержке и надёжности, делая необходимой модернизацию оптических сетей для эпохи ИИ. Ведущие мировые операторы также ускоряют развертывание оптических сетей следующего поколения. Боб Чен заявил, что Huawei развивает решения для оптических сетей следующего поколения в двух направлениях: «ИИ для сетей» и «сети для ИИ». В рамках направления «ИИ для сетей» ИИ-технологии обеспечивают интеллектуальное обнаружение волоконно-оптических кабелей, повышают производительность сети и удобство использования, улучшают эффективность эксплуатации и технического обслуживания, а также снижают энергопотребление. В рамках направления «сети для ИИ» расширенные сетевые возможности помогают операторам создавать целевые оптические сети, ориентированные на ИИ, ускоряя внедрение ИИ в домах и на предприятиях.
Источник изображения: Huawei «ИИ для сетей»: повышение качества и эффективности сети
«Сети для ИИ»: ускорение популяризации ИИ
В области оптического доступа Huawei представила FAN-продукты следующего поколения, такие как технология FTTR (Fiber-to-the-Room), OLT (Optical Line Terminal), ONT (Optical Network Terminal) и ODN (Optical Distribution Network). В частности, Huawei выпустила продукты OTN (Optical Transport Network) следующего поколения для магистральных и метросетей, помогая операторам создавать агентные UBB-сети.
08.03.2026 [14:20], Сергей Карасёв
ИИ-облако Iren закупит 50 тыс. ускорителей NVIDIA B300Неооблачная компания Iren объявила о заключении соглашения о покупке более 50 тыс. ускорителей NVIDIA B300. Эта сделка позволит Iren расширить общий парк установленных ускорителей примерно до 150 тыс. ед., что к концу 2026 года обеспечит доход от облачных ИИ-вычислений в размере свыше $3,7 млрд. Закупаемые ускорители NVIDIA B300 в течение этого года будут развёрнуты в существующих дата-центрах Iren с воздушным охлаждением в Маккензи (Британская Колумбия, Канада) и Чилдрессе (Техас, США). При этом подчёркивается, что площадки компании в Чилдрессе и Канал-Флэтс (Британская Колумбия) располагают возможностями для дальнейшего наращивания вычислительных мощностей. За последние восемь месяцев Iren привлекла $9,3 млрд в виде предоплат от клиентов, конвертируемых облигаций, лизинга и средств для приобретения оборудования. В частности, были получены $3,6 млрд на закупку ИИ-ускорителей для нужд Microsoft. Iren намерена использовать эти и другие источники средств для финансирования дополнительных капитальных затрат в размере приблизительно $3,5 млрд: деньги пойдут на покупку серверов, хранилищ, сетевых устройств и вспомогательного оборудования, а также на оплату труда. Условия соглашений предусматривают выполнение платежей после отгрузки техники — это повышает эффективность использования оборотного капитала. «Наращивание мощностей до 150 тыс. ускорителей ставит Iren в число крупнейших мировых поставщиков облачной инфраструктуры для ИИ», — говорит Дэниел Робертс (Daniel Roberts), соучредитель и один из генеральных директоров компании. На сегодняшний день Iren управляет несколькими кампусами ЦОД общей мощностью 810 МВт. Ещё 2,1 ГВт находятся в стадии строительства, 1 ГВт — в стадии разработки. Компания, ранее фокусировавшаяся на майнинге криптовалют, переориентирует свои ресурсы на задачи в сфере ИИ.
07.03.2026 [22:57], Владимир Мироненко
Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta✴Oracle и OpenAI отказались от планов расширения флагманского ИИ ЦОД в Абилине (Abilene, Техасе), одного из первый объектов проекта Stargate, сообщил Bloomberg. Строительство этого ЦОД на территории Clean Campus компании Lancium осуществляет разработчик проекта Crusoe Energy. Объект находится в ведении Oracle в интересах OpenAI. В сентябре прошлого года были введены в эксплуатацию два здания ЦОД, а в этом году планируется запуск ещё шести, в результате чего его мощность составит около 1,2 ГВт. Далее Oracle и OpenAI планировали увеличить мощность до 2 ГВт. Переговоры об этом между Oracle, Crusoe и OpenAI велись с середины 2025 года, но планы изменились. По словам источников, переговоры затянулись из-за проблем с финансированием, а также в связи с часто меняющимися прогнозами спроса OpenAI и изменением взглядов на Stargate, что в итоге привело к их срыву. Также на отношения между Oracle и Crusoe повлияли проблемы с надёжностью функционирования объекта. По словам источников, ранее в этом году ЦОД не функционировали в течение нескольких дней из-за зимней непогоды, повлиявшей на работу части оборудования жидкостного охлаждения. Вместе с тем, компании заверили что их партнёрство по-прежнему прочное, и что арендованная Oracle площадка в Абилине быстро развивается. «Crusoe и Oracle работают в тесном сотрудничестве, чтобы создать одну из крупнейших в мире ИИ-фабрик в Абилине, — говорится в заявлении Crusoe. — Наше сотрудничество позволяет создавать масштабную инфраструктуру быстрее, чем кто-либо другой в отрасли». Также в силе осталась договорённость OpenAI с Oracle, согласившейся поставить для неё 4,5 ГВт мощностей ЦОД. Как сообщает Bloomberg, эта сделка по-прежнему находится в процессе, и компании объявили о ряде проектов в других локациях, например, об объекте недалеко от Детройта, принадлежащем Related Digital. Что касается отказа от расширения проекта в Абилине, то после публикации статьи Bloomberg руководитель отдела инфраструктуры OpenAI Сачин Катти (Sachin Katti) сообщил в соцсетях следующее: «Наша флагманская площадка Stargate — один из крупнейших кампусов ИИ ЦОД в Соединённых Штатах. Мы рассматривали возможность дальнейшего расширения, но в конечном итоге решили разместить дополнительные мощности в других местах». «Сегодня у нас в разработке более полудюжины площадок в нескольких штатах, включая площадку, которую мы строим совместно с Oracle в Висконсине, где на этой неделе были установлены первые стальные балки», — добавил он, о чём сообщил Data Center Dynamics. По данным The Information, полноценное электроснабжение на площадке в Абилине будет доступно только через год, к тому времени OpenAI надеется использовать ускорители NVIDIA Vera Rubin вместо ускорителей Blackwell, которые будут установлены в Абилине, поэтому компания предпочла изменить планы. Кроме того, недалеко от первого техасского кампуса Stargate строится и второй — 1,4-ГВт ИИ ЦОД в округе Шакелфорд (Shackelford, Техас) возводится под началом Vantage Data Centers. Как рассказали источники, когда Crusoe начала подыскивать арендаторов для своего ЦОД в Абилине, к процессу подключилась NVIDIA. Чтобы избежать появления на этой площадке продукции конкурирующего разработчика чипов AMD, компания, как сообщается, внесла Crusoe депозит в размере $150 млн для обеспечения аренды площадки. Сообщается, что провал переговоров между Oracle и OpenAI создал возможность для Meta✴ по аренде запланированной для расширения площадки в Абилине, и NVIDIA ведёт с ней переговоры по этому поводу. Сделка между Crusoe и Meta✴ пока не подписана. Добавим, что только в этом году Meta✴ планирует направить на капитальные затраты до $135 млрд. В свою очередь, OpenAI намерена инвестировать в вычислительные мощности около $600 млрд к 2030 году, что гораздо меньше ранее заявленных $1,4 трлн к 2033 году. При этом до $300 млрд из этой суммы планируется выделить Oracle, которая сама испытывает трудности с финансированием строительства своих ЦОД, накапливает долги и планирует уволить тысячи сотрудников для снижения расходов.
07.03.2026 [22:20], Сергей Карасёв
640 Кбайт хватит для ИИ: микроконтроллеры STM32U3B5/C5 со сверхнизким энергопотреблением могут работать даже без батарейSTMicroelectronics анонсировала микроконтроллеры STM32U3B5 и STM32U3C5, ориентированные на автономные устройства с функциями ИИ и машинного обучения. Изделия отличаются сверхнизким энергопотреблением и возможностью перехода в режим глубокого сна при отсутствии данных. Таким образом, допускается работа без батарей — исключительно за счёт преобразования энергии окружающей среды (свет, тепло, вибрации, радиоволны) в электрическую. Микроконтроллеры используют 32-бит ядро Arm Cortex-M33 с частотой 96 МГц. Заявленная производительность достигает 1,5 DMIPS/МГц (Dhrystone 2.1) и 395,4 CoreMark (4,12 CoreMark/МГц). В оснащение входит HSP (Hardware Signal Processor) — специальный блок, предназначенный для ускорения определенных вычислений, связанных с ИИ. Есть 640 Кбайт SRAM и 2 Мбайт флеш-памяти. Предусмотрены интерфейсы SDMMC и OCTOSPI с поддержкой внешней памяти SRAM, PSRAM, NOR, NAND и FRAM. Реализована поддержка 114 × GPIO, USB 2.0, SAI (Serial Audio Interface), 4 × I2C FM+, SMBus/PMBus, 3 × I3C (SDR), 3 × USART и 2 × UART (SPI, ISO 7816, LIN, IrDA, Modem), 1 × LPUART, 4 × SPI, 2 × CAN FD, GPDMA (12 каналов), 2 × 12-bit ADC, 12-bit DAC и др. Возможны различные варианты исполнения, в том числе UFQFPN48 (7 × 7 мм), LQFP48 (7 × 7 мм), LQFP64 (10 × 10 мм), WLCSP72 (3,67 × 3,58 мм), WLCSP99 (3,67 × 3,58 мм), LQFP100 (14 × 14 мм), WLCSP126 (3,67 × 3,58 мм), UFBGA132 (7 × 7 мм) и LQFP144 (20 × 20 мм). Диапазон рабочих температур простирается от -40 до +105 °C. В микроконтроллеры встроены развитые средства безопасности, включая Arm TrustZone, генератор случайных чисел TRNG, защиту от несанкционированного доступа и пр. Единственное различие между решениями STM32U3B5 и STM32U3C5 заключается в том, что второе включает криптографическое ядро для ускорения операций шифрования и дешифрования. Цена варьируется от $2,9298 до $4,6829 за штуку в зависимости от конфигурации при заказах партий от 10 тыс. единиц.
06.03.2026 [17:26], Владимир Мироненко
Акции Marvell подскочили после отчёта о росте продаж чипов для ИИ ЦОДАмериканская компания Marvell Technology, специализирующаяся на производстве процессоров, микроконтроллеров и телекоммуникационных решений, сообщила результаты IV квартала и всего 2026 финансового года, завершившегося 31 января 2026 года. Результаты превысили ожидания аналитиков. Также Marvell прогнозирует доходы в 2028 финансовом году выше оценок Уолл-стрит, что свидетельствует о высоком спросе на специализированные микросхемы и решения для интерконнекта, используемые в ИИ ЦОД, в результате чего ее акции подскочили на 15 % на дополнительных торгах, сообщило агентство Reuters. Выручка Marvell за IV квартал составила $2,22 млрд, что на 22 % больше год к году и $19,0 млн выше среднего значения прогноза компании, представленного 2 декабря 2025 года. Также это превысило консенсус-прогноз аналитиков, опрошенных FactSet, в размере $2,21 млрд (по данным Investors.com). Скорректированная прибыль на разводнённую акцию (non-GAAP) составила $0,80 при среднем прогнозе аналитиков в $0,79. Чистая прибыль (GAAP) составила $396,1 млн, или $0,46 на разводнённую акцию против $1,90 млрд и $2,20 на разводнённую акцию годом ранее. Выручка сегмента решений для ЦОД, на который пришлось 74 % от общего дохода компании, составила $1,65 млрд, увеличившись год к году на 21 %. Сегмент связи и прочих услуг принёс $567,4 млн, что на 26 % больше, чем годом ранее. Выручка за 2026 финансовый год составила $8,195 млрд, что на 42 % больше, чем годом ранее. Чистая прибыль (GAAP) равняется $2,67 млрд или $3,07 на разводнённую акцию, тогда как годом ранее у компании были убытки в размере $885 млн или $1,02 на разводнённую акцию. Скорректированная чистая прибыль (Non-GAAP) за 2026 финансовый год равна $2,47 млрд или $2,84 на разводненную акцию. Компания отметила, что выручка от коммутаторов превысила $300 млн в 2026 финансовом году и ожидается, что она превысит $600 млн в 2027 финансовом году. За прошедший год выручка от кастомных микросхем удвоилась и ожидается сильный рост в 2027 финансовом году. В I квартале 2027 года Marvell прогнозирует скорректированную прибыль в размере $0,79 на разводнённую акцию +/- $0,05 при выручке в $2,40 млрд ±5 %. Аналитики Уолл-стрит ожидают прибыль в размере $0,74 на разводнённую акцию при выручке в $2,28 млрд. За аналогичный период прошлого года Marvell заработала $0,62 на акцию прибыли при выручке в $1,9 млрд. Компания заявила, что квартальный прогноз включает ожидаемые результаты Celestial AI и XConn Technologies, приобретённых в конце прошлого и начале этого года. Marvell ожидает, что существенный вклад в выручку от Celestial AI начнётся во II половине 2028 финансового года, достигнув $500 млн в IV квартале 2028 финансового года и удвоившись до $1 млрд к IV кварталу 2029 финансового года. Также Marvell ожидает, что первоначальный вклад в выручку от XConn начнется в III квартале 2027 финансового года, достигнув $50 млн в годовом исчислении в IV квартале 2027 финансового года. В 2028 финансовом году Marvell ожидает, что XConn принесет $100 млн выручки. «Мы ожидаем, что рост выручки в годовом исчислении будет ускоряться каждый квартал в 2027 финансовом году благодаря устойчивому росту нашего бизнеса в сфере ЦОД, при этом объёмы заказов продолжают расти рекордными темпами. В дополнение к нашим сильным результатам и перспективам, количество заключенных нами контрактов на проектирование в 2026 финансовом году достигло исторического максимума, что, как мы ожидаем, будет и дальше способствовать нашему будущему росту», — заявил Мэтт Мерфи (Matt Murphy), председатель совета директоров и генеральный директор Marvell. Ожидается, что крупные технологические компании, включая Alphabet, Microsoft, Amazon и Meta✴, потратят в этом году не менее $630 млрд на развитие ИИ-инфраструктуры, что повысит спрос на чипы, используемые в серверах и сетевом оборудовании таких компаний, как Marvell. «Мы изучаем планы капитальных затрат крупных компаний на этот год и можем оценить темпы нашего привлечения клиентов, и мы очень уверены в достижении этих показателей», — заявил в интервью Reuters президент и главный операционный директор Крис Купманс (Chris Koopmans). Marvell также ожидает, что выручка вырастет почти на 40 % и приблизится к $15 млрд в 2028 финансовом году, что выше средней оценки аналитиков, по данным LSEG, в $12,92 млрд. Компания также повысила свой прогноз выручки на $2027 финансовый год, ожидая роста более чем на 30 % в годовом исчислении, до $11 млрд, по сравнению с предыдущим прогнозом в $10 млрд. Broadcom, приямой конкурент Marvell, рассчитывает изрядно заработать на кастомных ИИ-ускорителях.
06.03.2026 [17:01], Руслан Авдеев
Инференс-нагрузки Perplexity прописались в облаке CoreWeaveКомпания CoreWeave объявила о заключении долгосрочного соглашения с Perplexity. Стратегическое партнёрство призвано обеспечить выполнение рабочих ИИ-нагрузок последней, также предусмотрено пилотное внедрение в обеих организациях новых сервисов. Утверждается, что CoreWeave позволяет клиентам переходить от разработки непосредственно к внедрению без перепроектирования систем и инструментов. Соглашение предусматривает, что платформа CoreWeave будет использоваться Perplexity для инференса нового поколения. Выделенные кластеры на основе суперускорителей NVIDIA GB200 NVL72 гарантируют соответствие инфраструктуры облачного провайдера изменению задач Perplexity и высоким требованиям экосистемы на основе Sonar и Search API. В своё время Perplexity начинала с выполнения задач инференса с помощью CoreWeave Kubernetes Service и применения платформы W&B Models для (до-)обучения моделей и управления ими на всех этапах, от экспериментального до ввода в эксплуатацию. Дополнительно CoreWeave повсеместно внедрит в своей организации инструменты Perplexity Enterprise Max, что позволит её специалистам искать информацию в интернете и внутренней базе данных, проводить углублённые исследования, анализировать данные и визуализировать их. Партнёрство является свидетельством «мультиоблачной» стратегии Perplexity. Чуть более месяца назад Microsoft заключила крупную облачную сделку с Perplexity, но ключевым провайдером ИИ-поисковика останется AWS.
Источник изображения: CoreWeave/Perplexity Это лишь последняя из удачных сделок CoreWeave, сдающей в аренду мощности даже таким компаниям, как Microsoft, Meta✴ и OpenAI. В 2025 году компания получила средства от NVIDIA, которая арендовала свои же ускорители у CoreWeave. В сентябре 2025 года компания обязалась выкупить у неооблачного оператора все нераспроданные мощности. CoreWeave на волне роста спроса на облачные услуги удвоит в 2026 году капитальные затраты, хотя некоторые инвесторы сомневаются в целесообразности таких мер.
06.03.2026 [16:22], Руслан Авдеев
LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в ПусанеЮжнокорейская LG представила контейнерные дата-центры — занимающееся ИИ-проектами и облачными технологиями подразделение LG CNS создало модуль AI Box, вмещающий до 576 ИИ-ускорителей IT-мощностью до 1,2 МВт, сообщает Datacenter Dynamics. Каждый модуль включают системы энергоснабжения и охлаждения. По словам LG, полностью готовые к развёртыванию модули можно подготовить за шесть месяцев. AI Box состоит из «электрощитовой», отвечающей за силовую инфраструктуру, включающей ИБП, трансформаторы и распределительные щиты, а также машинный зал с серверами, ИИ-ускорителями и охлаждающим оборудованием. Извне подключается электрогенератор, блок аккумуляторов и внешний контур охлаждения. Модульный дизайн позволяет легко масштабировать ЦОД до десятков контейнеров, формируя ИИ-объект гиперскейл-уровня. Первый AI Box компания построит на пусанской площадке Busan Global Cloud Data Center. В планах создание крупного кампуса, вмещающего около 50 контейнеров на территории более 27 тыс. м2 для удовлетворения местного спроса на ИИ-инфраструктуру. Компания объявила, что с выход AI Box знаменует переход к новой парадигме в связанном с ЦОД бизнесе. После успеха на локальном рынке LG намерена расширить глобальное присутствие, в частности, в Юго-Восточной Азии и Северной Америке.
Источник изображения: LG CNS Подразделения одной только LG, связанные с телекоммуникациями и технологиями, управляют в Южной Корее многочисленными дата-центрами. Основанная в 1987 году LG CNS является провайдером IT-сервисов. Она ещё в 1992 году ввела в эксплуатацию первое в Южной Корее специализированное здание ЦОД — Incheon Data Center. Теперь она управляет дата-центрами в Сеуле и Пусане, а также четырьмя площадками за рубежом. Телеком-подразделение LG Uplus управляет несколькими колокейшн-ЦОД, включая три объекта в Сеуле и один в Аняне (Anyang). Конечно, модульные ЦОД активно внедряют и в других странах. Так, например, в феврале 2026 года французский стартап Policliud пообещал развернуть тысячу суверенных модульных микро-ЦОД за пять лет, а в начале марта появилась новость о более экзотическом решении — Aikido объединила морские ветряки с модульными ИИ ЦОД.
06.03.2026 [16:01], Сергей Карасёв
10-узловой сервер Gigabyte B683-Z80-LAS1 на платформе AMD EPYC Turin оснащён СЖОКомпания Gigabyte Technology анонсировала сервер B683-Z80-LAS1 высокой плотности, предназначенный для облачного хостинга, вычислительных ИИ-нагрузок и других ресурсоёмких приложений. Устройство выполнено в форм-факторе 6U с десятью узлами. Каждый узел рассчитан на установку двух процессоров AMD EPYC 9005 Turin или EPYC 9004 Genoa в исполнении Socket SP5 (LGA 6096), показатель TDP которых может достигать 500 Вт. Реализована 12-канальная подсистема оперативной памяти с 24 слотами для модулей DDR5-4800/6400. Конфигурация узлов включает контроллер ASPEED AST2600 с интерфейсом Mini-DP, сетевой порт управления 1GbE (RJ45), три коннектора для низкопрофильных карт расширения PCIe 5.0 x16, два порта USB 3.2 Gen1 Type-A (5 Гбит/с) и два посадочных места для накопителей типоразмера E3.S (NVMe). Сервер оснащён системой прямого жидкостного охлаждения, которая охватывает не только CPU, но и все другие ключевые компоненты, в том числе модули ОЗУ, накопители, а также карты расширения. Утверждается, что применённое решение позволяет отводить до 90 % генерируемого тепла, что обеспечивает высокую эффективность даже при больших нагрузках. Кроме того, задействованы четыре системных вентилятора диаметром 80 мм. Диапазон рабочих температур — от +10 до +35 °C.
Источник изображений: Gigabyte Technology Питание обеспечивают 12 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Собственно серверное шассе оборудовано двумя дополнительными сетевыми портами управления. Габариты устройства составляют 447 × 262,3 × 900 мм, масса — около 38 кг. ![]()
06.03.2026 [14:36], Руслан Авдеев
Шведская Alfa Laval представила экологичную СЖО для ЦОД FreeWaterLoopШведская промышленная группа Alfa Laval выходит на рынок оборудования для дата-центров. Она анонсировала выпуск новую внешнюю систему жидкостного охлаждения FreeWaterLoop. По словам компании, в новой СЖО используется комбинация передовых инженерных решений с сфере насосостроения, высокопроизводительных технологий теплообмена и фильтрации — они объединены в единый, полностью интегрированный модуль. Alfa Laval сообщила, что система использует стабильные температуры и теплопроводность природных водоёмов и минимизирует водопотребление, возвращая чистую воду туда, откуда она была забрана. Кроме того, FreeWaterLoop позволяет уменьшить размер охладительных установок дата-центров, занимая меньше пространства, чем классические системы воздушного охлаждения оборудования. По словам Alfa Laval, наблюдаются беспрецедентные изменения на рынке ЦОД, поскольку развитие ИИ ведёт к росту тепловых нагрузок, заказчику тем временем требуют всё более устойчивую инфраструктуру. Alfa Laval использует свои сильные стороны для создания нового поколения эффективных и надёжных решений в сфере терморегулирования. Основанная в 1883 году шведская компания Alfa Laval занимается как разработкой, так и производством. Она поставляет бойлеры, вентили, насосы, теплообменники и прочие компоненты для судостроения, энергетики и пищевой промышленности. Компания заявила, что в случае с FreeWaterLoop речь идёт об одном из самых быстрых циклов разработки для решений такого масштаба. Это отражает общие амбиции Alfa Laval, свидетельствует о быстром процессе принятия решений в компании и активной поддержке ЦОД с помощью масштабируемых инноваций. Ещё в 2024 году сообщалось, что через несколько лет СЖО займут треть рынка систем охлаждения для ЦОД. Впрочем, новости февраля 2026 года свидетельствуют о том, что с повсеместным внедрением придётся повозиться. AWS резко сократила развёртывание СЖО для Trainium3, решив обойтись преимущественно воздушным охлаждением, хотя ранее сама с нуля разработала собственную систему жидкостного охлаждения в кратчайшие сроки. |
|

