Материалы по тегу: hardware

18.11.2025 [16:55], Владимир Мироненко

d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptor

d-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий.

Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset.

Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он.

d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM.

По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок.

Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации.

AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.

Постоянный URL: http://servernews.ru/1132561
18.11.2025 [16:01], Руслан Авдеев

Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной Корее

Компании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект.

На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября.

Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.

 Источник изображения:  Yu Kato/unsplash.com

Источник изображения: Yu Kato/unsplash.com

Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики.

Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.

Постоянный URL: http://servernews.ru/1132535
18.11.2025 [13:36], Сергей Карасёв

ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлаждения

Компания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL.

 Источник изображений: Giga Computing

Источник изображений: Giga Computing

Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена.

Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub.

За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей.

Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.

Постоянный URL: http://servernews.ru/1132550
18.11.2025 [12:43], Руслан Авдеев

Crusoe завершила строительство последнего здания первого кампуса Stargate

Завершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением.

Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт.

В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.

Постоянный URL: http://servernews.ru/1132540
18.11.2025 [10:54], Сергей Карасёв

Начался монтаж крупнейшего в США академического суперкомпьютера Horizon с ИИ-быстродействием до 80 Эфлопс

Национальный научный фонд США (NSF) объявил о начале монтажа вычислительно комплекса Horizon — крупнейшего в стране академического суперкомпьютера. Система расположится в Техасском центре передовых вычислений (TACC) при Техасском университете в Остине (UT Austin).

Проект реализуется в сотрудничестве с Dell, NVIDIA, VAST Data, Spectra Logic, Versity и Sabey Data Centers. Суперкомпьютер будет развёрнут в новом дата-центре мощностью 15–20 МВт с передовым жидкостным охлаждением в Раунд-Роке (штат Техас).

В основу системы лягут серверы Dell PowerEdge. Говорится об использовании процессоров NVIDIA Vera и суперчипов NVIDIA Grace Blackwell. В общей сложности будут задействованы около 1 млн CPU-ядер и примерно 4 тыс. GPU. Архитектура предусматривает использование интерконнекта NVIDIA Quantum-2 InfiniBand. Вместимость локального хранилища данных, выполненного исключительно на основе SSD, составит 400 Пбайт. Оно обеспечит пропускную способность при чтении/записи более 10 Тбайт/с.

 Источник изображения: TACC

Источник изображения: TACC

Заявленная производительность Horizon — 300 Пфлопс: это примерно в 10 раз больше по сравнению с системой Frontera, которая в настоящее время является самым мощным академическим суперкомпьютером в США. При выполнении ИИ-задач новый вычислительный комплекс обеспечит быстродействие до 20 Эфлопс на операциях BF16/FP16 и до 80 Эфлопс в режиме FP4 — более чем 100-кратный прирост по сравнению с нынешними машинами, которые эксплуатируются в американских академических кругах. При этом говорится о повышении энергетической эффективности до шести раз.

Запуск Horizon запланирован на весну 2026 года. Суперкомпьютер будет использоваться для решения сложных и ресурсоёмких задач в таких областях, как биомедицина, физика, энергетика, экология и пр. В частности, система будет применяться для моделирования климата.

Постоянный URL: http://servernews.ru/1132532
18.11.2025 [01:10], Игорь Осколков

Европа присоединилась к экзафлопсному клубу с суперкомпьютером JUPITER

Европейский суперкомпьютер JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) в Юлихском исследовательском центре (FZJ) в Германии официально преодолел важную отметку — FP64-производительность его GPU-модуля Booster достигла ровно 1 Эфлопс при пиковой теоретической 1,227 Эфлопс. Таким образом в нынешнем рейтинге TOP500 он занял четвёртое место, совсем чуть-чуть не дотянув до суперкомпьютера Aurora с его 1,012 Эфлопс.

Впервые машина попала в июньский рейтинг TOP500 с показателем 793 Пфлопс, но тогда она не была полностью готова. Официальный запуск состоялся лишь в сентябре. Впрочем, за прошедшие с момента выхода прошлого рейтинга его лидер El Capitan тоже нарастил мощность, с 1,742 Эфлопс до 1,809 Эфлопс. Frontier же остался на втором месте с показателем 1,353 Эфлопс, хотя изначально он «дотягивался» только до 1,102 Эфлопс. Таким образом, JUPITER формально стал первой публичной экзафлопсной системой за пределами США, если не брать в расчёт китайские системы, о которых КНР предпочитает не распространяться. Мощные суперкомпьютеры, не участвующие в TOP500, бывали и раньше, но вот есть ли среди них машина такого класса, остаётся только гадать.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Так что если через полгода не будет развёрнут ещё какой-нибудь крупный суперкомпьютер, что вполне реально с нынешними возможностями (нео-)облаков, то JUPITER наверняка поднимется в рейтинге на строчку выше. Сейчас Booster включает порядка 6 тыс. узлов BullSequana XH3000 с 24 тыс. ускорителей GH200 в Quad-исполнении, объединённых 200G-интерконнектом InfiniBand NDR. Ещё приблизительно 5 Флопс в FP64 JUPITER получит от CPU-модуля cCuster из 1300 узлов с 2600 Arm-процессорам SiPearl Rhea1 с 80 ядрами и 64 Гбайт HBM2e. Узлы и интерконнект будут использоваться те же, что в Booster. Однако выпуск этих процессоров только-только начался, так что апгрейд будет завершён только в следующем году. TOP500 в целом в этот раз новизной технологий не блещет, отражая скорее типичный цикл обновления систем.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Всего в ноябрьском рейтинге появилось 45 новых машин. Самая крупная из них — 135,4-Пфлопс CHIE-4, построенная для SoftBank на базе NVIDIA DGX B200 с InfiniBand NDR400 — занимает аж 17 позицию. Она же единственная пополнила первую десятку рейтинга HPCG с результатом 3760,55 Тфлопс, где заняла шестую позицию. Из необычных новинок можно выделить суперкомпьютер MAXIMUS-384 на 20 месте (114,5 Пфлопс), который объединил Intel Xeon Emerald Rapids и AMD Instinct MI300X. Впрочем, вторая во всём списке и уже не такая новая система с MI300X — IronMan — объединяет их с Sapphire Rapids.

 Источник изображения: TOP500

Источник изображения: TOP500

От России в TOP500 попали пять суперкомпьютеров (три от Яндекса и два от Сбера), которые если и обновляли с момента последнего официальной заявки на вхождение в рейтинг, то вряд ли бы стали громко и публично об этом рассказывать. Зато у соседнего Казахстана есть сразу две машины. На 86 позиции с производительностью 20,48 Пфлпос находится Alem.Cloud, на 103 — AI-Farabium с 17,93 Пфлопс. Обе системы используют сочетание Xeon Emerald Rapids, NVIDIA H200 (SXM) и 400G-интерконнект, но первая получила Ethernet, а вторая — InfiniBand NDR.

В Green500 существенных изменений тоже не наблюдается. Ровно половину первой десятки занимают машины с NVIDIA GH200. В общей массе чипы NVIDIA тоже доминируют. При этом первая система без ускорителя занимает аж 105 строчку, и до 113 позиции это сплошь Fujitsu A64FX, лежащие в основе Fugaku. Всего TOP500 уже более половины машин оснащены ускорителями. Но от ожидаемого ранее уровня роста производительности весь рейтинг отстаёт на протяжении уже пяти лет. С другой стороны, и фокус сейчас сместился на ИИ, а новым кластерам некогда участвовать в ненужных для них рейтингах.

Постоянный URL: http://servernews.ru/1132529
17.11.2025 [15:46], Руслан Авдеев

Перегрузка энергосетей угрожает лидерству Нидерландов в сфере ЦОД — доступный водород продолжают игнорировать

В недавнем отчёте ING, одного из крупнейших банков Нидерландов, рисуется всё более мрачная картина местного рынка дата-центров. Амстердам, традиционно входящий в пятёрку крупнейших европейских рынков ЦОД наряду с Франкфуртом, Лондоном, Парижем и Дублином (FLAPD), столкнулся с серьёзными ограничениями роста, сообщает Computer Weekly. В мировом масштабе Амстердам и Франкфурт уже выбыли из первой двадцатки локаций гиперскейлеров.

Недавно городской совет объявил, что заявки на создание новых ЦОД начнут рассматриваться только с 2035 года из-за перегрузки энергосети. IMG, ссылаясь на данные Gartner, сообщает о строительстве в настоящее время новых ЦОД приблизительно на 200 МВт, но вот добавить ещё 200 МВт будет невероятно трудно. Подчёркивается, что речь идёт не просто о судьбе проектов в самом Амстердаме — если в Нидерландах не будет возможностей для дальнейшего роста, страна потеряет знания и опыт, а с ними и экономический рост в будущем. Сегодня сектор обеспечивает 150–250 тыс. рабочих мест в сфере цифровой инфраструктуры и вносит порядка €26 млрд в годовой оборот страны.

Строительству новых ЦОД мешают перегрузка сетей из-за не слишком удачного планирования развития возобновляемой энергетики, нехватка свободных участков и рост обеспокоенности общественности вопросами нехватки энергии. Сейчас на ЦОД в Нидерландах приходится 3,3 % от общего энергопотребления в стране, но с развитием генеративного ИИ показатель может существенно вырасти. В ING допускают, что IT-нагрузки из Нидерландов в итоге переедут за границу, в частности, в Скандинавию, где энергии для охлаждения требуется намного меньше. Вместе с этим сократится и рынок инженеров и прочих специалистов.

 Источник изображения: Thomas Bormans/unsplash.com

Источник изображения: Thomas Bormans/unsplash.com

Тем временем в мире активно развивают технологии водородных топливных элементов для дата-центров, особенно в этом преуспела Microsoft, а также некоторые другие компании. В 2023 году последняя вместе с Plug Power протестировала водородную энергосистему на 3 МВт. Отмечалось, что проект очень интересен — такую мощность до этого обеспечивали резервные дизель-генераторы. Plug Power уже заключила соглашения с «тремя крупными операторами ЦОД». В 2025 году Microsoft и Equinix запустили пилотные проекты по использованию «зелёного» водорода для питания ЦОД. В США успешным пилотным проектом использования водорода стал проект ECL и Lambda.

На этом фоне в Нидерландах сложилась парадоксальная ситуация. Согласно докладу Международного энергетического агентства (IEA) Northwest European Hydrogen Monitor 2024, страна является одним из европейских лидеров в развитии водородной инфраструктуры, причём в проектах участвует и государство, вложившей немало средств в производство и транспортировку водорода по сети трубопроводов. Однако технология находит минимальное применение в секторе ЦОД, за рамки пилотного вышел лишь один проект.

 Источник изображения: Bart Ros/unsplash.com

Источник изображения: Bart Ros/unsplash.com

В 2022 году NorthC Datacenters установила на объекте в Гронингене (Groningen) резервную систему питания на водороде мощностью 500 кВт, ежедневно он сокращает выбросы CO2 приблизительно на 78 т. Ни один ЦОД в Нидерландах не последовал этому примеру. В Ассоциации дата-центров Нидерландов убеждены, что в первую очередь «водородным» электричеством необходимо обеспечить тяжёлую промышленность, на которую приходится больше всего выбросов CO2 в Нидерландах.

Нежелание многих структур использовать водородные системы как альтернативу обычному топливу легко объяснить, поскольку традиционная инфраструктура и дешевле, и доступнее. Производство «зелёного» водорода требует больших затрат возобновляемой энергии. Кроме того, водородные топливные элементы дороже традиционных «дизелей», но с ростом цен на ископаемое топливо и дальнейшим развитием водородного сектора в регионах вроде Гронингена ожидается падение цен. Вместе с тем водородные топливные элементы работают 20 и более лет, значительно дольше, чем дизельные генераторы.

 Источник изображения: Jon Moore/unsplash.com

Источник изображения: Jon Moore/unsplash.com

В феврале 2025 года нидерландский оператор газовой сети Gasunie объявил, что расходы на проект национального водородного трубопровода выросли на 150 % с €1,5 млрд до €3,8 млрд. В IEA подчёркивают, что пока менее 4 % заявленных проектов производства «зелёного» водорода в Северо-Западной Европе достигли стадии «финального инвестиционного решения». Тем не менее, Нидерланды, Германия, Дания и Великобритания к 2030 году будут производить ¾ «зелёного» водорода в регионе.

ING предлагает стратегические решения для развития дата-центров, в т.ч. размещение ЦОД неподалёку от морских ветряных электростанций, использование тепла ЦОД в системах центрального отопления и др. «Зелёный» водород можно производить в случае, если поставки возобновляемой энергии превышают спрос, и хранить его для дальнейшего применения, решая проблемы нестабильности возобновляемой энергетики. Отмечается, что власти Нидерландов намерены к 2032 году добиться получения 21 ГВт от морской ветряной энергетики.

Впрочем, пока конвергенция стратегических секторов — ЦОД и водородной энергетики — в Нидерландах остаётся в значительной степени теоретической. ING призывают усилить координацию действий на национальном и европейском уровнях. Вопрос о готовности страны инвестировать в водородную инфраструктуру для ЦОД остаётся открытым, но, похоже, окно возможностей уменьшается, поскольку мощности ЦОД и водородную энергетику развивают и другие европейские рынки.

Постоянный URL: http://servernews.ru/1132489
17.11.2025 [13:08], Сергей Карасёв

Veir испытала сверхпроводящие кабели для ЦОД — до 3 МВт на впятеро большее расстояние, чем у обычных

Американская компания Veir объявила об успешном испытании своей технологии STAR (Superconducting Technology for AI Racks), которая предполагает использование сверхпроводящих силовых кабелей для питания оборудования в ИИ ЦОД.

Разработанное решение предусматривает замену традиционных кабелей на трубки аналогичного размера, в которых находятся сверхпроводящие ленты в жидком азоте с температурой −196 °C. Утверждается, что благодаря такому подходу передаваемая мощность может быть повышена на порядок при том же напряжении. В январе нынешнего года Veir получила $75 млн на развитие технологии: средства предоставили Munich Re Ventures, Microsoft Climate Innovation Fund, Tyche Partners, Piva Capital, National Grid Partners, Dara Holdings и SiteGround.

Тестирование системы STAR осуществлялось в моделируемой и масштабируемой среде ЦОД недалеко от штаб-квартиры Veir в Уоберне (Woburn) в Массачусетсе (США). Утверждается, что технология позволяет передавать до 3 МВт энергии по одному низковольтному кабелю. При этом протяжённость таких линий может в пять раз превосходить длину традиционных кабельных подключений. Система рассчитана на работу при напряжении до 800 В.

 Источник изображения: Veir

Источник изображения: Veir

По оценкам Международного энергетического агентства (IEA), в течение следующих пяти лет потребление электроэнергии в дата-центрах по всему миру вырастет более чем в два раза, достигнув 945 ТВт·ч к концу десятилетия. При этом мощность серверных стоек для ИИ, как ожидается, будет составлять до 500 кВт. Традиционная электротехническая инфраструктура, как заявляет Veir, не способна удовлетворить такие потребности, в связи с чем понадобится внедрение принципиально новых решений.

Система STAR позволяет повысить гибкость развёртывания ЦОД благодаря высокой плотности мощности в расчёте на один кабель и увеличению охвата, говорит компания. При этом сокращается площадь, занимаемая компонентами подсистем питания, а также уменьшаются сроки ввода объектов в эксплуатацию. Начать коммерциализацию технологии компания Veir намерена в следующем году.

Постоянный URL: http://servernews.ru/1132481
17.11.2025 [12:18], Сергей Карасёв

Silicon Motion представила контроллер SM8388 для QLC SSD с интерфейсом PCIe 5.0

Компания Silicon Motion Technology анонсировала контроллер SM8388, предназначенный для построений корпоративных SSD большой ёмкости на основе флеш-чипов памяти QLC. Утверждается, что новинка позволяет создавать сравнительно недорогие твердотельные накопители Nearline-класса.

Изделие полностью соответствует спецификации NVMe 2.6; поддерживается интерфейс PCIe 5.0. Контроллер имеет восьмиканальную архитектуру со скоростью передачи данных до 3200 MT/s. Заявленная скорость последовательного чтения информации достигает 14,4 Гбайт/с. Производительность IOPS при произвольном чтении — до 3,5 млн.

SSD на базе SM8388 могут иметь вместимость до 128 Тбайт. Контроллер подходит для применения в накопителях различных форм-факторов, включая EDSFF (E1.S/E3.S) и U.2/U.3. Говорится о развитых средствах обеспечения безопасности, включая поддержку TCG Opal, шифрования AES-256, безопасной загрузки и аппаратной технологии Root of Trust (RoT). Заявленное типовое энергопотребление находится в пределах 5 Вт.

 Источник изображения: Silicon Motion

Источник изображения: Silicon Motion

Отмечается, что SM8388 является дальнейшим расширением платформы разработки SSD под названием MonTitan, которая дебютировала вместе с высокопроизводительным 16-канальным контроллером SM8366 для накопителей с поддержкой PCIe 5.0 x4, NVMe 2.0a и OCP 2.0. Это решение применяется в составе SSD различных производителей, включая Unigen и Innodisk.

Новый контроллер — Silicon Motion SM8388 — ориентирован на устройства хранения данных для облачных платформ и кластеров ИИ. О намерении использовать такие SSD в своих серверных системах уже сообщила AIC.

Постоянный URL: http://servernews.ru/1132485
17.11.2025 [10:14], Руслан Авдеев

Vertiv представила иммерсионные СЖО CoolCenter Immersion на 25–240 кВт

Vertiv объявила о выпуске системы погружного охлаждения CoolCenter Immersion. Иммерсионная СЖО обеспечивает поддерживает отвод от 25 кВт до 240 кВт на модуль ёмкостью 24U до 52U, обеспечивая при этом PUE на уровне 1,08. По словам компания, иммерсионное охлаждение играет всё более важную роль из-за повсеместного внедрения HPC- и ИИ-платформ.

В Vertiv CoolCenter Immersion применяется многолетний опыт, полученный Vertiv в сфере СЖО для создания спроектированных «под ключ» систем, безопасно и эффективно справляющихся с высокоплотными системами. Операторы ЦОД смогут практично масштабировать ИИ-инфраструктуру без ущерба надёжности и удобству обслуживания.

 Источник изображения: Vertiv

Источник изображения: Vertiv

Каждая система включает внутренний или внешний резервуар для теплоносителя, блок распределения жидкости (CDU), датчики температуры, а также насосы с регулируемой скоростью работы и трубки. Модуль включает два источника питания и резервные насосы, а также встроенные датчики мониторинга состояния и 9″ сенсорный дисплей. Предусмотрена возможность подключения к системе управления зданием (BMS). Тепло отводится через пластинчатый теплообменник во внешний водяной контур.

Vertiv уже заключила контракт с Digital Realty в Италии на поставку электроэнергии и систем охлаждения для римского объекта Digital ROM1 мощностью 3 МВт. Запуск ЦОД запланирован на 2027 год. На объекте будет использоваться фрикулинг и система охлаждения, готовая к ИИ-нагрузкам, передаёт DataCenter Dynamics. Сделка стала ещё одной в череде европейских проектов Digital Realty в Париже, Мадриде, Амстердаме и др.

 Источник изображения: Vertiv

Источник изображения: Vertiv

В Digital Realty подчеркнули, что Рим становится важнейшим шлюзом для цифровой инфраструктуры между Европой и Средиземноморским регионом. Передовые технологии для ROM1 помогут стать дата-центру стратегическим ИИ-хабом, задающим новые стандарты энергоэффективности и производительности в сфере HPC. Также Vertiv работает с Nextra в Африке и намерена сотрудничать с Ezditek для создания ЦОД в Саудовской Аравии.

Ранее сообщалось, что нежелание NVIDIA сертифицировать иммерсионные СЖО во многом тормозит их развитие. Прямое жидкостное охлаждение (DLC) менее эффективно, чем иммерсионные системы, но NVIDIA всё ещё считает, что пока достаточно этого. Впрочем, эксперты прогнозируют, что настоящий расцвет технологии придётся на 2027–2028 гг. Ожидается, что она будут активно распространяться после выхода ускорителей NVIDIA Rubin Ultra.

Постоянный URL: http://servernews.ru/1132461
Система Orphus