Материалы по тегу:

18.11.2025 [13:36], Сергей Карасёв

ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлаждения

Компания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL.

 Источник изображений: Giga Computing

Источник изображений: Giga Computing

Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена.

Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub.

За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей.

Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.

Постоянный URL: http://servernews.ru/1132550
18.11.2025 [12:43], Руслан Авдеев

Crusoe завершила строительство последнего здания первого кампуса Stargate

Завершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением.

Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт.

В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.

Постоянный URL: http://servernews.ru/1132540
18.11.2025 [10:54], Сергей Карасёв

Начался монтаж крупнейшего в США академического суперкомпьютера Horizon с ИИ-быстродействием до 80 Эфлопс

Национальный научный фонд США (NSF) объявил о начале монтажа вычислительно комплекса Horizon — крупнейшего в стране академического суперкомпьютера. Система расположится в Техасском центре передовых вычислений (TACC) при Техасском университете в Остине (UT Austin).

Проект реализуется в сотрудничестве с Dell, NVIDIA, VAST Data, Spectra Logic, Versity и Sabey Data Centers. Суперкомпьютер будет развёрнут в новом дата-центре мощностью 15–20 МВт с передовым жидкостным охлаждением в Раунд-Роке (штат Техас).

В основу системы лягут серверы Dell PowerEdge. Говорится об использовании процессоров NVIDIA Vera и суперчипов NVIDIA Grace Blackwell. В общей сложности будут задействованы около 1 млн CPU-ядер и примерно 4 тыс. GPU. Архитектура предусматривает использование интерконнекта NVIDIA Quantum-2 InfiniBand. Вместимость локального хранилища данных, выполненного исключительно на основе SSD, составит 400 Пбайт. Оно обеспечит пропускную способность при чтении/записи более 10 Тбайт/с.

 Источник изображения: TACC

Источник изображения: TACC

Заявленная производительность Horizon — 300 Пфлопс: это примерно в 10 раз больше по сравнению с системой Frontera, которая в настоящее время является самым мощным академическим суперкомпьютером в США. При выполнении ИИ-задач новый вычислительный комплекс обеспечит быстродействие до 20 Эфлопс на операциях BF16/FP16 и до 80 Эфлопс в режиме FP4 — более чем 100-кратный прирост по сравнению с нынешними машинами, которые эксплуатируются в американских академических кругах. При этом говорится о повышении энергетической эффективности до шести раз.

Запуск Horizon запланирован на весну 2026 года. Суперкомпьютер будет использоваться для решения сложных и ресурсоёмких задач в таких областях, как биомедицина, физика, энергетика, экология и пр. В частности, система будет применяться для моделирования климата.

Постоянный URL: http://servernews.ru/1132532
18.11.2025 [01:10], Игорь Осколков

Европа присоединилась к экзафлопсному клубу с суперкомпьютером JUPITER

Европейский суперкомпьютер JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) в Юлихском исследовательском центре (FZJ) в Германии официально преодолел важную отметку — FP64-производительность его GPU-модуля Booster достигла ровно 1 Эфлопс при пиковой теоретической 1,227 Эфлопс. Таким образом в нынешнем рейтинге TOP500 он занял четвёртое место, совсем чуть-чуть не дотянув до суперкомпьютера Aurora с его 1,012 Эфлопс.

Впервые машина попала в июньский рейтинг TOP500 с показателем 793 Пфлопс, но тогда она не была полностью готова. Официальный запуск состоялся лишь в сентябре. Впрочем, за прошедшие с момента выхода прошлого рейтинга его лидер El Capitan тоже нарастил мощность, с 1,742 Эфлопс до 1,809 Эфлопс. Frontier же остался на втором месте с показателем 1,353 Эфлопс, хотя изначально он «дотягивался» только до 1,102 Эфлопс. Таким образом, JUPITER формально стал первой публичной экзафлопсной системой за пределами США, если не брать в расчёт китайские системы, о которых КНР предпочитает не распространяться. Мощные суперкомпьютеры, не участвующие в TOP500, бывали и раньше, но вот есть ли среди них машина такого класса, остаётся только гадать.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Так что если через полгода не будет развёрнут ещё какой-нибудь крупный суперкомпьютер, что вполне реально с нынешними возможностями (нео-)облаков, то JUPITER наверняка поднимется в рейтинге на строчку выше. Сейчас Booster включает порядка 6 тыс. узлов BullSequana XH3000 с 24 тыс. ускорителей GH200 в Quad-исполнении, объединённых 200G-интерконнектом InfiniBand NDR. Ещё приблизительно 5 Флопс в FP64 JUPITER получит от CPU-модуля cCuster из 1300 узлов с 2600 Arm-процессорам SiPearl Rhea1 с 80 ядрами и 64 Гбайт HBM2e. Узлы и интерконнект будут использоваться те же, что в Booster. Однако выпуск этих процессоров только-только начался, так что апгрейд будет завершён только в следующем году. TOP500 в целом в этот раз новизной технологий не блещет, отражая скорее типичный цикл обновления систем.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Всего в ноябрьском рейтинге появилось 45 новых машин. Самая крупная из них — 135,4-Пфлопс CHIE-4, построенная для SoftBank на базе NVIDIA DGX B200 с InfiniBand NDR400 — занимает аж 17 позицию. Она же единственная пополнила первую десятку рейтинга HPCG с результатом 3760,55 Тфлопс, где заняла шестую позицию. Из необычных новинок можно выделить суперкомпьютер MAXIMUS-384 на 20 месте (114,5 Пфлопс), который объединил Intel Xeon Emerald Rapids и AMD Instinct MI300X. Впрочем, вторая во всём списке и уже не такая новая система с MI300X — IronMan — объединяет их с Sapphire Rapids.

 Источник изображения: TOP500

Источник изображения: TOP500

От России в TOP500 попали пять суперкомпьютеров (три от Яндекса и два от Сбера), которые если и обновляли с момента последнего официальной заявки на вхождение в рейтинг, то вряд ли бы стали громко и публично об этом рассказывать. Зато у соседнего Казахстана есть сразу две машины. На 86 позиции с производительностью 20,48 Пфлпос находится Alem.Cloud, на 103 — AI-Farabium с 17,93 Пфлопс. Обе системы используют сочетание Xeon Emerald Rapids, NVIDIA H200 (SXM) и 400G-интерконнект, но первая получила Ethernet, а вторая — InfiniBand NDR.

В Green500 существенных изменений тоже не наблюдается. Ровно половину первой десятки занимают машины с NVIDIA GH200. В общей массе чипы NVIDIA тоже доминируют. При этом первая система без ускорителя занимает аж 105 строчку, и до 113 позиции это сплошь Fujitsu A64FX, лежащие в основе Fugaku. Всего TOP500 уже более половины машин оснащены ускорителями. Но от ожидаемого ранее уровня роста производительности весь рейтинг отстаёт на протяжении уже пяти лет. С другой стороны, и фокус сейчас сместился на ИИ, а новым кластерам некогда участвовать в ненужных для них рейтингах.

Постоянный URL: http://servernews.ru/1132529
17.11.2025 [19:31], Руслан Авдеев

«Ростелеком» пробурил под Камой уникальный кабельный переход для трансроссийской интернет-магистрали TEA NEXT

Завершился очередной этап строительства ТрансЕврАзийской волоконно-оптической линии связи (ВОЛС TEA NEXT). «Ростелеком» закончил кабельный переход протяжённостью более 3 км под рекой Камой. Для прокладки применяли метод горизонтального направленного бурения. Ранее компания уже построила кабельные переходы на всём протяжении TEA NEXT — через Волгу, Вятку, Енисей, Обь и Томь и др. реки со сложными скальными грунтами. При этом переход через Каму на Урале считается уникальным — самый сложный участок протяжённостью более 1,3 км проходил под речным фарватером.

Переход удалось выполнить с пятого раза — только на основные работы ушло десять месяцев, не считая времени на подготовку. В компании подчёркивают, что работы выполнялись с учётом экологических требований и требований ФБУ «Администрация Камского бассейна внутренних водных путей» к размещению навигационных знаков. Кроме того, в прибрежной защитной полосе и в русле реки «Ростелекомом» проведены комплексные работы по восполнению и сохранению биоресурсов и естественной для них среды. Например, в Воткинское водохранилище отправились 60 тыс. мальков стерляди.

 Источник изображения: «Ростелеком»

Источник изображения: «Ростелеком»

Компания «Атлас», выступающая заказчиком TEA NEXT и созданная «Ростелекомом» специально для выполнения этого проекта, отмечает, что завершение прокладки перехода через Каму стало ключевой вехой в проекте TEA NEXT, а само строительство ведётся в запланированные сроки с соблюдением экологических стандартов.

 Источник изображения: «Ростелеком»

Источник изображения: «Ростелеком»

TEA NEXT соединит запад и восток России, охватив по пути крупные города стран, получив выходы на границы России с Монголией и Китаем, а также посадочную станцию в Приморском крае, от которой можно проложить кабель до Южной Кореи. Стройка идёт в 27 регионах. На маршруте сформируют пункты обмена трафиком в Москве, Санкт-Петербурге, Екатеринбурге и Новосибирске. Всего реализация проекта должна обойтись в 28,1 млрд руб.

Проектная ёмкость ВОЛС составляет 96 тёмных волокон, их намерены использовать в качестве транзитного ресурса для связи с отечественными операторами стран Европы и Азии. Утверждается, что проект имеет особое значение для связи Азии с Европой, поскольку является надёжной альтернативой подводным кабелям, проложенным в Индийском океане и вблизи Египта. При строительстве впервые использованы волокна категории G.654Е, позволяющие организовать каналы передачи данных по 19,2 Тбит/с на пару волокон. Также возможно использование DWDM.

Постоянный URL: http://servernews.ru/1132502
17.11.2025 [16:09], Руслан Авдеев

Программный «ускоритель» Huawei обещает практически удвоить производительность дефицитных ИИ-чипов

Китайский техногигант Huawei Technologies инфраструктурное ПО для повышения эффективности использования ИИ-ускорителей, сообщает гонконгская SCMP со ссылкой на государственные СМИ КНР. По имеющимся данным, технология позволит поднять эффективность использования ИИ-чипов, включая GPU и NPU, до 70 % по сравнению с нынешними 30–40 %. Это будет ещё одним крупным достижением в области «компенсации отставания в аппаратном обеспечении за счет совершенствования программного».

Новая технология, премьера которой должна состояться на одной из посвящённых ИИ-тематике конференций, позволит «унифицированно управлять» не только ускорителями самой Huawei, но и NVIDIA, а также моделями прочих разработчиков. В самой Huawei от комментариев пока воздержались. Это особенно актуально в свете недоступности актуальных ускорителей NVIDIA, из-за чего китайские компании скупают чипы прошлых поколений. Важность оптимизации использования имеющихся ресурсов наглядна показала «революция DeepSeek».

 Источник изображения: Yiran Ding/unsplash.com

Источник изображения: Yiran Ding/unsplash.com

Если информация подтвердится, технология может значительно улучшить продажи ИИ-чипов семейства Huawei Ascend в Китае (возможно, и за его пределами). Это может снизить зависимость КНР от чипов NVIDIA и других американских разработчиков.

Утверждается, что новая технология Huawei будет аналогична продукту, разрабатывавшемуся израильским стартапом Run:ai и купленному NVIDIA в 2024 году за $700 млн. Его ПО позволяет организовать оркестрацию крупномасштабных ИИ-нагрузок между массивами ИИ-ускорителей. При этом и сама NVIDIA постоянно оптимизирует собственное ПО, повышая производительность исполнения рабочих нагрузок ИИ.

Новость может стать хорошим дополнением к сентябрьскому анонсу. Тогда компания поделилась планами выпуска ИИ-ускорителей Ascend следующего поколения. Готовящиеся изделия призваны составить конкуренцию передовым чипов NVIDIA и подготовке мощных ИИ-систем SuperPOD, объединяющих 8192 и 15 488 ускорителей Ascend. На основе таких платформ будут формироваться суперкластеры, насчитывающие до 500 тыс. и более экземпляров Ascend.

Постоянный URL: http://servernews.ru/1132495
17.11.2025 [15:46], Руслан Авдеев

Перегрузка энергосетей угрожает лидерству Нидерландов в сфере ЦОД — доступный водород продолжают игнорировать

В недавнем отчёте ING, одного из крупнейших банков Нидерландов, рисуется всё более мрачная картина местного рынка дата-центров. Амстердам, традиционно входящий в пятёрку крупнейших европейских рынков ЦОД наряду с Франкфуртом, Лондоном, Парижем и Дублином (FLAPD), столкнулся с серьёзными ограничениями роста, сообщает Computer Weekly. В мировом масштабе Амстердам и Франкфурт уже выбыли из первой двадцатки локаций гиперскейлеров.

Недавно городской совет объявил, что заявки на создание новых ЦОД начнут рассматриваться только с 2035 года из-за перегрузки энергосети. IMG, ссылаясь на данные Gartner, сообщает о строительстве в настоящее время новых ЦОД приблизительно на 200 МВт, но вот добавить ещё 200 МВт будет невероятно трудно. Подчёркивается, что речь идёт не просто о судьбе проектов в самом Амстердаме — если в Нидерландах не будет возможностей для дальнейшего роста, страна потеряет знания и опыт, а с ними и экономический рост в будущем. Сегодня сектор обеспечивает 150–250 тыс. рабочих мест в сфере цифровой инфраструктуры и вносит порядка €26 млрд в годовой оборот страны.

Строительству новых ЦОД мешают перегрузка сетей из-за не слишком удачного планирования развития возобновляемой энергетики, нехватка свободных участков и рост обеспокоенности общественности вопросами нехватки энергии. Сейчас на ЦОД в Нидерландах приходится 3,3 % от общего энергопотребления в стране, но с развитием генеративного ИИ показатель может существенно вырасти. В ING допускают, что IT-нагрузки из Нидерландов в итоге переедут за границу, в частности, в Скандинавию, где энергии для охлаждения требуется намного меньше. Вместе с этим сократится и рынок инженеров и прочих специалистов.

 Источник изображения: Thomas Bormans/unsplash.com

Источник изображения: Thomas Bormans/unsplash.com

Тем временем в мире активно развивают технологии водородных топливных элементов для дата-центров, особенно в этом преуспела Microsoft, а также некоторые другие компании. В 2023 году последняя вместе с Plug Power протестировала водородную энергосистему на 3 МВт. Отмечалось, что проект очень интересен — такую мощность до этого обеспечивали резервные дизель-генераторы. Plug Power уже заключила соглашения с «тремя крупными операторами ЦОД». В 2025 году Microsoft и Equinix запустили пилотные проекты по использованию «зелёного» водорода для питания ЦОД. В США успешным пилотным проектом использования водорода стал проект ECL и Lambda.

На этом фоне в Нидерландах сложилась парадоксальная ситуация. Согласно докладу Международного энергетического агентства (IEA) Northwest European Hydrogen Monitor 2024, страна является одним из европейских лидеров в развитии водородной инфраструктуры, причём в проектах участвует и государство, вложившей немало средств в производство и транспортировку водорода по сети трубопроводов. Однако технология находит минимальное применение в секторе ЦОД, за рамки пилотного вышел лишь один проект.

 Источник изображения: Bart Ros/unsplash.com

Источник изображения: Bart Ros/unsplash.com

В 2022 году NorthC Datacenters установила на объекте в Гронингене (Groningen) резервную систему питания на водороде мощностью 500 кВт, ежедневно он сокращает выбросы CO2 приблизительно на 78 т. Ни один ЦОД в Нидерландах не последовал этому примеру. В Ассоциации дата-центров Нидерландов убеждены, что в первую очередь «водородным» электричеством необходимо обеспечить тяжёлую промышленность, на которую приходится больше всего выбросов CO2 в Нидерландах.

Нежелание многих структур использовать водородные системы как альтернативу обычному топливу легко объяснить, поскольку традиционная инфраструктура и дешевле, и доступнее. Производство «зелёного» водорода требует больших затрат возобновляемой энергии. Кроме того, водородные топливные элементы дороже традиционных «дизелей», но с ростом цен на ископаемое топливо и дальнейшим развитием водородного сектора в регионах вроде Гронингена ожидается падение цен. Вместе с тем водородные топливные элементы работают 20 и более лет, значительно дольше, чем дизельные генераторы.

 Источник изображения: Jon Moore/unsplash.com

Источник изображения: Jon Moore/unsplash.com

В феврале 2025 года нидерландский оператор газовой сети Gasunie объявил, что расходы на проект национального водородного трубопровода выросли на 150 % с €1,5 млрд до €3,8 млрд. В IEA подчёркивают, что пока менее 4 % заявленных проектов производства «зелёного» водорода в Северо-Западной Европе достигли стадии «финального инвестиционного решения». Тем не менее, Нидерланды, Германия, Дания и Великобритания к 2030 году будут производить ¾ «зелёного» водорода в регионе.

ING предлагает стратегические решения для развития дата-центров, в т.ч. размещение ЦОД неподалёку от морских ветряных электростанций, использование тепла ЦОД в системах центрального отопления и др. «Зелёный» водород можно производить в случае, если поставки возобновляемой энергии превышают спрос, и хранить его для дальнейшего применения, решая проблемы нестабильности возобновляемой энергетики. Отмечается, что власти Нидерландов намерены к 2032 году добиться получения 21 ГВт от морской ветряной энергетики.

Впрочем, пока конвергенция стратегических секторов — ЦОД и водородной энергетики — в Нидерландах остаётся в значительной степени теоретической. ING призывают усилить координацию действий на национальном и европейском уровнях. Вопрос о готовности страны инвестировать в водородную инфраструктуру для ЦОД остаётся открытым, но, похоже, окно возможностей уменьшается, поскольку мощности ЦОД и водородную энергетику развивают и другие европейские рынки.

Постоянный URL: http://servernews.ru/1132489
17.11.2025 [13:08], Сергей Карасёв

Veir испытала сверхпроводящие кабели для ЦОД — до 3 МВт на впятеро большее расстояние, чем у обычных

Американская компания Veir объявила об успешном испытании своей технологии STAR (Superconducting Technology for AI Racks), которая предполагает использование сверхпроводящих силовых кабелей для питания оборудования в ИИ ЦОД.

Разработанное решение предусматривает замену традиционных кабелей на трубки аналогичного размера, в которых находятся сверхпроводящие ленты в жидком азоте с температурой −196 °C. Утверждается, что благодаря такому подходу передаваемая мощность может быть повышена на порядок при том же напряжении. В январе нынешнего года Veir получила $75 млн на развитие технологии: средства предоставили Munich Re Ventures, Microsoft Climate Innovation Fund, Tyche Partners, Piva Capital, National Grid Partners, Dara Holdings и SiteGround.

Тестирование системы STAR осуществлялось в моделируемой и масштабируемой среде ЦОД недалеко от штаб-квартиры Veir в Уоберне (Woburn) в Массачусетсе (США). Утверждается, что технология позволяет передавать до 3 МВт энергии по одному низковольтному кабелю. При этом протяжённость таких линий может в пять раз превосходить длину традиционных кабельных подключений. Система рассчитана на работу при напряжении до 800 В.

 Источник изображения: Veir

Источник изображения: Veir

По оценкам Международного энергетического агентства (IEA), в течение следующих пяти лет потребление электроэнергии в дата-центрах по всему миру вырастет более чем в два раза, достигнув 945 ТВт·ч к концу десятилетия. При этом мощность серверных стоек для ИИ, как ожидается, будет составлять до 500 кВт. Традиционная электротехническая инфраструктура, как заявляет Veir, не способна удовлетворить такие потребности, в связи с чем понадобится внедрение принципиально новых решений.

Система STAR позволяет повысить гибкость развёртывания ЦОД благодаря высокой плотности мощности в расчёте на один кабель и увеличению охвата, говорит компания. При этом сокращается площадь, занимаемая компонентами подсистем питания, а также уменьшаются сроки ввода объектов в эксплуатацию. Начать коммерциализацию технологии компания Veir намерена в следующем году.

Постоянный URL: http://servernews.ru/1132481
17.11.2025 [12:18], Сергей Карасёв

Silicon Motion представила контроллер SM8388 для QLC SSD с интерфейсом PCIe 5.0

Компания Silicon Motion Technology анонсировала контроллер SM8388, предназначенный для построений корпоративных SSD большой ёмкости на основе флеш-чипов памяти QLC. Утверждается, что новинка позволяет создавать сравнительно недорогие твердотельные накопители Nearline-класса.

Изделие полностью соответствует спецификации NVMe 2.6; поддерживается интерфейс PCIe 5.0. Контроллер имеет восьмиканальную архитектуру со скоростью передачи данных до 3200 MT/s. Заявленная скорость последовательного чтения информации достигает 14,4 Гбайт/с. Производительность IOPS при произвольном чтении — до 3,5 млн.

SSD на базе SM8388 могут иметь вместимость до 128 Тбайт. Контроллер подходит для применения в накопителях различных форм-факторов, включая EDSFF (E1.S/E3.S) и U.2/U.3. Говорится о развитых средствах обеспечения безопасности, включая поддержку TCG Opal, шифрования AES-256, безопасной загрузки и аппаратной технологии Root of Trust (RoT). Заявленное типовое энергопотребление находится в пределах 5 Вт.

 Источник изображения: Silicon Motion

Источник изображения: Silicon Motion

Отмечается, что SM8388 является дальнейшим расширением платформы разработки SSD под названием MonTitan, которая дебютировала вместе с высокопроизводительным 16-канальным контроллером SM8366 для накопителей с поддержкой PCIe 5.0 x4, NVMe 2.0a и OCP 2.0. Это решение применяется в составе SSD различных производителей, включая Unigen и Innodisk.

Новый контроллер — Silicon Motion SM8388 — ориентирован на устройства хранения данных для облачных платформ и кластеров ИИ. О намерении использовать такие SSD в своих серверных системах уже сообщила AIC.

Постоянный URL: http://servernews.ru/1132485
17.11.2025 [12:14], Сергей Карасёв

Nokia представила коммутаторы с пропускной способностью до 102,4 Тбит/с

Компания Nokia анонсировала высокопроизводительные коммутаторы семейства 7220 IXR-H6 для дата-центров, ориентированных на ресурсоёмкие нагрузки ИИ. Новинки соответствуют спецификациям Ultra Ethernet Consortium (UEC), поддерживая расширенные функции для оптимизации и управления потоками данных, предотвращения перегрузок и повышения эффективности в крупномасштабных средах.

Коммутаторы обеспечивают пропускную способность до 102,4 Тбит/с благодаря интерфейсам 800GbE и 1.6TbE, что вдвое больше по сравнению с решениями предыдущего поколения. В серию 7220 IXR-H6 вошли две модели с 64 портами (1.6TbE), оборудованные воздушным и жидкостным охлаждением. В первом случае допускается горячая замена блоков вентиляторов. Кроме того, дебютировала модификация со 128 портами (800GbE). О типе применённого чипсета пока ничего не сообщается.

 Источник изображения: Nokia

Источник изображения: Nokia

Устройства комплектуются блоками питания с резервированием и возможностью горячей замены. Предусмотрены сетевой порт управления RJ45, разъём USB 3.0 и консольный порт. Коммутаторы могут поставляться с сетевой операционной системой SR Linux NOS или SONiC (Software for Open Networking in the Cloud).

По заявлениям Nokia, решения семейства 7220 IXR-H6 могут применяться в составе платформ облачных провайдеров и гиперскейлеров, а также в ИИ-кластерах, насчитывающих более 1 млн ускорителей разных типов (XPU). Говорится о совместимости с серверными стойками различных конфигураций. В продажу коммутаторы поступят в I квартале следующего года.

Постоянный URL: http://servernews.ru/1132483
Система Orphus