Материалы по тегу: сервер

30.10.2025 [12:20], Сергей Карасёв

ASUS представила ИИ-сервер XA NB3I-E12 на базе NVIDIA HGX B300

Компания ASUS анонсировала сервер XA NB3I-E12 на аппаратной платформе NVIDIA HGX B300, предназначенный для интенсивных нагрузок ИИ. В качестве потенциальных заказчиков системы названы предприятия, которые работают с большими языковыми моделями (LLM) и НРС-приложениями: это могут быть научно-исследовательские структуры и финансовые организации, компании автомобильного сектора и пр.

Сервер выполнен в форм-факторе 9U. Возможна установка двух процессоров Intel Xeon 6700P поколения Granite Rapids с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM / 3DS RDIMM. Во фронтальной части расположены 10 посадочных мест на SFF-накопителей (NVMe). Предусмотрены четыре слота расширения PCIe 5.0 х16 и один слот PCIe 5.0 х8.

Система имеет архитектуру 8-GPU (NVIDIA HGX B300 288GB 8-GPU). Задействованы сетевые адаптеры NVIDIA ConnectX-8 и DPU NVIDIA BlueField-3. Реализованы два сетевых порта 10GbE с разъёмами RJ45 на основе контроллера Intel X710-AT2 и выделенный сетевой порт управления (RJ45). Питание обеспечивают 10 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Применяется воздушное охлаждение; диапазон рабочих температур — от +10 до +35 °C.

 Источник изображения: ASUS

Источник изображения: ASUS

ASUS отмечает, что сервер имеет модульную конструкцию, благодаря чему минимизируется использование кабелей, упрощается обслуживание и повышается ремонтопригодность. Габариты устройства составляют 945 × 447 × 394,5 мм, масса — примерно 120 кг без установленных накопителей.

Постоянный URL: http://servernews.ru/1131613
29.10.2025 [23:10], Владимир Мироненко

Fplus расширила возможности управление серверами в BIOS v1.0.5

Fplus объявила о выходе BIOS v1.0.5, которое обеспечивает больше возможностей для управления серверами, в том числе для контроля производительности, энергоэффективности и отказоустойчивости.

 Источник изображений: Fplus

Источник изображений: Fplus

В частности, в новой версии добавлена функция настройки состояний процессора: P-state, C-state, PM-state и T-state, что помогает снизить энергопотребление в периоды низкой нагрузки без ущерба для пиковой производительности. Кроме того, добавлена функция управления состоянием сервера после сбоя электропитания — сервер может автоматически возвращаться в рабочее состояние сразу после возобновления питания.

В обновлении также добавилось несколько функций для управления памятью. Появление возможности ручной настройки частоты оперативной памяти повышает стабильность работы платформы, говорит производитель. Кроме того, была добавлена поддержка технологий SDDC (исправление ошибок в пределах одной микросхемы) и ADDDC (исправление ошибок в двух устройствах памяти одновременно). Для критически важных систем, где недопустима потеря информации, предусмотрен режим полного зеркалирования памяти, при котором доступный объём RAM уменьшается вдвое, зато повышается сохранность данных в памяти.

В предыдущем релизе Fplus BIOS v1.0.3 была добавлена поддержка Intel VT-d, фильтрация источников загрузки и фильтрация USB-устройств, а также переработаны Boot Manager и механизм предоставления в интерфейсе BIOS подробной информаций об установленных устройствах. Отметим, что все эти функции по умолчанию доступны в BIOS большинства зарубежных серверных платформ. Ранее Fplus объявила о разработке собственных BIOS и BMC.

Постоянный URL: http://servernews.ru/1131585
29.10.2025 [13:31], Руслан Авдеев

NVIDIA вложит в Nokia $1 млрд, чтобы ускорить интеграцию ИИ в сети 5G/6G

28 октября торги акциями Nokia закрылись с ростом на 21 % после того, как NVIDIA объявила о намерении приобрести пакет ценных бумаг компании за $1 млрд. Такой цены акции в последний раз достигали в январе 2016 года. Это лишь часть партнёрства, которое позволит компаниям совместно готовить новые продукты для сетей 5G и 6G, сообщает Silicon Angle.

Nokia входит в число крупнейших поставщиков базовых станций 5G и ПО для оптимизации сетевой инфраструктуры операторами связи. Также программное обеспечение применяется для управления данными абонентов и выполнения вспомогательных задач. По этим продуктам выручка Nokia за последний финансовый квартал составила €4,82 млрд.

Ключевым в партнёрстве с NVIDIA является продукт Arc Aerial RAN Computer Pro (ARC-Pro). По сути, это референсный дизайн, который может использоваться производителями серверов при создании вычислительных модулей для телеком-провайдеров. Устройства получат прочные корпуса и смогут работать даже в неблагоприятных температурных условиях, с т.ч. на морозе.

Каждая система ARC-Pro включает ускоритель Blackwell RTX PRO «уровня рабочей станции» на той же архитектуре, что и флагманские ускорители NVIDIA для дата-центров, 72-ядерный CPU Grace и сетевые интерфейсы ConnectX-8 (100/200GbE, 24 порта). Телеком-провайдеры могут использовать ARC-Pro с базовыми станциями, в т.ч. для обеспечения выполнения ИИ-задач. Например, оператор может внедрить нейросеть, способную автоматически оптимизировать энергопотребление станций стандарта 5G.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

В NVIDIA утверждают, что ARC-Pro поможет операторам и подготовить сети к переходу на 6G, упростить внедрение функций вроде Ultra MIMO. Последняя пока находится в стадии разработки и увеличит объём трафика, обрабатываемого базовыми станциями за счёт установки вспомогательных антенн. Кроме того, в семейство ARC входят ARC-Compact (NVIDIA L4 + ConnectX-7) и ARC-1 (GB200 NVL2 + BlueField-3/ConnectX).

Nokia намерена интегрировать ARC-Pro в своё портфолио сетевого оборудования. Также компания намерена упростить использование приложений 5G и 6G с помощью экосистемы CUDA. По словам Nokia, новый качественный скачок на рынке телекоммуникаций — не просто переход от 5G к 6G, а фундаментальная перестройка сети на базе ИИ-решений всех уровней, от ЦОД до периферийных приложений. Партнёрство с NVIDIA ускорят внедрение концепции AI-RAN.

Тестирование новых решений AI-RAN будут проводить при поддержке T-Mobile US. Ожидается, что оператор начнёт испытания в 2026 году в рамках подготовки инфраструктуры к 6G. Изначально испытания будут направлены на оценку производительности и эффективности технологии.

Как сообщает Reuters, глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что сделка поможет США стать центром новой революции в сфере внедрения связи шестого поколения. Он рассчитывает, что коммерческое внедрение нового ИИ-оборудования начнётся в 2027 году, сначала для 5G, потом для 6G. Переговоры Nokia и NVIDIA велись с прошлого года. Инвестиции сделают NVIDIA вторым по величине акционером Nokia. Последняя выпустит для NVIDIA более 166 млн дополнительных акций, каждая из которых будет стоить $6,01.

Постоянный URL: http://servernews.ru/1131550
28.10.2025 [08:43], Сергей Карасёв

Dell разработала модульные OCP-стойки мощностью 480 кВт для ИИ-систем

Компания Dell в ходе мероприятия 2025 OCP Global Summit рассказала о разработке передовых систем для ресурсоёмких нагрузок ИИ и HPC. Речь идёт, в частности, о полностью модульных архитектурах на базе открытых спецификаций, оптимизированных для жидкостного охлаждения.

Ихаб Тарази (Ihab Tarazi), главный технический директор и старший вице-президент Dell Technologies, сообщил, что компания установила сотни тысяч GPU-ускорителей в кластерах, использующих оборудование на основе стандарта OCP ORv3. Благодаря достижениям в области водоблоков, термоинтерфейсов, блоков распределения охлаждающей жидкости (CDU) и быстроразъёмных коллекторов упрощается развёртывание масштабных ИИ-платформ, насчитывающих десятки тысяч GPU.

 Источник изображений: Dell

Источник изображений: Dell

Кроме того, Dell совместно с Национальной лабораторией имени Лоуренса в Беркли (LBNL) при Министерстве энергетики США (DoE) разработала модульную OCP-стойку мощностью 480 кВт с возможностью дальнейшего масштабирования до 1 МВт. Решение, ориентированное на экстремальные нагрузки ИИ, допускает установку высокопроизводительных серверов, насчитывающих в общей сложности до 27 тыс. CPU-ядер и до 144 ускорителей NVIDIA GB200.

В перспективе также могут использоваться чипы AMD и NVIDIA следующего поколения, такие как Instinct MI450 и Vera Rubin. По словам Тарази, аналогичная архитектура стоек применяется в рамках суперкомпьютерной программы Техасского университета в Остине (UT Austin) и при развёртывании суверенных облаков.

В целом, модульный подход обеспечивает возможность независимой модернизации вычислительных ресурсов, хранилищ и сетевых компонентов, сокращая время обновления инфраструктуры с нескольких лет до нескольких недель. Инновации в сфере СЖО повышают надёжность и удобство обслуживания платформ в рамках масштабных ИИ-кластеров.

Постоянный URL: http://servernews.ru/1131435
26.10.2025 [14:20], Сергей Карасёв

d-Matrix представила систему SquadRack для ИИ-инференса со сверхнизкой задержкой

Компания d-Matrix анонсировала систему SquadRack — стоечное решение для пакетного инференса со сверхнизкой задержкой. Это, как утверждается, первый в отрасли продукт данного класса. В его разработке приняли участие специалисты Arista, Broadcom и Supermicro.

В основу SquadRack положена серверная платформа Supermicro X14 AI. Судя по изображениям, используется модель SYS-522GA-NRT, которая допускает установку двух процессоров Intel Xeon 6900 (Granite Rapids) и 24 модулей оперативной памяти DDR5-8800. Доступны 24 фронтальных отсека для SFF-накопителей U.2/U.3 (NVMe). Устройство выполнено в форм-факторе 5U.

Система SquadRack предусматривает использование ускорителей d-Matrix Corsair. Их архитектура основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, решение обеспечивает непревзойдённую производительность ИИ-инференса: быстродействие достигает 2,4 Пфлопс (8-бит вычисления). Кроме того, задействованы IO-карты d-Matrix JetStream, предназначенные для распределения нагрузок инференса. Одна такая карта может обслуживать до четырёх экземпляров Corsair, обеспечивая сетевую задержку на уровне 2 мкс.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Решение SquadRack также оборудовано PCIe-коммутаторами Broadcom для масштабирования в пределах одного узла. В свою очередь, связь между узлами обеспечивают коммутаторы Arista Leaf Ethernet, подключённые к картам JetStream. Применяется программный стек d-Matrix Aviator.

В одну стойку могут быть установлены до восьми экземпляров SquadRack, что позволяет с высокой скоростью обрабатывать модели ИИ, насчитывающие до 100 млрд параметров. В целом, возможно масштабирование до сотен узлов в нескольких серверных стойках.

Постоянный URL: http://servernews.ru/1131408
25.10.2025 [22:49], Сергей Карасёв

Микрооблако с микро-EPYC: Supermicro представила 20-узловой сервер на базе процессоров AMD Grado

Компания Supermicro анонсировала сервер 6U20N MicroBlade (MBA-315R-1G x20), построенный на аппаратной платформе AMD. Система может применяться для решения таких задач, как облачные вычисления, ИИ-инференс, веб-хостинг, потоковая передача видео и пр.

 Источник изображений: Supermicro

Источник изображений: Supermicro

Устройство, выполненное в форм-факторе 6U, имеет 20-узловую конфигурацию. Каждый узел может нести на борту один процессор EPYC 4005 Grado с 16 вычислительными ядрами (32 потока) и показателем TDP до 170 Вт. Применяется воздушное охлаждение. Доступны четыре слота для модулей оперативной памяти DDR5-5600 суммарным объёмом до 192 Гбайт.

Каждый узел оснащён двумя сетевыми интерфейсами 25GbE на базе Mellanox ConnectX-4, контроллером Aspeed AST2500 BMC и двумя коннекторами M.2 для SSD (NVMe). Опционально могут устанавливаться два накопителя U.2 (NVMe). Кроме того, возможен монтаж GPU-ускорителя формата FHHL с интерфейсом PCIe 5.0.

Сервер 6U20N MicroBlade может нести на борту два Ethernet-коммутатора и два модуля управления. Питание обеспечивают восемь блоков мощностью 2200/3000 Вт с сертификатом 80 Plus Titanium. Диапазон рабочих температур простирается от +10 до +35 °C. В одну серверную стойку стандарта 48U могут быть установлены до восьми таких систем, что в сумме даст 160 вычислительных узлов.

В целом, как отмечается, серверы MicroBlade на процессорах EPYC 4005 построены на основе уникальной модульной архитектуры Supermicro, которая обеспечивает сокращение количества кабелей до 95 %, экономию пространства до 70 % и снижение энергопотребления на 30 % по сравнению с традиционными серверами типоразмера 1U.

Постоянный URL: http://servernews.ru/1131380
21.10.2025 [16:14], Руслан Авдеев

К 2030 году 21″ OCP-стойки станут доминирующим стандартом в ЦОД

Дата-центры намерены стандартизировать использование более крупных 21″ стоек вместо обычных 19″ к 2030 году. По данным Omdia, гиперскейлеры и производители серверов полностью поддерживают такой переход, а корпоративные ЦОД всё ещё будут придерживаться старого типоразмера, сообщает The Register.

По некоторым данным, 19″ стойки (EIA-310) ведут свою «родословную» от релейных шкафов на железных дорогах — там подобный стандарт появился ещё до того, как его приняли телефонные компании, а позже и IT-индустрия. Meta (Facebook) ещё в 2012 году столкнулась с ограничениями старого формата и основала OCP для того, чтобы организовать разработку и принятие более эффективных индустриальных стандартов.

По прогнозам аналитиков, на более крупный формат, продвигаемый OCP, к концу десятилетия придётся более 70 % поставок, поскольку он активно внедряется крупными вендорами вроде Dell и HPE — одними из лидеров в гонке по выпуску ИИ-оборудования. По данным Omdia, на сегодня все крупнейшие сервис-провайдеры, включая Microsoft, Amazon, Meta, Google, ByteDance, Huawei и Oracle уже перешли на использование 21″ стоек в своих ЦОД. Так, Huawei ещё в 2019 году объявила, что её дата-центры будут опираться на 21″ стандарт.

 Источник изображения: ***

Источник изображения: Meta

Преимуществами более крупных стоек является лучшая циркуляция воздуха и возможность устанавливать более крупные массивы вентиляторов, что улучшает охлаждение. Кроме того, такие стойки допускают установку более крупных модулей питания и трубок СЖО, что важно для ИИ-серверов. При этом сохраняется совместимость с 19″ решениями. В Omdia ожидают, что полностью укомплектованные стойки вроде NVIDIA DGX GB200 NVL72 станут фактическим стандартом.

 Источник изображения: Omdia

Источник изображения: Omdia

Кроме того, Dell и HPE продвигают предложенную OCP модульную серверную архитектуру Data Center Modular Hardware System (DC-MHS), которая позволяет по отдельности обновлять IO-модули и остальное «железо». Omdia прогнозирует, что на долю ИИ-серверов будет приходиться всё большая часть расходов на серверы в целом. Уже в 2024 году речь шла о 66 %, причём ключевые игроки рынка, включая гиперскейлеров и облачных ИИ-провайдеров, поддерживают именно 21″ стандарт, поэтому победа OCP над другими стандартами стала лишь вопросом времени.

Постоянный URL: http://servernews.ru/1131137
21.10.2025 [14:25], Андрей Крупин

ТЦИ переведёт инфраструктуру доменных зон Рунета на российские серверы

Технический центр Интернета (ТЦИ), оператор национальных доменных зон .RU, .РФ и .SU, сообщил о проведении плановой замены ключевых элементов инфраструктуры на оборудование отечественного производства. Инициатива является частью системной работы по повышению технологической независимости и устойчивости российского сегмента интернета.

Отмечается, что приоритетами ТЦИ остаются обеспечение бесперебойной работы доменной системы, её защищённость от внешних факторов и полный контроль над технологической цепочкой. Для достижения этих целей оператор использует серверные решения российского разработчика телекоммуникационного и IT-оборудования «Булат» (входит в группу компаний «Ростелеком»).

Серверы «Булат» включены в единый реестр российской радиоэлектронной продукции, соответствуют требованиям ТЦИ и, по заверениям оператора доменных имён, прошли процедуру детального длительного тестирования перед вводом в эксплуатацию.

«Переход технологической инфраструктуры IT- и телеком-отрасли на отечественное оборудование свидетельствуют о зрелости российского рынка IT-решений. Таким образом формируется замкнутая экосистема для критической инфраструктуры, что знаменует собой новый этап в развитии Рунета», — говорится в заявлении «Ростелекома».

 Серверное оборудование «Булат» (источник изображения: opk-bulat.ru)

Серверное оборудование «Булат» (источник изображения: opk-bulat.ru)

Постоянный URL: http://servernews.ru/1131150
20.10.2025 [16:00], Сергей Карасёв

Экономичный гибрид: Intel объединила ускорители Gaudi 3 и NVIDIA B200 в одной ИИ-платформе

Корпорация Intel показала гибридную стоечную систему Устройство объединяет посредством Ethernet массивы ускорителей Gaudi3 и NVIDIA B200.

Платформа Gaudi3 Rack Scale 64 содержит до 16 вычислительных узлов. Каждый из них оснащён двумя неназванными процессорами Intel Xeon, четырьмя OAM-ускорителями Intel Gaudi 3 (64 в одном домене), четырьмя 400GbE-адаптерами NVIDIA ConnectX-7 и одним DPU NVIDIA BlueField-3, отмечает SemiAnalysis. Суммарно доступно 8,2 Тбайт HBM2e, а агрегированная пропускная способность составляет 76,8 Тбайт/с. Мощность суперускорителя составляет 120 кВт. Кроме того, задействованы 12 коммутаторов на чипах Broadcom Tomahawk 5 (51,2 Тбит/с). Для масштабирования и связи с другими узлами, в том числе NVIDIA, используется именно Ethernet.

В составе гибридной системы ускорители Intel Gaudi 3 используются на decode-стадии, т.е. для генерации токенов, где важен объём и пропускная способность памяти, тогда как чипы NVIDIA B200 отвечают за prefill-задачи инференса, т.е. за обработку контекста и заполнение KVCache, где важна скорость вычислений. NVIDIA сама стремится к этому же подходу и уже анонсировала соускорители Rubin CPX, которые как раз будут заниматься работой с контекстом в сверхбольших моделях и созданием KV-кеша.

 Источник изображений: Intel

Источник изображений: Intel

Intel утверждает, что гибридная конфигурация из Gaudi3 и B200 позволяет достичь 1,7-кратного прироста производительности в расчёте на доллар совокупной стоимости владения (TCO) по сравнению с платформами, использующими только B200. Однако, как отмечается, эти заявления пока не подтверждены независимыми тестами. К тому же, программная платформа Gaudi3 отстаёт от платформы NVIDIA и является закрытой. Кроме того, нынешняя архитектура Gaudi приближается к концу своего существования, что ставит под сомнение жизнеспособность предложенной платформы в долгосрочной перспективе.

Для Intel это, возможно, один из немногих шансов продать остатки Gaudi3. Между тем Intel недавно анонсировала GPU-ускоритель Crescent Island, разработанный специально для ИИ-инференса. Решение, в основу которого положена архитектура Xe3P, получит 160 Гбайт памяти LPDDR5X. Массовые поставки будет организованы не ранее 2027 года. Ранее компания отказалась от планов по выпуску Falcon Shores, сосредоточившись на Jaguar Shores. Сейчас же компания начала сворачивать поддержку ускорителей Ponte Vecchio (Intel Max) и Arctic Sound (Flex).

Постоянный URL: http://servernews.ru/1131071
20.10.2025 [09:11], Сергей Карасёв

Pegatron представила ИИ-систему RA4802-72N2 на базе NVIDIA GB300 NVL72

Компания Pegatron представила систему RA4802-72N2, предназначенную для наиболее ресурсоёмких ИИ-нагрузок, включая обучение больших языковых моделей (LLM) в масштабе и инференс.

В основу положена платформа NVIDIA GB300 NVL72. Изделие GB300 содержит Arm-процессор Grace с 72 ядрами Neoverse V2 (Demeter) и два чипа Blackwell Ultra. В составе RA4802-72N2 объединены 18 вычислительных лотков, каждый из которых несёт на борту два Grace и четыре Blackwell Ultra. В сумме это даёт 36 процессоров Grace и 72 чипа Blackwell Ultra.

Каждый из вычислительных узлов располагает 960 Гбайт памяти LPDDR5X и 1152 Гбайт памяти HBM3e​. Таким образом, в общей сложности система оперирует примерно 17 Тбайт LPDDR5X и 20 Тбайт HBM3e. ИИ-производительность достигает 720 Пфлопс на операциях FP8/FP6.

 Источник изображения: Pegatron

Источник изображения: Pegatron

В состав RA4802-72N2 также входят девять коммутационных лотков. Общая пропускная способность интерконнекта NVLink составляет 130 Тбайт/с. В расчёте на вычислительный узел используются два адаптера NVIDIA ConnectX-8 и один DPU NVIDIA BlueField-3. Прочие характеристики включают контроллер Aspeed AST2600, модуль TPM 2.0, восемь отсеков для накопителей E1.S NVMe, коннектор M.2 2280/22110 NVMe.

Система выполнена в форм-факторе 48U MGX с габаритами 600 × 2296 × 1200 мм. Применяется полностью жидкостное охлаждение. Полка питания оснащена шестью 1U-модулями мощностью 33 кВт. Поставки машины RA4802-72N2 уже начались.

Постоянный URL: http://servernews.ru/1131045

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus