Материалы по тегу: сервер

06.08.2025 [15:23], Руслан Авдеев

Meta✴ заказала ИИ-серверы Santa Barbara с кастомными ASIC

Meta разместила заказ на поставку ИИ-серверов нового поколения на базе ASIC-модулей у тайваньского производителя Quanta Computer. Компания заказала до 6 тыс. стоек и намерена начать развёртывание серверов Santa Barbara к концу 2025 года, сообщает Datacenter Dynamics. Новые серверы заменят существующие решения Minerva.

В отчёте также указано, что серверы нового поколения будут иметь TDP более 180 кВт и потребуют тщательно кастомизированных корпусов, систем водяного охлаждения и других компонентов. Все компоненты будут поставляться компанией SynMing Electronics. По данным отчёта, поставкой ASIC займётся Broadcom, а сборкой серверов — Quanta Computer. Окончательный дизайн будет утверждён в текущем квартале, а пробное производство начнётся в IV квартале 2025 года.

Как сообщают «источники в цепочке поставок», IT-гигант завершил разработки проектных решений для двух–трёх новых серверов с кастомными ИИ-ускорителями. Хотя прямо ASIC не упоминается, Meta давно работает над собственными ИИ-чипами Meta Training and Inference Accelerator (MTIA), которые разрабатываются с 2023 года. Компания рассчитывает внедрить чипы в собственные дата-центры, чтобы снизить зависимость от NVIDIA.

 Источник изображения: UX Indonesia/unspalsh.com

Источник изображения: UX Indonesia/unspalsh.com

С началом бума генеративного ИИ Meta стремится расширить серверную ИИ-инфраструктуру и самостоятельно разрабатывать ASIC. В феврале 2024 года компания, похоже, искала специалистов по ASIC-решениям, размещая объявления о поиске соответствующих сотрудников в Индии и Калифорнии. В марте 2025 года южнокорейская FuriosaAI, занимающийся разработкой микросхем, отклонила предложение Meta о покупке бизнеса за $800 млн.

На прошлой неделе были опубликованы результаты за II квартал 2025 года, согласно которым выручка составила $47,5 млрд, что на 22 % больше по сравнению с аналогичным периодом прошлого года. Прибыль компании выросла на 36 %, составив $18,3 млрд за три месяца, заканчивающиеся 30 июня, но расходы Meta также увеличились на 12 %, до $27 млрд, что связано с ростом затрат на дата-центры, серверы и исследователей в области ИИ.

На пресс-конференции, посвящённой финансовым результатам компании, было объявлено, что наибольшая часть капитальных затрат в будущем будет направлена на серверы. Также было заявлено, что компания всё ещё решает, когда будут развёртываться новые мощности.

Постоянный URL: http://servernews.ru/1127182
05.08.2025 [17:01], Руслан Авдеев

ИИ-серверы победили электромобили — Foxconn сменит профиль предприятия в Лордстауне [Обновлено]

Тайваньский контрактный производитель Foxconn продал в США завод по выпуску электромобилей. Вместо этого площадка будет использоваться для производства ИИ-серверов, сообщает The Register, и, возможно, получит ИИ ЦОД Stargate.

В понедельник компания подала заявление о продаже завода в Лордстауне (Lordstown, Огайо), который Foxconn приобрела в 2022 году у стартапа Lordstown Motors. При этом компания сохранит своё присутствие на объекте и займётся другими видами деятельности. Сообщается, что завод был продан, поскольку североамериканский рынок электромобилей производитель посчитал слишком слабым — производственные мощности значительно превышают спрос.

О переходе на выпуск ИИ-серверов сообщили несколько известных изданий, включая The Wall Street Journal и Nikkei. Новость появилась через несколько дней после объявления о заключении стратегического альянса с тайваньской TECO Electric & Machinery. Предполагается, что альянс поможет партнёрам развивать бизнес в сфере ИИ ЦОД. TECO выпускает энергетическую инфраструктуру, необходимую для строительства дата-центров, а Foxconn производит практически всё, что нужно их клиентам.

 Источник изображения: Michael Bowman/unsplash.com

Источник изображения: Michael Bowman/unsplash.com

Foxconn уже пообещала расширить присутствие в США, чтобы производить ИИ-оборудование для Apple и других локальных клиентов. Смена профиля завода в Лордстауне с электромобилей на ИИ-серверы поможет компании развивать более прибыльный бизнес. Впрочем, ранее компания обещала создать базовую платформу для электромобилей, чтобы иметь возможность получать заказы от автоконцернов. Будущее этого плана теперь под вопросом.

Foxconn не впервые отказывается от масштабных проектов в США — ранее она не стала строить обещанный завод по выпуску ЖК-дисплеев в Висконсине, который сегодня не пользуется прежним спросом. Площадка досталась Microsoft, которая намеревелась построить ИИ ЦОД в интересах OpenAI, но потом отложила эту затею. Тем не менее, очередная смена профиля завода Foxconn вполне соответствует новому плану президента США, который решительно настроен добиться первенства США в сфере ИИ. В частности, иностранным компаниям, вложившимся в местное производство, обещаны скидки на пошлины.

В минувший понедельник совет директоров Tesla объявил о выделении главе компании Илону Маску (Elon Musk) 96 млн акций стоимостью $29 млрд, поскольку «сохранение Илона сейчас важнее, чем когда-либо», т.к. компания переходит от «лидерства в сфере электромобилей и источников энергии к достижению лидерства в области ИИ, робототехники и связанных с ними услуг». Возможно, это будет означать, что Tesla также будет закупать ИИ-серверы у Foxconn или поручит тайваньской компании производить своих роботов. Сама Tesla отказалась от развития собственных ИИ-суперкомпьютеров Dojo.

UPD 08.08.2025: по данным Bloomberg, покупателем завода станет SoftBank, которая, возможно, со временем развернёт тут же и дата-центр в рамках проекта Stargate. Сумма сделки составит $375 млн.

Постоянный URL: http://servernews.ru/1127129
01.08.2025 [12:15], Сергей Карасёв

Selectel выпустила собственные серверы на платформе Intel Xeon 6

Компания Selectel объявила о начале продаж собственных серверов, в основу которых положена аппаратная платформа Intel Xeon 6. Устройства подходят для задач виртуализации, работы с базами данных и ресурсоёмких вычислений.

Новинки, как утверждается, полностью разработаны инженерами Selectel — от выбора компонентной базы до системного дизайна. Применённая материнская плата совместима с OCP 3.0, модулями TPM 2.0, BMC AST2600 и интеллектуальными системами мониторинга. Серверы имеют двухсокетное исполнение с возможностью выбора чипов Xeon 6 Granite Rapids с производительными Р-ядрами и Xeon 6 Sierra Forest с энергоэффективными Е-ядрами. Доступны 32 слота для модулей оперативной памяти DDR5-5200/6400 суммарным объёмом до 8 Тбайт.

Дебютировали модели SSE-I112-G6 и SSE-I224-G6 в форм-факторе 1U и 2U соответственно. В первом случае предусмотрены отсеки для 12 накопителей SFF (SAS/SATA/NVMe PCIe 5.0) с возможностью горячей замены, два слота для карт расширения PCIe 5.0 x16 HHHL и разъём ОСР 3.0 (PCIe 5.0 х16). Сервер типоразмера 2U предоставляет 12 посадочных мест для накопителей SAS/SATA и 12 отсеков для NVMe SSD (РСIe 5.0) с горячей заменой или 24 отсека для NVMe SSD (РСIe 5.0), четыре слота PCIe 5.0 x8 и разъём ОСР 3.0 (PCIe 5.0 х16). Есть два сетевых порта 1GbE. В обоих случаях также имеются два внутренних коннектора М.2 (PCle 5.0).

 Источник изображения: Selectel

Источник изображения: Selectel

Серверы оснащены воздушным охлаждением. Устанавливаются два резервируемых блока питания 80 PLUS Platinum/Titanium мощностью 1600/2000 Вт. Диапазон рабочих температур — от +10 до +35 °C. Говорится о совместимости с широким спектром ОС.

По заявлениям Selectel, новинки подойдут компаниям, которые создают локальную IT-инфраструктуру и предпочитают использовать собственное, а не арендованное оборудование. Кроме того, устройства могут применяться в гибридных средах.

Постоянный URL: http://servernews.ru/1126922
25.07.2025 [09:23], Владимир Мироненко

Импортозамещение по-южнокорейски: LG AI Research выбрала ускорители FuriosaAI RNGD для своих ИИ-серверов

Компания LG AI Research (ИИ-подразделение LG Group) из Южной Кореи заключила соглашение с южнокорейским стартапом FuriosaAI о выпуске серверов с ИИ-ускорителями RNGD для работы с собственным семейством LLM Exaone, сообщил The Register. Как сообщил генеральный директор FuriosaAI Джун Пайк (June Paik) изданию EE Times, серверы LG с чипами RNGD будут ориентированы на предприятия, использующие модели ExaOne в сфере электроники, финансов, телекоммуникаций и биотехнологий. Серверы поступят в продажу в конце этого года.

«После тщательного тестирования широкого спектра опций мы пришли к выводу, что RNGD — высокоэффективное решение для развёртывания моделей Exaone», — заявил Киджонг Чон (Kijeong Jeon), руководитель подразделения продуктов LG AI Research. «RNGD обеспечивает убедительное сочетание преимуществ: превосходную производительность в реальных условиях, значительное снижение совокупной стоимости владения и удивительно простую интеграцию», — добавил он.

Подобно системам на базе NVIDIA RTX Pro Blackwell, серверы LG RNGD будут включить до восьми ускорителей с интерфейсом PCIe 5.0. Эти системы будут работать на базе того, что FuriosaAI описывает как высокоразвитый программный стек, включающий библиотеку vLLM. LG также предложит собственную платформу агентского ИИ ChatExaone, которая адаптирована для корпоративных сценариев использования. Она объединяет ряд фреймворков для анализа документов, глубоких исследований, анализа данных и RAG.

 Источник изображений: FuriosaAI

Источник изображений: FuriosaAI

LG AI Research протестировала работу модели ExaOne-32B на восьмичиповом 4U-сервере c воздушным охлаждением, который был разработан совместно с Supermicro. В 15-кВт стойке можно разместить пять таких серверов. По словам Пайка, LG AI Research протестировала оборудование от нескольких поставщиков оборудования из Южной Кореи и других стран, взяв за основу ускорители NVIDIA A100. «LG AI Research также тестировала облачные решения, но, по их словам, наше решение на данный момент оказалось единственным, отвечающим их требованиям», — сказал Пайк.

Как полагает The Register, выбор для сравнения ускорителя NVIDIA A100, дебютировавшего в 2020 году, а не более свежих моделей, вызван тем, что LG AI Research больше интересует энергоэффективность оборудования, чем производительность. И, как отметил Джун Пайк, хотя за пять лет с момента появления A100 ускорители NVIDIA, безусловно, стали мощнее, но произошло это за счёт увеличения энергопотребления и площади кристалла.

Сообщается, что LG AI фактически использовала четыре PCIe-ускорителя RNGD, задействовав тензорный параллелизм для запуска модели Exaone 32B с 16-бит точностью. По словам Пайка, у LG были очень чёткие целевые показатели производительности, которые она стремилась достичь при валидации чипа. В частности, ограничения включали время до отдачи первого токена (TTFT) — примерно 0,3 с для небольших запросов на 3 тыс. токенов или 4,5 с для более крупных запросов на 30 тыс. токенов. Результат в 60 токенов/с достигается для контекстного окна размером 4 тыс. токенов или 50 токенов/с для контекстного окна размером 32 тыс. токенов.

По словам Пайка, тесты проводились в режиме BF16, поскольку сравниваемые A100 не имеет встроенной поддержки FP8, так что использование RNGD в FP8-режиме позволит удвоить эффективность инференса и снизить TTFT. Кроме того, сервер продемонстрировал в 2,25 раза более высокую производительность инференса LLM на Ватт по сравнению с A100, а полная стойка сможет генерировать в 3,75 раза больше токенов, чем стойка с A100 при том же энергопотреблении. Чип FuriosaAI RNGD обеспечивает производительность 512 Тфлопс (FP8) при TDP 180 Вт.

В отличие от ускорителей NVIDIA, оснащённых высокоскоростным интерконнектом NVLink (600 Гбайт/с), FuriosaAI использует интерфейс PCIe 5.0 (128 Гбайт/с). По словам FuriosaAI, чтобы избежать узких мест и накладных расходов, связанных с интерконнектом, компилятор компании помогает оптимизировать процесс обмена данными и собственно вычисления.

Постоянный URL: http://servernews.ru/1126470
18.07.2025 [10:36], Сергей Карасёв

Lenovo анонсировала четырёхсокетные серверы ThinkSystem SR850 V4 и SR860 V4 на базе Intel Xeon 6

Компания Lenovo анонсировала серверы ThinkSystem SR850 V4 и ThinkSystem SR860 V4 для ресурсоёмких рабочих нагрузок, которые предъявляют высокие требования к объёму оперативной памяти. Новинки получили четырёхсокетное исполнение с возможностью установки процессоров Intel Xeon 6700 с показателем TDP до 350 Вт.

Обе системы поддерживают 64 модуля TruDDR5-6400 суммарной ёмкостью до 16 Тбайт. Может использоваться память CXL 2.0 в форм-факторе E3.S 2T (до 12 модулей). Есть два слота OCP 3.0 для сетевых адаптеров 1GbE, 10GbE, 25GbE, 100GbE, 200GbE и 400GbE.

Модель ThinkSystem SR850 V4 имеет исполнение 2U. Могут быть реализованы до 12 разъёмов PCIe в конфигурации 11 × PCIe 5.0 и 1 × PCIe 4.0. Поддерживается установка двух GPU-ускорителей двойной ширины с TDP до 400 Вт или четырёх ускорителей одинарной ширины с TDP до 75 Вт. Подсистема хранения данных может включать 32 накопителя E3.S 1T или до 24 устройств формата SFF (NVMe). Кроме того, предусмотрены два коннектора М.2 для загрузочных SSD. Питание обеспечивают два блока с сертификатом 80 Plus Platinum или Titanium мощностью до 2600 Вт (с возможностью горячей замены).

 Источник изображений: Lenovo

Источник изображений: Lenovo

В свою очередь, сервер ThinkSystem SR860 V4 получил исполнение 4U. Машина располагает 18 слотами PCIe в конфигурации 16 × PCIe 5.0 и 2 × PCIe 4.0. Допускается монтаж четырёх GPU-ускорителей двойной ширины с TDP до 400 Вт или восьми карт одинарной ширины с TDP до 75 Вт. Поддерживаются до 56 накопителей в конфигурации 24 × SFF и 32 × E3.S 1T, а также два загрузочных SSD формата М.2. Могут использоваться до четырёх блоков питания 80 Plus Platinum или Titanium с горячей заменой.

Серверы оснащены двумя портами USB 3.0 и двумя разъёмами USB 3.1, интерфейсом Mini-DP, последовательным портом и выделенным сетевым портом управления 1GbE. Заявлена совместимость с Windows, Red Hat Enterprise Linux, SUSE Linux и продуктами VMware. Возможно использование системы прямого жидкостного охлаждения Neptune Core.

Постоянный URL: http://servernews.ru/1126158
10.07.2025 [13:27], Руслан Авдеев

Количество заказчиков Arm из сферы ЦОД выросло в 14 раз с 2021 года

По словам Arm, с 2021 года количество заказчиков, использующих в дата-центрах Arm-чипы, выросло в 14 раз до 70 тыс. Под руководством генерального директора компании Рене Хааса (Rene Haas) разработчик полупроводниковых технологий расширяет бизнес работал над продвижением своих решений на рынке ПК и существенно нарастив продажи на рынке чипов для ЦОД, сообщает Reuters. По словам IDC, Arm-чипы постепенно захватывают рынок, но до доминирования на рынке ЦОД им ещё далеко.

Как и другие полупроводниковые компании, Arm немало выиграла от ИИ-бума — значительная доля роста в сегменте решений для ЦОД связана именно с ИИ. Компания заявила, что число стартапов, использующих Arm-архитектуру для чипов с 2021 года выросло в 12 раз. Это помогает компании, поскольку сегменты ПК и мобильных решений развиваются весьма медленно. Компания отказалась предоставить годовой финансовый прогноз при публикации последнего отчёта, сославшись на неопределенность на рынках.

 Источник изображения: Arm

Источник изображения: Arm

Ранее рынок ЦОД считался довольно сложным для проникновения на него Arm-технологий, но не так давно AWS, Google и Microsoft занялись разработкой собственных чипов для дата-центров на Arm-архитектуре. Amazon уже представила несколько поколений классических серверных CPU для дата-центров с 2018 года, а также варианты для ИИ-задач — с тех пор она добавила миллионы чипов на базе Arm для обслуживания своей облачной платформы. Пользователи некоторых сервисов могут даже не знать, что их задачи обрабатываются Arm-процессорами Amazon.

Для успеха компании, создающей полупроводниковые технологии, необходимо, чтоб их поддерживали разработчики приложений по всему миру. По данным Arm, компания с 2021 года добилась приблизительного удвоения числа приложений, работающих на Arm-процессорах — приблизительно до 9 млн. Количество разработчиков, работающих с вычислительной архитектурой Arm, увеличилось с 2021 года в 1,5 раза до 22 млн человек.

Постоянный URL: http://servernews.ru/1125747
09.07.2025 [14:35], Владимир Мироненко

256 ядер, 2048 потоков и 64 Тбайт DDR5: IBM анонсировала «бесперебойные» серверы POWER11

IBM представила серверы POWER11, получившие усовершенствованные процессоры, аппаратную архитектуру и программный стек виртуализации. Как заявила компания, POWER11 разработаны для обеспечения доступности, отказоустойчивости, производительности и масштабируемости, которые требуются предприятиям для бесшовного гибридного развёртывания on-premise или в облаке IBM Cloud.

POWER11 представляет собой самый отказоустойчивый сервер в истории платформы IBM POWER с доступностью на уровне 99,9999 %, заявляет компания. Вместе с нулевым запланированным простоем для обслуживания системы и менее чем одной минутой гарантированного обнаружения угроз программ-вымогателей с помощью IBM POWER Cyber Vault, POWER11 устанавливает новую планку непрерывности ведения бизнеса, говорит IBM.

 Источник изображений: IBM

Источник изображений: IBM

Впервые общедоступная версия POWER11 будет одновременно включать высокопроизводительные серверы, модели среднего и начального уровня, а также решение IBM POWER Virtual Server (POWERVS) в IBM Cloud, обеспечивающее быстрый доступ в облако для рабочих нагрузок POWER и сертифицированное как гипермасштабируемая платформа для пакета RISE with SAP. POWER11 также является первым сервером семейства IBM POWER, поддерживающим 32-ядерные 5-нм ИИ-ускорители IBM Spyre Accelerator, которые будут доступны в IV квартале 2025 года. Они же используются в семействе мейнфреймов IBM z17.

Процессор POWER11 изготавливается по 7-нм техпроцессу Samsung с использованием 18 слоёв металла и 2.5D-упаковки. Чип состоит из 30 млрд транзисторов, площадь кристалла, как и у предшественника, составляет 602 мм2. Процессор имеет 16 вычислительных ядер с поддержкой SMT8 15. Каждое ядро получило четыре блока MMA (Matrix Math Accelerator) для задач инференса. Как отмечает IT Jungle, в отличие от POWER10, 16-е ядро теперь является запасным, и может быть активировано в случае нештатной ситуации.

Объём кеша L2 составляет 2 Мбайт на ядро, объём кеша L3 — 8 Мбайт на ядро, но суммарный объём L3 — до 120 Мбайт. Интерфейс POWERAXON/OMI обеспечивает пропускную способность до 2 Тбайт/с (32 ГТ/с). Возможна установка до 64 Тбайт DDR5 в модулях DDIMM, но в некоторых случаях осталась поддержка DDR4. Доступны 64 линии PCIe 5.0 и SMP-соединение для объединения до 16 сокетов. Для расширения доступны дисковые полки (24 × NVMe) и шасси с PCIe-слотами.

Для обеспечения гибкости и масштабируемости POWER11 использует разные способы упаковки. Для высокопроизводительного сервера POWER E1180 задействован одночиповый вариант Single Chip Module (SCM), который обеспечивает один чип на сокет и до шестнадцати сокетов на систему. Для сервера среднего уровня POWER E1150 использовалась упаковка с двумя чипами на сокет Dual Chip Module (DCM) с поддержкой до четырёх сокетов на систему. Версия DCM также используется в линейке масштабируемых серверов POWER S1122/L1122 и POWER S1124/L1124 с двумя сокетами на систему. Также есть третий вариант упаковки — Single Core Module (eSCM), который используется для систем начального уровня POWER S1122 (4 или 10 ядер).

POWER11 обеспечивает до 55 % более высокую производительность ядер по сравнению с POWER9 и до 45 % большую ёмкость с большим количеством ядер в системах начального и среднего уровня по сравнению с POWER10. Благодаря этому с POWER11 предприятия получат повышенную гибкость и безопасность, что повысит эффективность корпоративных процессов за счёт автоматизации, говорит IBM.

Нулевой запланированный простой для обслуживания системы. POWER11 позволяет избежать дорогостоящего запланированного простоя и помочь снизить операционный риск. Благодаря использованию таких технологий, как автономное исправление и автоматизированное перемещение нагрузок, запланированные события по обслуживанию системы могут происходить без остановки критически важных приложений. Кроме того, IBM POWER будет взаимодействовать с IBM Concert, используя генеративный ИИ, чтобы помочь выявить операционные риски и автоматизировать их исправление, в том числе в области безопасности.

Обнаружение угроз программ-вымогателей менее чем за минуту достигается с помощью IBM POWER Cyber Vault, интегрированного решения по обеспечению киберустойчивости, которое соответствует стандартам NIST. Cyber Vault умеет идентифицировать и автоматически реагировать на киберугрозы, защищая от кибератак, таких как повреждение данных и шифрование, с помощью проактивных неизменяемых снимков, которые автоматически создаются, сохраняются и тестируются по заданному пользователем расписанию. POWER 11 также использует одобренную NIST встроенную квантово-безопасную криптографию, предназначенную для защиты систем от атак с отложенной расшифровкой (HNDL) и атак на целостность встроенного ПО.

IBM также отметила, что POWER11 обеспечивает значительный рост эффективности во всём ИТ-стеке. С точки зрения энергоэффективности POWER11 предлагает вдвое большую производительность на Вт (SPECint2017_rate) по сравнению с сопоставимыми x86-серверами — до двух раз в случае Intel Xeon Emerald Rapids. Кроме того, теперь разница в энергопотреблении между режимами максимальной производительности и режимом энергосбережения достигает 28 %, при этом пропускная способность падает всего на 6 %. Как утверждает ресурс StorageReview.com, этот режим будет полезен для сред разработки и тестирования с интенсивной загрузкой CPU. Вариант с прямым жидкостным охлаждением поддерживает 75 кВт на стойку (64 сокета в 42U), по сравнению с примерно 28 кВт для аналогичных x86-систем с воздушным охлаждением.

Ожидается, что серверы IBM POWER11 — POWER E1180 (до 256 ядер, до 64 Тбайт DDR5), POWER E1150 (до 120 ядер, до 16 Тбайт DDR5), POWER S1124 (до 60 ядер, до 8 Тбайт DDR5) и POWER S1122 (до 60 ядер, до 4 Тбайт DDR5) поступят в продажу 25 июля.

Постоянный URL: http://servernews.ru/1125630
08.07.2025 [17:09], Владимир Мироненко

Российский суперкомпьютер «Говорун» получил два узла «РСК Экзастрим ИИ» с NVIDIA H100 и фирменной СЖО

ГК РСК продемонстрировала 2U-узел (912 × 508 × 88 мм) собственной разработки «РСК Экзастрим ИИ» на базе восьми ускорителей NVIDIA H100 с прямым жидкостным охлаждением. Два таких узла были установлены в суперкомпьютере «Говорун» в Дубне.

«РСК Экзастрим ИИ» включает:

  • 2 × Intel Xeon Platinum Sapphire Rapids или Emerald Rapids;
  • 8 × NVIDIA H100 или H200 NVL (интерфейс PCIe) с попарно объединёнными NVLink-мостиками;
  • 32 × DDR5 DIMM (суммарно до 2 Тбайт);
  • 8 × E1.S NVMe SSD (суммарно 128 Тбайт) + загрузочный M.2 NVMe SSD;
  • 4 × адаптер Mellanox ConnectX (до 800 Гбит/с);
  • 2 × 10GbE-контроллер;
  • 4 × БП РСК (12 В, 1,5 кВт каждый);
  • СЖО РСК;
  • «РСК БазИС 4» для управления и мониторинга.

«РСК Экзастрим ИИ» имеет локальную подсистему хранения «тёплых данных», сетевую подсистему с доступом на основе технологии GPUDirect. Также есть возможность расширения ресурсов путём подключения дополнительных пар ускорителей или системы внешнего хранения данных на базе пула JBOF, подключаемой напрямую.

Производительность «РСК Экзастрим ИИ» составляет до 208 Тфлопс (FP64). При установке 21 сервера в шкаф «РСК Экзастрим» пиковая производительность достигает 4,26 Пфлопс (FP64). Сервер отличается высокой энергоэффективностью, сверхвысокой плотностью монтажа и надёжной работой. Он может использоваться для решения ресурсоёмких задач в области машинного обучения и ИИ, создания мощных вычислительных ресурсов облачных провайдеров и в частных облаках и т.д.

 Источник изображений: РСК

Источник изображений: РСК

Два узла «РСК Экзастрим ИИ» были установлены в суперкомпьютере «Говорун» в Лаборатории информационных технологий им М.Г. Мещерякова Объединенного института ядерных исследований (ЛИТ ОИЯИ) в Дубне в рамках нового этапа модернизации, проведенной силами специалистов ГК РСК и лаборатории.

Как сообщается, новые серверы «РСК Экзастрим ИИ» уникальны и были сконструированы и изготовлены для СК «Говорун» с учётом его архитектурных особенностей. При этом пиковая FP64-производительность GPU-компоненты суперкомпьютера «Говорун» выросла на 36 % и достигла 1,4 Пфлопс, пиковая суммарная FP64-производительность суперкомпьютера теперь составляет 2,2 Пфлопс.

Характеристики серверов «РСК Экзастрим ИИ», установленных в ОИЯИ:

  • 2 процессора Intel Xeon Platinum 8468 (48C/96T; 2,1–3,8 ГГц, L3-кеш 105 Мбайт);
  • 8 ускорителей NVIDIA H100 (PCIe, 80 Гбайт);
  • 1 Тбайт оперативной памяти;
  • NVMe SSD общей ёмкостью 16 Тбайт;
  • 4 БП производства РСК;
  • СЖО РСК.

В конце 2024 года было проведено расширение СХД суперкомпьютера «Говорун», после чего её ёмкость увеличилась до 10 Пбайт. В СХД вычислительного комплекса ОИЯИ были добавлены два узла хранения данных RSC Tornado AFS ёмкостью 1 Пбайт каждый. Обновленная модификация СХД RSC Tornado AFS включает серверную плату на базе процессоров Intel Xeon Sapphire Rapids, а также коммутатор с интерфейсом PCIe 4.0, что позволило установить по два адаптера интерконнекта с пропускной способностью 200 Гбит/с каждый.

СХД RSC Tornado AFS поддерживает технологию GPUDirect Storage (GDS), которая обеспечивает прямую передачу данных между локальным или удалённым хранилищем и памятью ускорителя. Две СХД, установленные ранее специалистами РСК в суперкомпьютере «Говорун» входят в мировой рейтинг IO500 самых высокопроизводительных системам хранения данных.

В суперкомпьютере «Говорун» используются интегрированный программный комплекс «РСК БазИС 4» и модуль «РСК БазИС СХД» (включены в Реестр российского ПО). Микроагентная архитектура «РСК БазИС 4» обеспечивает функционирование объектов системы, позволяя также взаимодействовать с ними. «РСК БазИС» в сочетании с аппаратными платформами РСК позволяет создавать гиперконвергентные решения для HPC и эффективной обработки больших объёмов данных.

Постоянный URL: http://servernews.ru/1125604
07.07.2025 [15:11], Руслан Авдеев

Пошлины США и геополитическая напряжённость притормозили рост поставок ИИ-серверов в 2025 году

Ключевые облачные провайдеры из США продолжают оставаться главными драйверами роста рынка ИИ-серверов. Устойчивый спрос поддерживают и операторы ЦОД «второго уровня», а также суверенные облачные проекты в Европе и на Ближнем Востоке — но в расчёт приходится принимать и негативные факторы, сообщает TrendForce.

Впрочем, если спрос со стороны американских облачных гигантов и OEM-клиентов сохранится, поставки в процентном отношении в 2025 году сохранят двузначный рост. Тем не менее, как сообщает агентство, геополитическая напряжённость и экспортные ограничения со стороны США, негативно влияющие на китайский рынок, уже заставили TrendForce частично пересмотреть прогноз. Сейчас рост мировых поставок ИИ-серверов в годовом исчислении ожидается на уровне 24,3 %.

В 2025 году Microsoft сохраняет фокус на закупках ИИ-серверов в ущерб системам общего назначения. В первую очередь используются ИИ-ускорители NVIDIA. Прогресс в разработке собственных ASIC идёт довольно медленно. Прогнозируется, что чипы Maia нового поколения начнут выпускать в 2026 году. Meta, тем временем, нарастила спрос на серверы общего назначения, в основном на базе платформ AMD, после завершения строительства новых дата-центров. Впрочем, компания работает и над собственными решениями, включая ASIC. Ожидается, что поставки чипов MTIA вырастут вдвое к 2026 году.

Google отметила рост спроса на серверы, вызванный потребностями клиентов в создании суверенных облаков и завершением строительства новых ЦОД в Юго-Восточной Азии. Компания уже начала массовое внедрение ускорителей TPU v6e, ставших мейнстримом в I половине 2025 года. AWS также уделяет немало внимания собственному ускорителю Tranium 2. Компания уже начала разработку чипов Trainium 3, но их массовое производство начнётся, вероятно, только в 2026 году. Благодаря расширению платформы Tranium и активной внутренней ИИ-стратегии, AWS, вероятно, вдвое увеличит поставки собственных ASIC в 2025 году, став по этому показателю лидером среди американских облачных провайдеров.

 Источник изображения: TrendForce

Источник изображения: TrendForce

Среди облачных гигантов Oracle выделяется покупкой готовых ИИ-серверов, а также серверов для работы с in-memory базами данных. В текущем году компания намерена более активно развёртывать инфраструктуру ИИ-серверов и интегрировать собственные облачные базы данных с ИИ-приложениями. Увидев запрос на суверенные облака в США, компания также увеличила спрос на решения NVIDIA GB NVL72.

На II половину года многие OEM-производители пересматривают рыночные стратегии из-за изменений международной тарифной политики, инициированной США. Сегодня TrendForce считает, что суммарные поставки серверов (как для ИИ, так и общего назначения), вырастут год к году на 5 %, что в целом соответствует предыдущим прогнозам.

В феврале уже сообщалось, что эксперты прогнозируют охлаждение рынка ИИ-серверов в 2025 году. Впрочем, как утверждалось, даже в таких условиях он может превысить 30 % — Microsoft, Meta, Amazon и Google готовы увеличить капитальные затраты на ИИ-инфраструктуру. Уже тогда ожидалось, что это будет способствовать поддержке спроса на ИИ-серверы.

Постоянный URL: http://servernews.ru/1125524
06.07.2025 [23:08], Сергей Карасёв

Giga Computing представила ИИ-серверы на базе NVIDIA HGX B200 с воздушным и жидкостным охлаждением

Компания Giga Computing, подразделение Gigabyte, представила серверы G4L3-SD1-LAX5, G4L3-ZD1-LAX5, G894-AD1-AAX5 и G894-SD1-AAX5 для приложений ИИ, инференса и других ресурсоёмких нагрузок. В основу новинок положена платформа NVIDIA HGX B200 в конфигурации 8 × SXM.

Модель G4L3-SD1-LAX5 типоразмера 4U оснащена системой прямого жидкостного охлаждения (DLC) с отдельными зонами CPU и GPU. Допускается установка двух процессоров Intel Xeon Sapphire Rapids или Xeon Emerald Rapids с показателем TDP до 385 Вт. Предусмотрены 32 слота для модулей DDR5-5600, восемь фронтальных отсеков для SFF-накопителей (NVMe/SATA), а также два коннектора для SSD типоразмера M.2 2280/22110 (PCIe 3.0 x2 и PCIe 3.0 x1).

Доступны восемь разъёмов для однослотовых карт расширения FHHL PCIe 5.0 x16 и четыре разъёма для карт FHHL PCIe 5.0 x16 двойной ширины. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на базе Intel X710-AT2 и выделенный сетевой порт управления 1GbE. Питание обеспечивают восемь блоков мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур простирается от +10 до +35 °C.

Вариант G4L3-ZD1-LAX5 рассчитан на два чипа AMD EPYC 9004 (Genoa) или EPYC 9005 (Turin) с TDP до 500 Вт. Этот сервер также выполнен в формате 4U и оборудован DLC-охлаждением. Есть 24 слота для модулей DDR5-6400, восемь фронтальных отсеков для SFF-накопителей NVMe и два внутренних коннектора для SSD стандартов M.2 2280/22110 (PCIe 3.0 x4 и PCIe 3.0 x1). Прочие характеристики аналогичны предыдущей модели.

 Источник изображений: Gigabyte

Источник изображений: Gigabyte

Двухпроцессорные серверы G894-AD1-AAX5 и G894-SD1-AAX5 типоразмера 8U наделены воздушным охлаждением, включая 15 вентиляторов диаметром 80 мм в зоне GPU. Вариант G894-AD1-AAX5 поддерживает установку чипов Intel Xeon 6900 с показателем TDP до 500 Вт и 24 модулей DDR5 (RDIMM-6400 или MRDIMM-8800).

Модификация G894-SD1-AAX5, в свою очередь, рассчитана на процессоры Intel Xeon 6700/6500 с TDP до 350 Вт и 32 модуля DDR5 (RDIMM-6400 или MRDIMM-8000). Оба сервера оборудованы двумя портами 10GbE (Intel X710-AT2), сетевым портом управления 1GbE, контроллером ASPEED AST2600, восемью фронтальными отсеками для SFF-накопителей NVMe, двумя коннекторами M.2 2280/22110 (PCIe 5.0 x4 и PCIe 5.0 x2). Имеются восемь разъёмов для карт расширения FHHL PCIe 5.0 x16 одинарной ширины и четыре разъёма для карт FHHL PCIe 5.0 x16 двойной ширины. Установлены 12 блоков питания мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Серверы могут эксплуатироваться при температурах от +10 до +30 °C.

Постоянный URL: http://servernews.ru/1125499

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus