Материалы по тегу: nvidia
28.05.2025 [15:49], Руслан Авдеев
NVIDIA и промышленная династия Валленбергов создадут ИИ-инфраструктуру в ШвецииNVIDIA и группа компаний, за которыми стоит влиятельная шведская семья Валленберг, займутся созданием современной ИИ-инфраструктуры в Швеции, сообщает Bloomberg. В число партнёров входят AstraZeneca Plc, Ericsson AB, Saab AB, SEB AB и инвестиционная группа Валленбергов. Вместе они намерены построить «крупнейший в Швеции» ИИ-суперкомпьютер. Также NVIDIA готовится создать первый в стране центр ИИ-технологий для продвижения исследований совместно с производственными компаниями. По словам главы NVIDIA Дженсена Хуанга (Jensen Huang), страна создаёт первую ИИ-инфраструктуру, закладывая основу для прорывов в науке, промышленности и обществе в целом. ![]() Источник изображения: Raphael Andres/unsplash.com В рамках новой инициативы Saab объявила об использовании ИИ для ускоренной разработки оборонных технологий. Использовать искусственный интеллект в своих интересах намерены и другие партнёры. По словам председателя Wallenberg Investments AB Маркуса Валленберга (Marcus Wallenberg), результатом инициативы станут «ценные сопутствующие эффекты». Валленберги — известная с XIX века промышленная династия. Они остаются активными акционерами некоторых ключевых европейских компаний, в основном благодаря долям в Investor AB и FAM. Их финансовая система включает сеть фондов, ежегодно направляющих более Kr2,9 млрд ($287 млн) на поддержку научных и образовательных проектов в Швеции. В Швеции и без того активно развиваются проекты в сфере искусственного интеллекта. Так, в декабре 2024 года было объявлено, что страна станет базой для одной из ИИ-фабрик EuroHPC.
27.05.2025 [14:12], Руслан Авдеев
Sophia Space разработала «ИИ-плитки» для сборки космических ЦОД
hardware
nvidia
nvidia jetson
qualcomm
snapdragon
ии
космос
микро-цод
облако
периферийные вычисления
спутник
сша
цод
Финансирование получил очередной космический стартап, намеренный вывести на орбиту дата-центры. Sophia Space из Сиэтла (США) привлекла $3,5 млн — раунд финансирования возглавила Unlock Ventures, участие также приняли «бизнес-ангелы», заинтересованные в орбитальных периферийных вычислениях и космических ЦОД, сообщает Datacenter Dynamics. ![]() Источник изображений: Sophia Space В Sophia Space заявили, что мир находится на заре новой эры, в которой спрос на ИИ-технологии не должен приносить ущерба планете из-за энергетических ограничений. Компанию основали два выходца из Лаборатории реактивного движения NASA (JPL), а также ветеран Intel и Microsoft. Компания предлагает готовую, автономную, защищённую от радиации вычислительную платформу TILE, оптимизированную для ИИ-задач, в том числе в коммерческих и оборонных секторах. Каждый сервер TILE Edge представляет «плитку» размерами 1 × 1 и толщиной 1 см, оснащённую собственной солнечной панелью и пассивной системой охлаждения. Вычислительная часть представлена связкой Qualcomm Snapdragon 865 и Cloud AI 100 или NVIDIA Jetson и Blackwell. «Плитки» можно объединять друг с другом, формируя кластер необходимой мощности. Периферийные вычисления в космосе ценятся за возможность решить проблему перегрузки спутников, генерирующих больше данных, чем когда бы то ни было. Для использования этих огромных массивов информации требуются значительные ресурсы, поэтому предварительная обработка на периферийной платформе может сослужить неоценимую службу владельцам — предназначенные для передачи на Землю данные фильтруются ещё в космосе. Тема будет становиться всё более актуальной, поскольку правительствам и военным нужны всё более сложные системы мониторинга и съёмки на орбите. Компании вроде Axiom Space, Starcloud (ранее Lumen Orbit), NTT, Lonestar, Ramon.Space и Blue Origin давно рассматривают возможность развертывания вычислительных систем на орбите. В мае уже произошли два важных события, связанных с космическими дата-центрами. Во-первых, в начале месяца Эрик Шмидт (Eric Schmidt) купил Relativity Space, чтобы заняться запуском космических ЦОД, а несколько дней назад появилась информация, что китайская ADA Space вывела на орбиту первые 13 из 2,8 тыс. спутников для создания космического ИИ ЦОД.
26.05.2025 [14:38], Руслан Авдеев
NVIDIA выпустит для Китая дешёвый ускоритель семейства BlackwellNVIDIA намерена выпустить новый ИИ-ускоритель для Китая, который будет значительно дешевле недавно запрещённой к продаже в КНР модели H20. По данным источников Reuters, начало массового производства запланировано на июнь. Новинка войдёт в серию Blackwell и будет стоить $6,5–$8 тыс., т.е. намного меньше, чем H20, которые продавались по $10–$12 тыс. Вероятное название новинки — B40. Ускоритель предположительно получит чип от NVIDIA RTX Pro 6000D, будет использовать память GDDR7 вместо HBM и лишится поддержки NVLink. Кроме того, модель не будет использовать передовую технологию упаковки TSMC CoWoS (Chip-on-Wafer-on-Substrate). Представитель NVIDIA заявил, что компания всё ещё оценивает урезанные варианты ускорители — до того, как компания утвердит новый дизайн продукта и получит одобрение американских регуляторов, она фактически изолирована от китайского рынка объёмом $50 млрд. В TSMC слухи не комментируют. Китай долго оставался огромным рынком для NVIDIA, на который пришлось 13 % всех продаж за прошлый финансовый год. Уже в третий раз NVIDIA вынуждена ухудшать свои ИИ-ускорители из-за американских санкций, пытающихся замедлить технологическое развитие КНР (ранее пришлось выпустить A800, H800, H20 и др.). Запрет на продажи H20 фактически заставил NVIDIA списать $5,5 млрд и упустить $15 млрд потенциальных продаж. При этом дальнейшее ухудшение характеристик H20 невозможно. Новый ускоритель хотя и намного слабее H20, должен помочь сохранить конкурентоспособность NVIDIA на китайском рынке, несмотря на значительные потери выручки из-за торговых ограничений со стороны США. Основным конкурентом компании является Huawei, выпускающая чипы Ascend. По словам экспертов Oak Capital Partners, производительность китайских ускорителей достигнет показателей ослабленных моделей NVIDIA в течение года-двух, но NVIDIA сохранит преимущество благодаря программной экосистеме CUDA, сопоставимых альтернатив которой у Huawei пока нет. До 2022 года, т.е до ввода серьёзных экспортных ограничений со стороны США, доля NVIDIA на китайском рынке ускорителей составляла 95 %, а сейчас она упала до 50 % — об этом сообщил глава компании Дженсен Хуанг (Jensen Huang). Он также предупредил об неэффективности санкций и заявил, что продолжение ограничений приведёт к тому, что чипов Huawei будут покупать всё больше, а вместо того, чтобы замедлить развитие ИИ-индустрии Китая, американские власти способствуют её прогрессу. Новейшие экспортные ограничения в очередной раз коснулись пропускной способности памяти и интерконнекта, этот показатель чрезвычайно важен для ИИ-чипов. По оценкам инвестиционного банка Jefferies новые правила ограничивают пропускную способность на уровне 1,7–1,8 Тбайт/с. H20 обеспечивает 4 Тбайт/с. GF Securities прогнозирует, что GDDR7 позволит получить допустимые 1,7 Тбайт/с. По словам двух источников Reuters, NVIDIA создаёт ещё один чип на архитектуре Blackwell для Китая, производство которого должно начаться в сентябре, но его характеристики пока неизвестны.
26.05.2025 [11:21], Сергей Карасёв
Supermicro представила сервер SYS-822GS-NB3RT на базе NVIDIA HGX B300Компания Supermicro представила модель SYS-822GS-NB3RT на аппаратной платформе NVIDIA HGX B300 (Blackwell Ultra) для ресурсоёмких ИИ-нагрузок. Устройство выполнено в форм-факторе 8U и . Допускается установка двух процессоров Intel Xeon 6500P или 6700P поколения Granite Rapids с высокопроизводительными Р-ядрами. Доступны 32 слота для модулей оперативной памяти DDR5 с поддержкой MRDIMM-8000. Система имеет архитектуру 8-GPU. Во фронтальной части располагаются отсеки для восьми накопителей E1.S (NVMe) с возможностью горячей замены. Кроме того, есть два внутренних слота М.2 для NVMe SSD. Сервер оснащён двумя разъёмами PCIe 5.0 х16 FHHL для DPU NVIDIA BlueField-3. Упомянуты сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Supermicro позиционирует модель SYS-822GS-NB3RT в качестве передового «строительного блока» для формирования масштабных ИИ-кластеров с воздушным охлаждением. Компания Supermicro также сообщила о том, что в её ассортименте для заказа доступны более 20 систем, поддерживающих установку ускорителей NVIDIA RTX PRO 6000 Blackwell Server Edition с 96 Гбайт памяти GDDR7. Это, в частности, многоузловые серверы SuperBlade, компактные edge-решения, серверы типоразмера 5U с поддержкой до восьми GPU-карт, системы на модульной архитектуре NVIDIA MGX для ИИ-приложений и задач НРС, а также мощные рабочие станции.
25.05.2025 [13:19], Сергей Карасёв
ASUS показала компактный ИИ-суперкомпьютер Ascent GX10 и рабочую станцию ExpertCenter Pro ET900N G3 на базе BlackwellКомпания ASUS продемонстрировала настольные системы с ускорителями NVIDIA на архитектуре Blackwell. В частности, представлены компактный ИИ-суперкомпьютер Ascent GX10 и мощная рабочая станция ExpertCenter Pro ET900N G3 башенного типа. Устройство Ascent GX10 базируется на платформе NVIDIA DGX Spark. Установлен суперчип Grace Blackwell GB10, который содержит ускоритель Blackwell и процессор Grace с 20 ядрами Arm в конфигурации 10 × Arm Cortex-X925 и 10 × Arm Cortex-A725. Новинка обеспечивает ИИ-производительность до 1000 TOPS на операциях FP4. Компьютер располагает 128 Гбайт унифицированной системной памяти, что, как утверждает ASUS, позволяет работать с моделями ИИ, насчитывающими до 200 млрд параметров. В оснащение входит сетевой адаптер NVIDIA ConnectX-7 SmartNIC с двумя QSFP-портами. Также есть 10GbE-порт RJ45. Прочие технические характеристики не раскрываются — вероятно, они унаследованы у эталонного решения NVIDIA DGX Spark: это накопитель M.2 NVMe SSD, контроллеры Wi-Fi 7 и Bluetooth 5.3, порты USB 4 Type-C и HDMI 2.1a. Применяется NVIDIA DGX OS — модификации Ubuntu для работы с ИИ. Устройство предназначено прежде всего для прототипирования и настройки ИИ-моделей, а также инференса. В свою очередь, рабочая станция ExpertCenter Pro ET900N G3 получила ускоритель NVIDIA GB300 Grace Blackwell Ultra с 288 Гбайт памяти HBM3E. Есть 496 Гбайт памяти LPDDR5X в виде четырёх модулей SOCAMM. Упомянут сетевой адаптер NVIDIA ConnectX-8 SuperNIC. Заявленная ИИ-производительность достигает 20 Пфлопс в режиме FP4. Компьютер функционирует под управлением NVIDIA DGX OS. На фронтальную панель корпуса выведены порты USB и 3,5-мм аудиогнёзда. Предусмотрены слоты для флеш-карт.
24.05.2025 [00:47], Владимир Мироненко
Oracle потратит $40 млрд на покупку ИИ-чипов NVIDIA для техасского ЦОД StargateOracle закупит у NVIDIA высокопроизводительные ускорители на $40 млрд для нового гигантского ЦОД OpenAI в Абилине (Техас, США), который станет первым объектом проекта Stargate, сообщила газета The Financial Times. После завершения строительства мощность ЦОД составит 1,2 ГВт, что сделает площадку одной из крупнейших в мире. По словам источников The Financial Times, Oracle приобретёт для установки в этом ЦОД около 400 тыс. ИИ-ускорителей NVIDIA GB200. Объект будет введён в эксплуатацию в середине 2026 года, после чего Oracle возьмёт его в аренду на 15 лет и предоставит вычислительные мощности в аренду OpenAI. Владельцы площадки, Crusoe Energy и американская инвестиционная компания Blue Owl Capital, привлекли $15 млрд в форме заёмных средств и акционерного капитала. Весь кампус ЦОД будет включать восемь объектов. По словам осведомлённых источников, JPMorgan предоставил большую часть долгового финансирования по двум кредитам на общую сумму $9,6 млрд, включая кредит в размере $7,1 млрд, объявленный на этой неделе. Crusoe и Blue Owl по отдельности инвестировали в проект около $5 млрд. После завершения строительства ЦОД в Абилине будет соперничать по масштабам с ЦОД xAI Colossus, который вместит до 1 млн ускорителей NVIDIA. Большей частью в ЦОД используются более ранние и менее мощные версии ускорителей NVIDIA — H100 и H200. На этой неделе Маск заявил, что следующим этапом Colossus станет «первый гигаватный суперкластер для обучения ИИ». В свою очередь, Amazon строит в Северной Вирджинии дата-центр мощностью более 1 ГВт, а Meta✴ возводит 1,5-ГВт кампус в Луизиане. ![]() Источник изображения: Crusoe Energy Возведение ЦОД в Абилине станет важным шагом в реализации планов OpenAI по снижению зависимости от Microsoft. Ранее стартап полагался исключительно на вычислительные мощности софтверного гиганта, а большая часть почти $14 млрд инвестиций Microsoft в OpenAI была предоставлена в виде кредитов на облачные вычисления. OpenAI и Microsoft расторгли соглашение об эксклюзивности услуг и прав Microsoft после того, как выяснилось, что аппетиты стартапа на вычисления намного превышают возможности Microsoft. Сейчас партнёры ведут переговоры по поводу того, как долго Microsoft будет сохранять лицензионные права на модели OpenAI. OpenAI намерена расширить проект Stargate за пределы США, планируя построить крупный ЦОД в ОАЭ. Так, крупнейший ИИ ЦОД Stargate будет не в США — OpenAI и G42 планируют построить кампус ИИ ЦОД мощностью 5 ГВт в ОАЭ. Ранее сообщалось, что OpenAI обдумывает возможность инвестиций в строительство ИИ-инфраструктуры в Великобритании и Евросоюзе. Возможно, следующий кампус Stargate при поддержке SoftBank появится в Японии. Сейчас компания ищет новые площадки и партнёров в Азиатско-Тихоокеанском регионе.
23.05.2025 [13:33], Руслан Авдеев
Крупнейший ИИ ЦОД Stargate будет не в США: OpenAI и G42 построят 5-ГВт кампус в Абу-ДабиOpenAI и G42, поддерживаемая суверенным фондом благосостояния ОАЭ, построят в Объединённых Арабских Эмиратах (ОАЭ) 5-ГВт кампус ИИ ЦОД площадью почти 26 км2. В рамках сделки последняя планирует взаимные инвестиции «доллар за доллар» в ИИ-инфраструктуру США. Речь идёт о крупнейшем расширении проекта Stargate по созданию ИИ-инфраструктуры за пределы США, сообщает Bloomberg — проект значительно крупнее, чем 1,2-ГВт кампус Stargate в Абилине (Техас, США). Партнёрами в новом проекте являются SoftBank и Oracle, а также NVIDIA, которая поставит новейшие ускорители GB300, и Cisco, которая будет отвечать за сетевую инфраструктуру. Кампус ЦОД в ОАЭ значительно больше, чем не только любая площадка OpenAI, но и её ближайших конкурентов. Это позволит расширить сферу применения разработанных в США ИИ-решений за рубежом. Впрочем, G42 ранее была исторически связана с Китаем, поэтому существует риск утечки технологий с подрывом американской технологической мощи и национальной безопасности. Как заявил глава OpenAI Сэми Альтман (Sam Altman), создавая первые в мире кластеры Stargate в ОАЭ, компания претворяет смелые проекты в жизнь, помогая создавать новые технологии в самых разных сферах. В G42 назвали проект «значительным шагом в партнёрстве ОАЭ и США в области ИИ». Пока неизвестно, откуда кампус получит 5 ГВт, но проект будут реализовать в несколько этапов. Сначала будет построен кластер на 1 ГВт, первые 200 МВт введут в эксплуатацию в 2026 году. Всего OpenAI сможет использовать 1 ГВт из всех мощностей объекта в Абу-Даби, так что арендовать ЦОД смогут и другие компании. Примечательно, что в рамках партнёрства ОАЭ оплатит подписку ChatGPT Plus всем своим жителям. Также ИИ-инструменты будут интегрированы в государственные сервисы и сферы, включая энергетику и здравоохранение. Ранее известия о возможном строительстве ЦОД в ОАЭ обсуждали на уровне слухов, но информация об экспансии Stargate за пределы США ходит довольно давно. ![]() Источник изображения: Malik Shibly/unsplash.com Тем временем в США многие чиновники обеспокоены стратегическими последствиями вывода американских ИИ-технологий за рубеж. Не исключается угроза национальной безопасности при использовании передовых ускорителей странами, имеющими давние и глубокие связи с Китаем. Та же G42 почти всё время своего существования сотрудничала с Huawei и пообещала разорвать связи с КНР только для обеспечения партнёрства с Microsoft на сумму $1,5 млрд. Сделка подкреплялась межправительственным соглашением с конкретными положениями о национальной безопасности, закрывающими доступ Пекину к американским технологиям. Впрочем, некоторые американские чиновники до сих пор сомневаются, что G42 выполнит свою часть сделки. На вопрос о том, включает ли договор с OpenAI соглашение об обеспечении национальной безопасности, аналогичное соглашению с Microsoft, прямого ответа не последовало. Вместо этого источники подчёркивают, что все поставки передовых чипов в ОАЭ требуют экспортной лицензии в США. Такое требование действует с 2023 года для предотвращения утечки чипов в Китай. Хотя в последнее время экспорт либерализовали, определённые ограничения, особенно в отношении Китая, по-прежнему сохраняются. Дополнительно Вашингтон и Абу-Даби обсуждают соглашение, включающее строгий контроль за ИИ-оборудованием, во избежание его передачи в Китай. Также обсуждается ограничение обучения китайских моделей в ЦОД ОАЭ — не так давно появилась информация, что Поднебесная активно использует зарубежные облачные дата-центры для своих ИИ-проектов. Параллельно OpenAI ищет новые площадки в Азиатско-Тихоокеанском регионе, передаёт Bloomberg. Один из директоров компании намерен посетить, в частности, Австралию, Южную Корею, Японию, Индию и Сингапур, чтобы обсудить с представителями власти и бизнеса возможности развития ИИ-инфраструктуры и использования продуктов OpenAI. В Японии SoftBank Group и OpenAI уже создали совместное предприятие SB OpenAI для продвижения ИИ-сервисов в корпоративном секторе, а SoftBank планирует развернуть в стране новый ИИ ЦОД. Всего, как отмечается, интерес к размещению инфраструктуры OpenAI выразили более 30 стран.
22.05.2025 [16:36], Руслан Авдеев
Stargate: ЦОД OpenAI в Техасе вместит до 400 тыс. ускорителей BlackwellOpenAI выделила более $11,6 млрд дополнительных средств на строительство объекта OpenAI в техасском Абилине (Abilene), сообщает Inside HPC. Первый кампус Stargate будет включать восемь объектов вместо в двух в первоначальном варианте проекта. Каждое из восьми зданий получит до 50 тыс. ускорителей в составе платформ NVIDIA Blackwell GB200 NVL72. JPMorgan Chase инвестирует в проект более $7 млрд. Строительством совместно занимаются Crusoe Energy, Blue Owl Capital и Primary Digital Infrastructure. У компаний уже есть $11,6 млрд заёмных средств и акционерного капитала. Реализация первого этапа проекта началась в июне 2024 года, первые два 200-МВт объекта должны получить энергию в I половине 2025 года. Строительство в рамках второго этапа, которое началось в марте этого года, предусматривает создание ещё шести объектов и подведение 1 ГВт. Первые объекты второго этапа получит энергию в середине 2026-го, общая мощность кампуса в итоге составит 1,2 ГВт. Дата-центр, который по словам Сэма Альтмана (Sam Altman) будет крупнейшей в мире площадкой для обучения ИИ-моделей, должен заработать в следующем году, общие инвестиции в проект составят $15 млрд. Stargate поможет OpenAI снизить зависимость от Microsoft — последняя вложила порядка $13 млрд в компанию с 2019 года. Сама NVIDIA, по слухам, вложила в OpenAI $100 млн в прошлом году. Пока что в OpenAI разочарованы неспособностью Microsoft выделить достаточно ИИ-мощностей. В результате стартап заключил соглашение с Oracle об использовании площадки в Абилине после получения одобрения Редмонда. По имеющимся данным Oracle арендовала ЦОД на 15 лет. Сам кампус является частью Lancium Clean Campus принадлежащего Lancium. В долгосрочной перспективе OpenAI рассчитывает построить собственную сеть дата-центров, включая те, что предназначены для проекта Stargate стоимостью $100–$500 млрд.
22.05.2025 [16:30], Руслан Авдеев
800 В прямо к ускорителям: Infineon и NVIDIA разрабатывают архитектуру HVDC-питания для ИИ ЦОДInfineon Technologies объединит усилия с NVIDIA для разработки централизованной архитектуры высоковольтного питания постоянным током (HVDC) на 800 В. Она рассчитана на дата-центры, обслуживающие ИИ-системы. Речь идёт о первом в отрасли решении по переходу от децентрализованного к централизованному питанию серверных стоек, сообщает Converge. Впрочем, пока Infineon не будет отказываться от традиционных и переходных архитектур питания. По данным пресс-службы Infineon, новая архитектура предусматривает преобразование энергии непосредственно на уровне ускорителя, в пределах серверной платы — предполагается, что это позволит поддерживать будущие системы с энергопотреблением более 1 МВт на стойку. Централизованный подход направлен на сокращение этапов преобразования энергии, оптимизацию размещения оборудования в стойках для экономии пространства, а также повышение надёжности и масштабируемости ИИ-инфраструктуры. Современные ИИ ЦОД используют не вполне эффективные методы распределения питания. В настоящее время система электропитания в дата-центрах децентрализована, а энергоснабжение ИИ-чипов обеспечивается большим количеством блоков и модулей питания. Проблема охлаждения модулей питания в серверных стойках из-за их компактного размещения весьма распространена. Решением может быть вынос преобразователей питания за пределы стоек, что снижает тепловую нагрузку, повышая общую отказоустойчивость системы. Пока речь идёт о выносе модулей питания в отдельную стойку, но в будущем возможно использование единых 800-В шин для ЦОД целиком. ![]() Источник изображения: NVIDIA Использование высокоплотного централизованного распределения 800 В задаст новые стандарты энергоэффективности и масштабируемости, позволив оптимально использовать ограниченное пространство в серверных стойках. Изменение технологий происходит на фоне роста нагрузок в ИИ ЦОД, некоторые операторы уже эксплуатируют 100 тыс. ускорителей одновременно. Для поддержки новых технологий Infineon использует свой опыт в сфере силовых полупроводников на базе кремния, карбида кремния, нитрида галлия и др. ![]() Источник изображения: NVIDIA Другими словами, ключевыми особенностями проекта являются:
По словам Infineon, сочетание её знаний в сфере энергообеспечения и позиций NVIDIA в роли мирового лидера ИИ-индустрии прокладывает дорогу к созданию нового стандарта архитектуры питания дата-центров, позволяющего создавать быструю, эффективную и масштабируемую инфраструктуру. ![]() Традиционные системы. Источник изображения: NVIDIA Высоковольтные системы постоянного тока уже применялись в прошлом, но их внедрение, как сообщает NVIDIA, требует обеспечения безопасности эксплуатации, стандартизации и обучения персонала. NVIDIA и партнёры исследуют экономические и технологические аспекты перехода на 800 В, сравнивая традиционные трансформаторные решения с твердотельными (SST) модулями для оптимизации затрат и надёжности. ![]() Системы нового типа. Источник изображения: NVIDIA В самой NVIDIA утверждают, что новая архитектура обеспечивает масштабируемость от 100 кВт до 1 МВт, а энергоэффективность повысится на уровень до 5 % в сравнении с современными системами на 54/12 В. Попутно снизится использование меди, повысится надёжность и останется задел на будущее, поскольку 1 МВт на стойку — это не предел. Microsoft и Meta✴ пока что предлагают перейти на использование 400 В DC. Речь о системе Mt. Diablo, спецификации которой предоставляются участникам проекта Open Compute Project (OCP). Идея заключается в разделении стойки на независимые шкафы для компонентов подсистемы питания и вычислительного оборудования. Речь идёт о дезагрегированной архитектуре, позволяющей гибко регулировать мощность в соответствии с меняющимися требованиями. А Veir, к примеру, предлагает дата-центрам перейти на сверхпроводящие силовые кабели.
22.05.2025 [12:43], Сергей Карасёв
ASRock Rack показала серверы NVIDIA HGX B300 и систему XGMRACK GB300 NVL72Компания ASRock Rack в рамках выставки Computex 2025 представила серверы нового поколения, оснащённые ИИ-ускорителями NVIDIA на архитектуре Blackwell. Кроме того, демонстрируются другие индустриальные и корпоративные продукты, включая материнские платы и системы с процессорами AMD и Intel. В число новинок вошёл сервер ASRock Rack 8U16X-GNR2 типоразмера 8U с воздушным охлаждением. Он выполнен на платформе NVIDIA HGX B300. По заявления разработчика, достигается в семь раз более высокая ИИ-производительность по сравнению с сопоставимыми системами, оборудованными ускорителями NVIDIA на архитектуре Hopper. Суммарный объём памяти HBM3e составляет около 2,3 Тбайт. Задействованы сетевые адаптеры NVIDIA ConnectX-8 SuperNIC. Кроме того, ASRock Rack готовит к выпуску сервер 4U16X-GNR2 на базе NVIDIA HGX B300 с жидкостным охлаждением. Обе модели ориентированы на ресурсоёмкие рабочие ИИ-нагрузки, такие как агентные системы, рассуждающие модели и генеративные сервисы. На стенде ASRock Rack представлено стоечная система XGMRACK на основе NVIDIA GB300 NVL72. Она объединяет 36 чипов NVIDIA Grace и 72 ускорителя NVIDIA Blackwell Ultra. Вычислительные и коммутационные узлы используют на 100 % жидкостное охлаждение. Общий объём памяти HBM3e превышает 20 Тбайт. Применяются решения NVIDIA Quantum-X800 InfiniBand и Spectrum-X Ethernet. ASRock Rack также представила серверы на модульной архитектуре NVIDIA MGX для масштабируемых ИИ-приложений и периферийных вычислений. В число таких машин входит модель 4UXGM-GNR2 типоразмера 4U с поддержкой двух процессоров Intel Xeon 6700P, 6500P (Granite Rapids) или Xeon 6700E (Sierra Forest). Доступны 32 слота для модулей оперативной памяти DDR5-6400, 16 посадочных мест для накопителей E1.S с интерфейсом PCIe 5.0 x4, два коннектора М.2 22110/2280 для SSD (PCIe 5.0 x4 и PCIe5.0 x2), восемь слотов PCIe 5.0 x16 FHFL, пять слотов PCIe 5.0 x16 FHHL и один слот PCIe 5.0 x16 HHHL. Установлены контроллер ASPEED AST2600 и четыре блока питания мощностью 1200 Вт с сертификатом 80 PLUS Titanium. |
|