Материалы по тегу:

19.11.2025 [01:11], Владимир Мироненко

$30 млрд и 1 ГВт: Microsoft, NVIDIA и Anthropic договорились о сотрудничестве

Microsoft, NVIDIA и Anthropic объявили о стратегическом партнёрстве, которое включает ряд новых инициатив. Как сообщается, Anthropic взяла на себя обязательство приобрести вычислительные мощности Azure стоимостью $30 млрд и заключить контракт на поставку дополнительных вычислительных мощностей объёмом до 1 ГВт для обеспечения будущих потребностей в масштабировании. В рамках партнёрства NVIDIA и Microsoft также обязуются инвестировать в Anthropic до $10 и $5 млрд соответственно.

Компании также расширят существующее партнёрство, чтобы обеспечить предприятиям более широкий доступ к ИИ-модели Claude. Клиенты Microsoft Azure AI Foundry смогут получить доступ к продвинутым (frontier) версиям модели Claude, включая Claude Sonnet 4.5, Claude Opus 4.1 и Claude Haiku 4.5. Это партнёрство делает Claude единственной frontier-моделью LLM, доступной во всех трёх самых известных облачных сервисах мира.

Также Claude будет интегрирована в пакет Copilot, включающий GitHub Copilot, Microsoft 365 Copilot и Copilot Studio. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) отметил, что акцент Microsoft на корпоративные платформы естественным образом подходит Claude, которая часто используется в бизнес-приложениях, пишет The Wall Street Journal.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках стратегического партнёрства Anthropic и NVIDIA будут сотрудничать в области проектирования и инжиниринга с целью обеспечения наилучшей производительности, экономичности и общей стоимости владения для моделей Anthropic, а также оптимизации будущих архитектур NVIDIA для рабочих нагрузок Anthropic. Первоначально Anthropic будет использовать вычислительные системы NVIDIA Grace Blackwell и Vera Rubin мощностью до 1 ГВт.

Аналитики Bank of America утверждают, что эти, на первый взгляд, цикличные сделки являются для лидеров отрасли способом расширить свой потенциальный целевой рынок, что «может многократно увеличить будущие выгоды». Как отметил ресурс Converge! Network Digest, с учётом нынешнего объявления портфель обязательств Microsoft в области ИИ теперь превышает $100 млрд, включая контракты с OpenAI, Inflection и Anthropic. Эти долгосрочные соглашения помогают Microsoft обосновать ускоренное строительство ИИ ЦОД, закупки электроэнергии и развёртывание ИИ-систем. Сделка также укрепляет позиции Azure по сравнению с AWS, запустившей для Anthropic ИИ-кластер Project Rainier, и Google Cloud, TPU которой также пользуется Anthropic.

Постоянный URL: http://servernews.ru/1132592
18.11.2025 [23:59], Владимир Мироненко

Arm добавила Neoverse поддержку NVIDIA NVLink Fusion

Arm объявила о расширении возможностей платформы Neoverse с помощью NVIDIA NVLink Fusion в рамках партнёрства с NVIDIA, обеспечивая всей экосистеме ту же производительность, пропускную способность и эффективность, которые впервые были реализованы на платформах Grace Hopper и Grace Blackwell. «NVLink Fusion — это связующее звено эпохи ИИ, объединяющее все CPU, GPU и ускорители в единую архитектуру стоечного масштаба», — заявил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA.

Как сообщается в пресс-релизе, два года назад Arm и NVIDIA представили платформу Grace Hopper, в которой технология NVLink обеспечила согласованную интеграцию CPU и GPU. NVLink Fusion обеспечивает компаниям возможность подключать вычислительные системы на базе Arm к предпочитаемым ими ускорителям через согласованный интерфейс с высокой пропускной способностью.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Устойчивый спрос на Grace Blackwell способствует распространению NVLink Fusion во всей экосистеме Neoverse, позволяя партнёрам создавать дифференцированные, энергоэффективные ИИ-системы на базе Arm, отвечающие современным требованиям к производительности и масштабируемости. Arm отметила, что на текущий момент развёрнуто более чем 1 млрд ядер Neoverse и уверенно движется к достижению 50 % доли рынка среди ведущих гиперскейлеров к 2025 году. Все крупные провайдеры — AWS, Google, Microsoft, Oracle и Meta — используют Neoverse, а ИИ ЦОД следующего поколения, такие как проект Stargate, используют Arm как основную вычислительную платформу.

NVLink Fusion совместим с технологией AMBA CHI C2C (Coherent Hub Interface Chip-to-Chip) компании Arm, которая обеспечивает когерентное высокоскоростное соединения между CPU и ускорителями. Arm внедряет в платформу Neoverse последнюю версию протокола AMBA CHI C2C, чтобы SoC Neoverse могли беспрепятственно передавать данные между CPU Arm и ускорителями. Благодаря этому обеспечивается более быстрая интеграция, более быстрый вывод на рынок и большая гибкость для разработчиков ИИ-систем нового поколения.

В свою очередь, NVIDIA работает над стандартизацией многих компонентов в этих системах для повышения надёжности и времени безотказной работы. С этой целью в CPU NVIDIA Vera следующего поколения будут использоваться кастомные ядра Arm вместо ядер Neoverse. Fujitsu также разрабатывает собственные Arm-процессоры MONAKA-X, которые тоже получат NVLink Fusion. NVLink Fusion получат и x86-процессоры Intel.

Постоянный URL: http://servernews.ru/1132589
18.11.2025 [17:07], Руслан Авдеев

Евросоюз рассматривает необходимость ограничения возможностей американских облачных гигантов

Евросоюз рассматривает возможность ужесточения контроля за деятельностью облачных гигантов AWS, Microsoft Azure и Google Cloud, передаёт Bloomberg. Анитимонополные регуляторы намерены принять решение, следует ли ввести дополнительные ограничения для кого-либо из этих гиперскейлеров в соответствии с действующим в ЕС законом Digital Markets Act (DMA), сообщает издание со ссылкой на источники, «знакомые с ситуацией».

План расследования разработан после ряда крупных сбоев в облачном секторе — они привели к хаосу в работе глобальных служб и стали дополнительным свидетельством того, что не стоит опираться лишь на нескольких крупных игроков. Речь о крупных сбоях AWS и Microsoft Azure.

Пока облачные гиперскейлеры не подпадали под действие DMA, поскольку большая часть их деятельности связана с корпоративными контрактами, что затрудняет подсчёт индивидуальных пользователей их сервисов. Именно их количество может послужить для ЕС одним из главных оснований для введения дополнительного надзора за облачными сервисами из США.

 Источник изображения: Jon Del Rivero/unspalsh.com

Источник изображения: Jon Del Rivero/unspalsh.com

В рамках расследования регуляторы оценят, стоит ли заставлять ведущих операторов брать на себя новые обязательства, включая повышение уровня совместимости с конкурирующим ПО (что особенно актуально для Microsoft) и упрощение переноса данных пользователей от одного облачного провайдера к другому. Кроме того, не исключены запреты на обязательную продажу пакетов услуг или ПО без возможности купить их по отдельности, а также ограничения на стимулирование подобных «пакетных» продаж. Еврокомиссия и представители гиперскейлеров ситуацию пока не комментируют.

Закон DMA, принятый ЕС в 2023 году, призван ограничить деятельность крупнейших IT-гигантов, устанавливая ряд правил и запретов. Пока они не применялись против крупных облачных провайдеров, контролирующих значительную долю рынка. Если облачные сервисы в итоге будут признаны подпадающими под правила DMA, штрафы за их нарушения могут быть весьма чувствительными даже для гиперскейлеров. Например, Apple и Meta уже почувствовали жёсткость закона на себе, заплатив штрафы €500 млн ($579 млн) и €200 млн ($231 млн) соответственно.

Постоянный URL: http://servernews.ru/1132555
18.11.2025 [16:55], Владимир Мироненко

d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptor

d-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий.

Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset.

Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он.

d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM.

По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок.

Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации.

AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.

Постоянный URL: http://servernews.ru/1132561
18.11.2025 [16:20], Руслан Авдеев

Google проложит интернет-кабель Dhivaru и создаст два телеком-хаба на островах в Индийском океане

Компания Google анонсировала прокладку подводного кабеля Dhivaru соединяющего Мальдивы, Остров Рождества и Оман. Инвестиции стали развитием инициативы Australia Connect и помогут расширить охват, повысить надёжность и устойчивость связи в регионе. Примечательно, что Google буквально на днях сообщала о намерении построить на Острове Рождества ИИ ЦОД для военных. Утверждается, что внедрение передовых сервисов вроде Gemini 2.5 Flash Image (Nano Banana) и Vertex AI требует надёжного интернет-соединения, поэтому новые цифровые магистрали чрезвычайно важны для пользователей.

Дополнительно Google будет вкладывать средства в создание телеком-хабов на Мальдивах и Острове Рождества — они идеально подойдут для улучшения связи в Африке, на Ближнем Востоке, Южной Азии и Океании. Телеком-хабы стали для компании объектами стратегических инвестиций, призванных развить региональную связь и ускорить предоставление услуг нового поколения с помощью кабельной коммутации, кеширования контента и колокейшн-возможностей в ЦОД гиперскейлера для местных операторов и компаний.

На Мальдивах подчёркивают, что решение Google инвестировать в местную инфраструктуру — «мощный сигнал доверия» к инвестиционной среде страны. Представители телеком-оператора Ooredoo Maldives отметили, что рады сотрудничать с Google в обеспечении новой волны цифровой трансформации. В проекте участвует и другой местный оператор — Dhiraagu.

 Источник изображения: Google

Источник изображения: Google

В компании отметили, что тщательно выбирают местоположение хабов для того, чтобы информация проходила минимальный путь перед коммутацией. Такие хабы также позволяют автоматически перенаправлять трафик между несколькими кабелями, например — в случае сбоя в работе одного из них, что минимизирует время простоя для сервисов и пользователей всего региона. В частности, Остров Рождества (Кристмас) будет связан с Австралией сразу двумя кабелями, один из которых (Bosun) построит Google.

Говоря о кабелях, Google утверждает, что те очень энергоэффективны. В результате даже при поддержке нескольких кабелей, хранилища контента и размещения чужого оборудования, телеком-хаб Google потребляет значительно меньше энергии, чем обычный ЦОД. В первую очередь такие хабы ориентированы на сетевые возможности и локальное хранение данных, а не на ИИ, облачные нагрузки и др. Дополнительно Google стимулирует местные инициативы по развитию возобновляемой энергетики.

Постоянный URL: http://servernews.ru/1132563
18.11.2025 [16:01], Руслан Авдеев

Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной Корее

Компании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект.

На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября.

Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.

 Источник изображения:  Yu Kato/unsplash.com

Источник изображения: Yu Kato/unsplash.com

Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики.

Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.

Постоянный URL: http://servernews.ru/1132535
18.11.2025 [13:36], Сергей Карасёв

ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлаждения

Компания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL.

 Источник изображений: Giga Computing

Источник изображений: Giga Computing

Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена.

Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub.

За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей.

Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.

Постоянный URL: http://servernews.ru/1132550
18.11.2025 [12:43], Руслан Авдеев

Crusoe завершила строительство последнего здания первого кампуса Stargate

Завершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением.

Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт.

В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.

Постоянный URL: http://servernews.ru/1132540
18.11.2025 [10:54], Сергей Карасёв

Начался монтаж крупнейшего в США академического суперкомпьютера Horizon с ИИ-быстродействием до 80 Эфлопс

Национальный научный фонд США (NSF) объявил о начале монтажа вычислительно комплекса Horizon — крупнейшего в стране академического суперкомпьютера. Система расположится в Техасском центре передовых вычислений (TACC) при Техасском университете в Остине (UT Austin).

Проект реализуется в сотрудничестве с Dell, NVIDIA, VAST Data, Spectra Logic, Versity и Sabey Data Centers. Суперкомпьютер будет развёрнут в новом дата-центре мощностью 15–20 МВт с передовым жидкостным охлаждением в Раунд-Роке (штат Техас).

В основу системы лягут серверы Dell PowerEdge. Говорится об использовании процессоров NVIDIA Vera и суперчипов NVIDIA Grace Blackwell. В общей сложности будут задействованы около 1 млн CPU-ядер и примерно 4 тыс. GPU. Архитектура предусматривает использование интерконнекта NVIDIA Quantum-2 InfiniBand. Вместимость локального хранилища данных, выполненного исключительно на основе SSD, составит 400 Пбайт. Оно обеспечит пропускную способность при чтении/записи более 10 Тбайт/с.

 Источник изображения: TACC

Источник изображения: TACC

Заявленная производительность Horizon — 300 Пфлопс: это примерно в 10 раз больше по сравнению с системой Frontera, которая в настоящее время является самым мощным академическим суперкомпьютером в США. При выполнении ИИ-задач новый вычислительный комплекс обеспечит быстродействие до 20 Эфлопс на операциях BF16/FP16 и до 80 Эфлопс в режиме FP4 — более чем 100-кратный прирост по сравнению с нынешними машинами, которые эксплуатируются в американских академических кругах. При этом говорится о повышении энергетической эффективности до шести раз.

Запуск Horizon запланирован на весну 2026 года. Суперкомпьютер будет использоваться для решения сложных и ресурсоёмких задач в таких областях, как биомедицина, физика, энергетика, экология и пр. В частности, система будет применяться для моделирования климата.

Постоянный URL: http://servernews.ru/1132532
18.11.2025 [01:10], Игорь Осколков

Европа присоединилась к экзафлопсному клубу с суперкомпьютером JUPITER

Европейский суперкомпьютер JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) в Юлихском исследовательском центре (FZJ) в Германии официально преодолел важную отметку — FP64-производительность его GPU-модуля Booster достигла ровно 1 Эфлопс при пиковой теоретической 1,227 Эфлопс. Таким образом в нынешнем рейтинге TOP500 он занял четвёртое место, совсем чуть-чуть не дотянув до суперкомпьютера Aurora с его 1,012 Эфлопс.

Впервые машина попала в июньский рейтинг TOP500 с показателем 793 Пфлопс, но тогда она не была полностью готова. Официальный запуск состоялся лишь в сентябре. Впрочем, за прошедшие с момента выхода прошлого рейтинга его лидер El Capitan тоже нарастил мощность, с 1,742 Эфлопс до 1,809 Эфлопс. Frontier же остался на втором месте с показателем 1,353 Эфлопс, хотя изначально он «дотягивался» только до 1,102 Эфлопс. Таким образом, JUPITER формально стал первой публичной экзафлопсной системой за пределами США, если не брать в расчёт китайские системы, о которых КНР предпочитает не распространяться. Мощные суперкомпьютеры, не участвующие в TOP500, бывали и раньше, но вот есть ли среди них машина такого класса, остаётся только гадать.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Так что если через полгода не будет развёрнут ещё какой-нибудь крупный суперкомпьютер, что вполне реально с нынешними возможностями (нео-)облаков, то JUPITER наверняка поднимется в рейтинге на строчку выше. Сейчас Booster включает порядка 6 тыс. узлов BullSequana XH3000 с 24 тыс. ускорителей GH200 в Quad-исполнении, объединённых 200G-интерконнектом InfiniBand NDR. Ещё приблизительно 5 Флопс в FP64 JUPITER получит от CPU-модуля cCuster из 1300 узлов с 2600 Arm-процессорам SiPearl Rhea1 с 80 ядрами и 64 Гбайт HBM2e. Узлы и интерконнект будут использоваться те же, что в Booster. Однако выпуск этих процессоров только-только начался, так что апгрейд будет завершён только в следующем году. TOP500 в целом в этот раз новизной технологий не блещет, отражая скорее типичный цикл обновления систем.

 Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Источник изображения: Forschungszentrum Jülich / Sascha Kreklau

Всего в ноябрьском рейтинге появилось 45 новых машин. Самая крупная из них — 135,4-Пфлопс CHIE-4, построенная для SoftBank на базе NVIDIA DGX B200 с InfiniBand NDR400 — занимает аж 17 позицию. Она же единственная пополнила первую десятку рейтинга HPCG с результатом 3760,55 Тфлопс, где заняла шестую позицию. Из необычных новинок можно выделить суперкомпьютер MAXIMUS-384 на 20 месте (114,5 Пфлопс), который объединил Intel Xeon Emerald Rapids и AMD Instinct MI300X. Впрочем, вторая во всём списке и уже не такая новая система с MI300X — IronMan — объединяет их с Sapphire Rapids.

 Источник изображения: TOP500

Источник изображения: TOP500

От России в TOP500 попали пять суперкомпьютеров (три от Яндекса и два от Сбера), которые если и обновляли с момента последнего официальной заявки на вхождение в рейтинг, то вряд ли бы стали громко и публично об этом рассказывать. Зато у соседнего Казахстана есть сразу две машины. На 86 позиции с производительностью 20,48 Пфлпос находится Alem.Cloud, на 103 — AI-Farabium с 17,93 Пфлопс. Обе системы используют сочетание Xeon Emerald Rapids, NVIDIA H200 (SXM) и 400G-интерконнект, но первая получила Ethernet, а вторая — InfiniBand NDR.

В Green500 существенных изменений тоже не наблюдается. Ровно половину первой десятки занимают машины с NVIDIA GH200. В общей массе чипы NVIDIA тоже доминируют. При этом первая система без ускорителя занимает аж 105 строчку, и до 113 позиции это сплошь Fujitsu A64FX, лежащие в основе Fugaku. Всего TOP500 уже более половины машин оснащены ускорителями. Но от ожидаемого ранее уровня роста производительности весь рейтинг отстаёт на протяжении уже пяти лет. С другой стороны, и фокус сейчас сместился на ИИ, а новым кластерам некогда участвовать в ненужных для них рейтингах.

Постоянный URL: http://servernews.ru/1132529

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus