Материалы по тегу: суперкомпьютер

03.08.2020 [20:44], Илья Коваль

HPE анонсировала серию суперкомпьютеров Cray EX экзафлопсного класса

HPE официально представила новые суперкомпьютеры под дочерним брендом Cray: суперкомпьютер HPE Cray EX с жидкостным охлаждением и суперкомпьютер HPE Cray на базе привычной системы 19” шасси HPE Apollo 2000 Gen10 Plus с воздушным охлаждением. Суперкомпьютер HPE Cray EX в базовой конфигурации предлагает узлы с восемью процессорами AMD EPYC Rome 7002, но, в целом, поддерживает установку CPU и GPU мощностью более 500 Вт. А 2U-шасси «обычного» Cray вмещают до 4 узлов на базе всё тех же EPYC Rome.

Стойка Cray EX вмещает до 64 узлов и 512 процессоров, а для Cray используется стандартная стойка 42U, вмещающая до 20 шасси HPE Apollo 2000 десятого поколения и 80 процессоров соответственно. Так как HPE не забросила концепцию Cray Shasta, в будущем стоит ожидать появления узлов с GPU, FPGA, ИИ-ускорителями, ARM-процессорами и другими блоками — от гетерогенных вычислений компания не отказывается. Общими для всех суперкомпьютеров HPE, в независимости от конкретного исполнения шасси, являются несколько компонентов: интерконнект HPE Slingshot, СХД ClusterStor и программный стек HPE Cray Software Stack.

Последний отчасти будет доступен и для обычных серверов HPE. Он включает системы управления суперкомпьютером, защищённую ОС Cray OS с низким джиттером и набор HPE Cray Programming Environment, упрощающий разработку HPC-приложений. Отличительной чертой является активное использование контейнеров, что упрощает развёртывание и управление нагрузками, позволяет более полно использовать ресурсы машины и при необходимости легко переносить задачи между машинами и/или в облако.

Интерконнект HPE Slingshot предоставляет стандартные по современным мерка порты 200 Гбит/c. 64-портовые коммутатор доступные как в виде «лезвий» для Cray EX, так и в виде 2U-узлов. Использование топологии DragonFly позволяет объединить до 250 тыс. точек подключения таким образом, что сигнал между любыми двумя точками проходил не более чем через три коммутатора. Это особенно важно для сохранения низкого уровня задержек, так как именно быстрый интерконнект и отличает суперкомпьютер от обычного кластера серверов.

Наконец, для хранения HPE предлагает СХД серии CluterStor E1000, которая в варианте all-flash предлагает производительность на уровне 1,6 Тбайт/с и 50 млн IOPS на стойку. Основана она, кстати, тоже на процессорах AMD EPYC Rome. Благодаря большому количеству линий PCI-E 4.0 они позволяют объединить быстрые SSD и быстрые же сетевые адаптеры. Ну а всё вместе — вычислительные узлы, интерконнект, СХД и программный стек — это позволит создавать суперкомпьютеры экзафлопсного класса.

Таким образом, после объединения и интеграции линеек оборудования поглощение Cray компанией HPE можно считать полностью завершённым. Вместе с технологиями Cray HPE получила и контракты. Наиболее важными являются три машины экзафлопсного класса. Две из них используют решения AMD (CPU + GPU) — El Capitan (> 2 Эфлопс, 2023 год) и Frontier (1,5 Эфплос, 2021 год) — и ещё одна, Aurora (> 1 Эфлопс, 2021 год), базируется на ещё не вышедших CPU и GPU Intel. Благодаря столь удачной и своевременной покупке HPE заметно укрепила свои позиции на рынке HPC.

Постоянный URL: http://servernews.ru/1017335
29.07.2020 [22:04], Алексей Степин

Google похвасталась самым быстрым ИИ-суперкомпьютером на базе TPU v4

Но с такой формулировкой согласятся не все, потому что результаты опубликованного сегодня рейтинга ML Perf 0.7 можно интерпретировать слегка по-разному. Например, NVIDIA говорит о самом быстром суперкомпьютере — на базе A100, конечно — среди коммерчески доступных решений. Тогда как Google использовала в тестах не анонсированные официально тензорные ускорители TPU v4.

Когда речь идёт о системах машинного интеллекта, обычно подразумевается либо использование уже натренированных нейросетей, либо процесс тренировки новой сети. Последний требует на порядки больше вычислительных возможностей и подразумевает использование мощных многоядерных систем. Для оценки производительности зачастую и применяется набор тестов MLPerf.  Что касается полного списка участников MLPerf 0.7 c подробными результатами, то он есть на сайте проекта MLPerf.

Разработкой собственных ускорителей машинного обучения Google занимается давно: ещё в 2017 году мы описывали одну из первых моделей TPU, способную быстро перемножать матрицы размером 256 × 256. Ещё недавно третья версия TPU установила ряд рекордов именно в области «натаскивания» нейросетей. Основой системы-рекордсменки тогда стал модуль Cloud TPU Pod, каждый из таких модулей содержал более 1000 чипов Google TPU и развивал свыше 100 Пфлопс.

Результаты, опубликованные Google. Серые столбики — быстрейшие соперники, не относящиеся к Google

Результаты, опубликованные Google. Серые столбики — быстрейшие соперники, не относящиеся к Google

Главным конкурентом Google в этой области можно назвать NVIDIA, которая также уделяет весьма серьёзное внимание развитию ИИ-ускорителей. Даже решения на базе V100 легко конкурировали с Google TPU v3, а новейшие A100 на базе архитектуры Ampere продемонстрировали в MLPerf Training ещё более высокий уровень производительности.

Google TPU v3 и v4 против NVIDIA и Huawei. Источник: ExtremeTech

Google TPU v3 и v4 против NVIDIA и Huawei. Источник: ExtremeTech

Однако Google сдаваться не собирается и подразделение Google Research опубликовало результаты нового тестирования MLPerf Training 0.7, основой которого стали ещё не анонсированные официально тензорные сопроцессоры TPU v4. Повергнуть в прах A100 во всех тестах не удалось, но соперничество вышло вполне достойное: в некоторых сценариях быстрее всё же оказалась NVIDIA, но в других вперёд вышла разработка Google.

NVIDIA, в свою очередь, сообщает о 16 рекордах при использовании новейших DGX A100 и отдельно отмечает, что её продукты доступны для приобретения (и запуска любых тестов ML Perf или реальных нагрузок), тогда как результаты конкурентов зачастую или неполны, или получены на оборудовании, имеющем экспериментальный характер или которое невозможно приобрести прямо сейчас.

Новая тест-платформа Google TPU содержит в четыре раза больше ИИ-сопроцессоров, их число достигает 4096

Новая тест-платформа Google TPU содержит в четыре раза больше ИИ-сопроцессоров, их число достигает 4096

Для тестирования использовались реализации ИИ-моделей на TensorFlow, JAX, PyTorch, XLA и Lingvo. Четыре из восьми моделей удалось «натаскать» менее чем за 30 секунд, что является весьма впечатляющим результатом. Для сравнения, в 2015 на современном тому времени «железе» аналогичный процесс обучения занял бы более трёх недель. В целом TPU v4 обещает быть в 2,7 раза быстрее TPU v3, но все точки над i расставит официальный анонс четвёртой итерации сопроцессора Google.

Более подробная информация о тестировании MLPerf 0.7 содержится в официальном блоге Google Cloud. Там же можно найти и детали о системах на базе TPU, но эта информация пока ограничена третьей версией чипа. Пока известно, что четвёртое поколение TPU более чем в два раза быстрее на операциях перемножения матриц, может похвастаться более быстрой подсистемой памяти и имеет усовершенствованную систему интерконнекта.

Постоянный URL: http://servernews.ru/1016976
28.07.2020 [18:10], Алексей Степин

Российские суперкомпьютеры РСК попали в свежий рейтинг IO500

Виртуальный институт подсистем ввода-вывода (Virtual Institure for I/O, VI4IO) начал свою деятельность в 2016 году. Целью этой некоммерческой открытой организации стало предоставление платформы для обмена информацией в области исследований, касающихся I/O-подсистем суперкомпьютеров и кластерных систем. В этом году, по результатам проведённых исследований, VI4IO представила первый официальный рейтинг IO500, который обещает стать столь же популярным, как и TOP500 и Green500.

Официальный логотип нового рейтинга IO500

Теперь для попадания системы с IO500 существует стандартизированный набор правил и тестов, включающих в себя такие компоненты, как подтесты на чистую пропускную способность, на производительность при работе с метаданными и на скорость поиска в пространстве имён (namespace).

Сам набор тестов открытый, проект имеет собственный репозиторий на GitHub, там же содержится полная инструкция по запуску и получению результатов. Комплект IO500 построен на основе существующих популярных бенчмарков и имеет модульную структуру. Благодаря поддержке плагинов возможно тестирование различных альтернативных систем хранения данных.

Российские системы мы отметили красным

Российские системы мы отметили красным

Ранние результаты в официальный список IO500 не входят, поскольку с 2017 года правила менялись, но в нём присутствуют результаты с конференций SC19 и ISC 2020. Несмотря на все успехи ARM в сфере супервычислений, первое место в рейтинге всё же принадлежит Intel с её системой Wolf, способной развивать свыше 8,6 миллионов IOPS и продемонстрировавшей линейную скорость более 370 Гбайт/с. Высокое место занял и китайский комплекс Tianhe-2E, который также базируется на архитектуре x86.

Говорун стал отличаться ещё большим умом и сообразительностью после апгрейда 2018 года

В список попали и российские системы, разработанные, созданные и введённые в строй группой компаний РСК. Это гетерогенный суперкомпьютер «Говорун», установленный в ОИЯИ и одна из систем серии «Торнадо», располагающаяся в СПбПУ, занимающие 17 и 22 место соответственно. «Говорун» базируется на процессорных компонентах Intel Xeon Phi и Xeon Scalable в сочетании с узлами NVIDIA DGX-1 Volta. Система СПбПУ также имеет гетерогенную архитектуру, но в качестве ускорителей в ней применены NVIDIA Tesla K40X. В обоих случаях в качестве файловой системы используется Lustre.

С результатами IO500 можно ознакомиться на сайте проекта, там же есть и информация о том, как считается и формируется рейтинг.

Постоянный URL: http://servernews.ru/1016841
27.07.2020 [18:43], Илья Коваль

Экзафлопс на перепутье: задержка Intel в освоении новых техпроцессов может повлиять на сроки запуска суперкомпьютера Aurora

Основной темой обсуждений в СМИ пятничного доклада Intel о состоянии дел во втором квартале стало признание проблем с освоением техпроцесса 7 нм и связанные с этим задержки выхода продуктов на его основе, которые могут составить от 6 до 12 месяцев. И одним из таких продуктов является ускоритель Ponte Vecchio, который должен стать ключевым компонентом суперкомпьютера Aurora.

Впрочем, у данной машины, создаваемой для Аргоннской национальной лаборатории (Argonne National Laboratory), непростая судьба. Изначально анонс суперкомпьютера Aurora состоялся в 2015 году. Прежний проект предполагал построением силами Intel и Cray машины производительностью 180 Пфлопс, которая должна была заработать в 2018 году. Основной для ней должны были стать 10-нм чипы Xeon Phi семейства Knights Hill (KNH), выход которых был запланирован на всё тот же 2018 год. Как мы теперь знаем, ни своевременного освоения 10 нм, ни ускорителей KNH компания сделать не смогла. Более того, в конце концов развитие Xeon Phi было остановлено, а финальные партии последнего поколения Knights Mill будут отгружены в конце июля. Та же судьба постигла анонсированный вместе с KNH интерконнект Omni-Path (OPA).

В конце 2017 года произошло сразу три важных для Aurora события. Во-первых, проект суперкомпьютера был полностью переработан — запуск был перенесён на 2021 год, а запланированная производительность поднялась до отметки в 1 Эфлопс. По задумке, Aurora должна была стать самым лучшим и производительным суперкомпьютером в США, а то и в мире. Вместо Xeon Phi, и это во-вторых, для него было запланировано использование ускорителей нового поколения, которые теперь известные как Intel Xe Ponte Vecchio. В-третьих, в Intel перешёл Раджа Кодури (Raja Koduri), который возглавил группу разработки дискретных GPU.

Старая презентация Aurora

Старая презентация Aurora

Очевидным выходом из сложившейся ситуации является обращение к сторонним фабрикам, которые уже освоили необходимые норма. В первую очередь речь идёт, конечно, о TSMC, которая обслуживает конкурирующие AMD и NVIDIA. Сообщается, что Intel разместила на TSMC заказ на 180 тыс. 6-нм (но не 5-нм, как ожидалось) пластин. Ранее Intel использовала TSMC в основном для производства относительно простых и недорогих чипсетов и SoC, а также FPGA. Для сравнения — объём заказов AMD составляет 200 тыс. пластин. Какие именно продукты и компоненты будут производиться на стороне, точно не говорится, хотя в ходе квартального доклада Intel упоминала о разнородных кристаллах в Ponte Vecchio, часть из которых действительно можно было бы отдать стороннему подрядчику.

Архитектура Ponte Vecchio действительно является модульной и предполагает подбор необходимых вычислительных блоков в зависимости от задачи и предназначения устройства. При этом до конца не ясно, предполагается ли многочиповая компоновка для таких блоков или же нет. В прошлогодней презентации Intel Xe HPC, которые и будут установлены в Aurora, явно говорилось только о подключении HBM2-памяти посредством EMIB, а также об упаковке Foveros для формирования Rambo Cache, кеша общей шины XE Memory Fabric, объединяющей CPU, GPU и память.

В комментарии изданию insideHPC аналитик Hyperion Research Стив Конвей (Steve Conway) отмечает, что «запуск Aurora может быть перенесён на конец 2021 года или на самое начало 2022. Это не слишком большая задержка, но всё-таки задержка. <…> Проблемы с техпроцессом касаются не только GPU, но и вообще всех 7-нм компонентов». Конвей говорит, что Intel, по-видимому, будет отдавать часть производства на аутсорс, но только в начальный период времени. Нельзя не отметить, что серверный сегмент важен для Intel.

Новая Aurora

Новая Aurora

В любом случае, эта ситуация может положительно сказаться на AMD. По словам аналитика, нынешние 7-нм AMD EPYC хороши с точки зрения пропускной способности памяти, а цена на эти процессоры зачастую меньше. Комбинация этих двух факторов способствует росту. Сейчас на базе решений AMD (CPU + GPU) разрабатываются два суперкомпьютера: El Capitan с производительностью более 2 Эфлопс, ввод в строй которого намечен на 2023 год, и Frontier мощностью 1,5 Эфплос, который должен быть запущен в следующем году. Как и в случае Aurora, подрядчиком в обоих проектах выступает Cray (теперь уже HPE).

Постоянный URL: http://servernews.ru/1016740
23.07.2020 [17:55], Владимир Мироненко

Планы Европы выйти в лидеры по суперкомпьютингу под угрозой — нет денег

Амбициозные планы участников совместного предприятия «EuroHPC JU» (European High Performance Computing Joint Undertaking) по созданию современных суперкомпьютеров, в том числе экзафлопсного класса, оказались под угрозой. Как сообщается, лидеры государств-членов Евросоюза резко сократили предлагаемый бюджет на исследования и разработки на период с 2021 по 2027 годы.

Основная исследовательская программа Horizon Europe получит 80,9 млрд евро вместо 94,4 млрд евро, предлагавшихся Европейской комиссией. Это отразится на исследованиях в области суперкомпьютеров, которые будут финансироваться из программы Horizon Europe.

На финансирование организации DigitalEurope, занимающейся, в том числе, поддержкой суперкомпьютерной программы EuroHPC, выделено 6,76 млрд евро вместо запрашиваемых 8,2 млрд евро. А ведь эта сумма включает не только финансовое обеспечение разработок по суперкомпьютерам, но и другие виды деятельности, как, например, проекты в сфере ИИ.

Это, похоже, ставит крест на планах Европы попасть в тройку мировых лидеров по суперкомпьютерам. Нынешние суперкомпьютеры в Европе серьезно отстают от Fugaku, имеющегося у Японии. И запланированные к вводу в эксплуатацию суперкомпьютерные системы EuroHPC мощностью менее экзафлопса вряд ли достигнут уровня Fugaku.

В связи сокращением планов Европейской комиссии нынешний бюджет на 2021 организации DigitalEurope может гарантировать создание лишь одного суперкомпьютера экзафлопсного класса. Будет ли достаточно денег у DigitialEurope, чтобы запланировать запуск конкурентоспособного суперкомпьютера в 2023 году, пока неизвестно.

Постоянный URL: http://servernews.ru/1016452
22.07.2020 [17:44], Владимир Мироненко

NVIDIA и Университет Флориды построят самый быстрый в сфере высшего образования ИИ-суперкомпьютер

Университет Флориды и чипмейкер NVIDIA объявили о планах по созданию самого быстрого в мире в сфере высшего образования суперкомпьютера для искусственного интеллекта, обеспечивающего производительность в пределах 700 петафлопс.

Главным источником финансирования данного проекта стали пожертвования со стороны NVIDIA, предоставившей безвозмездно для проекта оборудование, программное обеспечение и услуги по обучению на общую сумму $25 млн, а также выпускника университета и соучредителя NVIDIA Криса Малаховски (Chris Malachowsky), вложившего $25 млн. Университет Флориды направит $20 млн на строительство ЦОД с акцентом на применение ИИ.

Итоговая стоимость проекта составила $70 млн. Реализация проекта позволит Университету Флориды улучшить свой нынешний суперкомпьютер HiPerGator с помощью NVIDIA. Обновлённый суперкомпьютер будет запущен к началу 2021 года.

HiPerGator третьего поколения получит доступ к самому современному программному обеспечению ИИ от NVIDIA и будет использовать 140 систем NVIDIA DGX A100 с 1120 графическими процессорами NVIDIA A100 и интерконнектом Mellanox HDR InfiniBand, обеспечивающим скорость передачи данных на уровне 200 Гбит/с.

Постоянный URL: http://servernews.ru/1016337
21.07.2020 [00:30], Владимир Мироненко

В Лос-Аламосе установили систему охлаждения будущих экзафлопсных суперкомпьютеров

Администрация по ядерной безопасности Министерства энергетики США (NNSA) сообщила о завершении проекта по установке в Лос-Аламосской национальной лаборатории (LANL) в Нью-Мексико холодильного оборудования для своих будущих экзафлопсных суперкомпьютеров.

Проект включает установку градирен для охлаждения и оборудования в LANL, благодаря чему была удвоена охлаждающая способность Центра моделирования и симуляции им. Николаса С. Метрополиса (прежнее название — Стратегический вычислительный комплекс, Strategic Computing Complex), где размещены компьютерные системы для высокопроизводительных вычислений (HPC).

Новая система обеспечит оперативную поддержку оборудования для нескольких суперкомпьютеров экзафлопсного класса. Этот проект также обеспечит охлаждение теплой водой следующего суперкомпьютера лаборатории с расширенной архитектурой Crossroads. Система охлаждения дополняет проект разработки NNSA Exascale Atomistic capability for Accuracy, Length, and Time (EXAALT). 

В NNSA заявили, что проект был завершен на 10 месяцев раньше срока и обошёлся дешевле на $20 млн, чем предполагалось ранее. В настоящее время лаборатория LLNL работает над проектом по запуску суперкомпьютера El Capitan, который будет установлен на объекте.

В августе прошлого года NNSA решила совершить переход в облако с помощью своей платформы Enterprise Secure Network (ESN) для размещения секретных приложений. Тем не менее, она по-прежнему придерживается взятого на себя обязательство создать суперкомпьютеры для моделирования испытаний ядерного оружия.

Постоянный URL: http://servernews.ru/1016164
02.07.2020 [20:16], Алексей Степин

Суперкомпьютер в испанской церкви открыл двери виртуального музея HPC

Крупные ЦОД и места установки суперкомпьютеров не лишены своего шарма. Как правило, такие помещения выглядят футуристически и минималистично, хотя корпуса строек и украшают различными изображениями. Но бывают исключения.

К таким исключениям относится испанская система MareNostrum, расположенная в Барселоне и принадлежащая Барселонскому суперкомпьютерному центру. Уникальность её в том, что суперкомпьютер этот смонтирован в старинном помещении часовни Torre Girona. Теперь полюбоваться на него и ряд других систем может любой желающий.

Суперкомпьютеры человечество строит уже достаточно давно и многие из них на сегодня представляют собой музейную, историческую ценность. MareNostrum, на сегодняшний день работающий в четвёртой своей версии, пока нельзя назвать экспонатом — это функционирующая система, состоящая из 3456 узлов Lenovo ThinkSystem SD530, в каждом из которых установлено по два 24-ядерных процессора Xeon Platinum.

На ноябрь 2019 года MareNostrum 4 занимал 30 место в рейтинге Top500 с развиваемой мощностью 13,7 Пфлопс и объёмом хранения данных 14 Пбайт. Но уникальной систему делают не её характеристики, а место расположения — это действительно бывшая часовня, принадлежащая Политехническому университету Каталонии.

Пожалуй, можно назвать такое сочетание своеобразным храмом, посвященным научно-техническому прогрессу. А теперь взглянуть на суперкомпьютер может любой желающий. И не только в реальном мире: Барселонский суперкомпьютерный центр подготовил и виртуальную экспозицию, в которой MareNostrum 4 является главным, но не единственным экспонатом.

В одном из боковых коридоров часовни установлены несколько других HPC-систем, представляющих собой ценность с точки зрения истории суперкомпьютеров. Это части машин MareNostrum 1/2/3, первый тестовый HPC-кластер Tibidabo на базе ARM-процессоров (2011 год), BSCSMP на базе Silicon Graphics Altix 4700 и ряд других экспонатов, часть из которых построена на уже практически забытых ныне архитектурах вроде DEC Alpha.

Экспозиция представляет собой интерес для всех ценителей истории техники, в частности — техники вычислительной. Информация о ней была опубликована в Twitter, а посетить её виртуально можно, воспользовавшись соответствующей ссылкой. Поддерживается использование VR-шлемов.

Постоянный URL: http://servernews.ru/1014801
25.06.2020 [18:37], Владимир Мироненко

Суперкомпьютеры EuroHPC имеют неплохую производительность, но до экзафлопса пока далеко

Всего год, а может быть и меньше, отделяет EuroHPC от запуска новейших суперкомпьютеров, созданных в рамках проектов этой организации. В связи с этим обозреватель Primeurmagazine Эд Эммен (Ad Emmen) проанализировал присутствие EuroHPC в последнем издании рейтинга TOP500.

В 2020 году в TOP500 вошли 96 европейских систем общей производительностью 379 петафлопс. По сравнению с предыдущим рейтингом выросла их общая производительность, хотя количество систем не увеличилось. Сейчас устанавливаются все более и более мощные суперкомпьютеры, но аналитик отметил, что даже если объединить все европейские системы, вошедшие в TOP500, Европа всё ещё далека до суммарной производительности систем в экзафлопс.

Если говорить только о странах, входящих в EuroHPC, то в TOP500 присутствует 93 их системы. На системы EuroHPC приходится порядка 17 % общей производительности, и этот показатель не сильно изменился с годами. И европейская система никогда не возглавляла топ-10 суперкомпьютеров.

В настоящее время в топ-10 входят три системы EuroHPC. Это HPC5 итальянской нефтегазовой компании Eni, Marconi-100, находящаяся в исследовательском центре CINECA в Италии, а также замыкающая десятку Piz Daint, установленная в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано (Швейцария).

Таким образом, на EuroHPC приходится треть суперкомпьютеров в Топ-10, что соответствует первоначальной цели организации. Если говорить о Топ-100, то в этот рейтинг входит в среднем 35 европейских систем, что также составляет одну треть. Напомним, что проект EuroHPC направлен на укрепление независимости Европейских стран в области высокопроизводительных вычислений, на него придётся более 1€ млрд.

Постоянный URL: http://servernews.ru/1014269
23.06.2020 [15:15], Игорь Осколков

Летний рейтинг суперкомпьютеров TOP500: экзафлопс напополам

Появлению первого ARM-суперкомпьютера Fugaku на первом месте TOP500 мы уже порадовались. Но если взглянуть на оставшуюся часть списка, поводов для радости уже не так много. Шутка ли, в этом году в число новых машин в списке оказалось наименьшим с момента основания рейтинга.

Существенный прирост суммарной мощности всего списка с 1,65 до 2,23 Эфлопс обеспечила опять же машина Fugaku, внеся тем самым лёгкую сумятицу — отрыв между первым и вторым местом очень существенен. Однако тут есть два важных момента. Во-первых, A64FX концептуально ближе к Xeon Phi — собственная память, стандартные ядра + «широкие» инструкции сбоку — и стоит ли его причислять к CPU или всё же к ускорителям, ещё надо подумать. Во-вторых, энергоэффективность у этой 28-МВт машины оказалась практически идентичной показателю Summit (POWER9 + Volta).

Лидером Green500 вообще оказался специфический суперкомпьютер Preferred Networks MN-3 c ускорителями PFN MN-Core. Как и PEZY, это ещё одно японское чудо, которое вряд ли станет массовым. Остальные же места в «зелёном» списке, как и прежде, по большей части принадлежат машинам на базе процессоров Intel или POWER вкупе с ускорителями NVIDIA. Собственный суперкомпьютер NVIDIA Selene на базе DGX A100 (с AMD EPYC 7002 внутри) занимает в Green500 и TOP500 второе и седьмое место соответственно.

При этом, в целом, соотношение между производителями компонентов практически не поменялось. 470 систем используют процессоры Intel, ещё 11, включая Hygon, используют AMD. Причём Rome полгода назад было всего пару штук, а теперь уже восемь. Всего 4 машины базируются на ARM: Fugaku и её прототип, Flow на базе Fujitsu PRIMEHPC FX1000 с теми же процессорами A64FX и Astra на базе Marvell ThunderX2. Есть под одному SPARC и ShenWei, остальные — IBM POWER. Ускорители установлены почти в трети систем, в подавляющем большинстве случаев это NVIDIA разных поколений.

Теперь NVIDIA имеет право зачесть в свои активы заслуги Mellanox. Формально среди интерконнектов лидирует Ethernet, используемый более чем в половине систем. За ним идёт InfiniBand — почти треть машин. Остальное приходится на проприетарные решения. Однако суммарная производительность суперкомпьютеров с Ethernet почти на треть меньше, чем этот же показатель у машин с IB или проприетарными интерконнектами. Массово Ethernet начинает встречаться у систем после первой сотни позиций TOP500.

Примерно такая же картина наблюдается со странами и производителями. Формально по числу суперкомпьютеров лидирует, конечно, Китай (226 шт.) и большая тройка Lenovo, Sugon, Inspur. В США машин 114, в Японии 30, а в России и вовсе 2 (36-е место у SberCloud Christofari и 131-е у Ломоносов-2 в МГУ). Однако по суммарной мощности лидирует США, а Япония, благодаря всё тому же Fugaku, идёт вровень с Китаем.

Из необычного — в первой десятке свежего рейтинга на шестом месте находится промышленный суперкомпьютер HPC5 итальянской корпорации Eni, который является самым быстрым в Европе вообще. Не то, чтобы у нефтегазовых компаний не хватало возможностей получить такую машину, просто далеко не всегда они готовы делиться информацией.

Составители TOP500 отдельно отметили, что рынки коммерческих и академических суперкомпьютеров отличаются кардинально, и впервые проанализировали первую сотню машин в каждой категории. Собственно говоря, коммерческих машинах как раз уже давно довольно много, но топовые позиции традиционно удерживаются по большей части не ими.

По суммарным числу и производительности коммерческих установок в лидерах опять Китай и китайские же компании. А вот для академических систем картина совершенно иная. По числу машин в лидерах уже США и Япония, по производительности опять же Япония (снова всплеск из-за Fugaku) и США, а среди вендоров верхние строчки занимают привычные имена: Cray + HPE, Atos, IBM, Fujitsu. Среди производителей чипов в количественном выражении лидируют Intel и связка Intel+NVIDIA в обоих сегментах. В плане производительности для коммерческих суперкомпьютеров картинка такая же, а вот в исследовательских машинах доминирует пара POWER+NVIDIA и теперь уже ARM.

В целом же, скорость прироста общей производительности за последние десятилетия осталась практически неизменной. Малое число новых систем в рейтинге успешно скомпенсировал Fugaku, а в скором будущем нас ожидают как минимум три сверхмощные машины экзафлопсного класса Aurora, El Capitane и Frontier. Fugaku же хоть и не дотянул до этой заветной цифры в FP64-вычислениях, но на уровне организации системы его уже можно причислить к суперкомпьютерам нового поколения.

Постоянный URL: http://servernews.ru/1014052
Система Orphus