Материалы по тегу: hpc

27.06.2020 [18:54], Алексей Степин

ISC 2020: NEC анонсировала новые векторные ускорители SX-Aurora

В японском сегменте рынка супервычислений продолжает доминировать свой, уникальный подход к построению систем класса HPC. Fujitsu сделала ставку на гомогенную архитектуру A64FX с памятью HBM2 и заняла первое место в Top500, но и другая японская компания, NEC, не отказалась от своего видения суперкомпьютерной архитектуры.

На предыдущей конференции SC19 NEC пополнила свой арсенал новыми ускорителями SX-Aurora 10E, которые получили более быстрые сборки HBM2. О новых ускорителях «Type 20» речь заходила ещё до начала эпидемии COVID-19; к сожалению, она внесла свои коррективы и анонс новинок состоялся лишь сейчас, летом 2020 года.

Изначально процессор SX-Aurora, используемый во всей серии ускорителей «Type 10» имеет 8 векторных блоков, каждый из которых дополнен 2 Мбайт кеша и 6 сборок памяти HBM2 общим объёмом 24 или 48 Гбайт. Из-за сравнительно грубого 16-нм техпроцесса уровень тепловыделения достаточно высок и составляет примерно 225 Ватт. В отличие от Fujitsu A64FX, NEC SX-Aurora требует для своей работы управляющего хост-процессора, и обычно компания комбинирует его с Intel Xeon, но существуют варианты и с AMD EPYC второго поколения.

ISC 2018: HPC-модуль с восемью векторными ускорителями NEC SX-Aurora Type 10

ISC 2018: HPC-модуль с восемью векторными ускорителями NEC SX-Aurora Type 10

Это роднит SX-Aurora с более широко распространёнными ускорителями на базе графических процессоров, однако позиционирование у них всё-таки выглядит иначе. ГП-ускорители, по мнению NEC, гораздо сложнее в программировании, хотя и обеспечивают высокую производительность.

Свою же разработку компания относит к решениям с похожим уровнем производительности, но гораздо более простым в программировании. Упор также делается на высокую пропускную способность памяти, составляющую у новинок «Type 20» 1,5 Тбайт/с.

Новая версия NEC Vector Engine, VE20, структурно, скорее всего, не изменилась. Вместо восьми ядер новый процессор получил 10, и, как уже было сказано, новые сборки HBM2, в результате чего ПСП удалось поднять с 1,35 до 1,5 Тбайт/с, а вычислительную мощность с 2,45 до 3,07 Тфлопс.

В серии пока представлено два новых ускорителя, Type 20A и 20B, последний аналогичен по конфигурации решениям Type 10 и использует усечённый вариант процессора с 8 ядрами. Говорится о неких архитектурных улучшениях, но деталей компания пока не раскрывает.  Оба варианта процессора VE20 работают на частоте 1,6 ГГц, а прирост производительности в сравнении с VE10 достигается в основном за счёт повышения ПСП. 

Похоже, VE20 лишь промежуточная ступень. В 2022 году планируется выпуск процессора VE30, который получит подсистему памяти с пропускной способностью свыше 2 Тбайт/с, в 2023 должен появиться его наследник VE40, но настоящий прорыв, судя по всему, откладывается до 2024 года, когда NEC планирует представить VE50, об архитектуре и возможностях которого пока ничего неизвестно.

Постоянный URL: http://servernews.ru/1014417
25.06.2020 [21:10], Алексей Степин

ISC 2020: Tachyum анонсировала 128-ядерные ИИ-процессоры Prodigy и будущий суперкомпьютер на их основе

Машинное обучение в последние годы развивается и внедряется очень активно. Разработчики аппаратного обеспечения внедряют в свои новейшие решения поддержку оптимальных для ИИ-систем форматов вычислений, под этот круг задач создаются специализированные ускорители и сопроцессоры.

Словацкая компания Tachyum достаточно молода, но уже пообещала выпустить процессор, который «отправит Xeon на свалку истории». О том, что эти чипы станут основой для суперкомпьютеров нового поколения, мы уже рассказывали читателям, а на конференции ISC High Performance 2020 Tachyum анонсировала и сами процессоры Prodigy, и ИИ-комплекс на их основе.

Запуск готовых сценариев машинного интеллекта достаточно несложная задача, с ней справляются даже компактные специализированные чипы. Но обучение таких систем требует куда более внушительных ресурсов. Такие ресурсы Tachyum может предоставить: на базе разработанных ею процессоров Prodigy она создала дизайн суперкомпьютера с мощностью 125 Пфлопс на стойку и 4 экзафлопса на полный комплекс, состоящий из 32 стоек высотой 52U.

Основой для новой машины является сервер-модуль собственной разработки Tachyum, системная плата которого оснащается четырьмя чипами Prodigy. Каждый процессор, по словам разработчиков, развивает до 625 Тфлопс, что дает 2,5 Пфлопс на сервер. Компания обещает для новых систем трёхкратный выигрыш по параметру «цена/производительность» и четырёхкратный — по стоимости владения. При этом энергопотребление должно быть на порядок меньше, нежели у традиционных систем такого класса.

Архитектура Prodigy представляет существенный интерес: это не узкоспециализированный чип, вроде разработок NVIDIA, а универсальный процессор, сочетающий в себе черты ЦП, ГП и ускорителя ИИ-операций. Структура кристалла построена вокруг концепции «минимального перемещения данных». При разработке Tachyum компания принимала во внимание задержки, вносимые расстоянием между компонентами процессора, и минимизировала их.

Процессор Prodigy может выполнять за такт две 512-битные операции типа multiply-add, 2 операции load и одну операцию store. Соответственно то, что каждое ядро Prodigy имеет восемь 64-бит векторных блока, похожих на те, что реализованы в расширениях Intel AVX-512 IFMA (Integer Fused Multiply Add, появилось в Cannon Lake). Блок вычислений с плавающей точкой поддерживает двойную, одинарную и половинную точность по стандартам IEEE. Для ИИ-задач имеется также поддержка 8-битных типов данных с плавающей запятой.

Векторные и матричные операции — сильная сторона Prodigy. На перемножении-сложении матриц размерностью 8 × 8 ядро развивает 1024 Флопс, используя 6 входных и 2 целевых регистра (в сумме есть тридцать два 512-бит регистра). Это не предел, разработчик говорит о возможности увеличения скорости выполнения этой операции вдвое. Tachyum обещает, что система на базе Prodigy станет первым в мире ИИ-кластером, способным запустить машинный интеллект, соответствующий человеческому мозгу.

С учётом заявлений о 10-кратной экономии электроэнергии и 1/3 стоимости от стоимости Xeon, это заявление звучит очень сильно. Но Prodigу — не бумажный продукт-однодневка. Tachyum разработала не только сам процессор, но и всю необходимую ему сопутствующую инфраструктуру, включая и компилятор, в котором реализованы оптимизации в рамках «минимального перемещения данных».

Новинка разрабона с использованием 7-нм техпроцесса, максимальное количество ядер с вышеописанной архитектурой — 64. Помимо самих ядер, кристалл T864 содержит восьмиканальный контроллер DDR5, контроллер PCI Express 5.0 на 64 (а не 72, как ожидалось ранее) линии и два сетевых интерфейса 400GbE. При тактовой частоте 4 ГГц Prodigy развивает 8 Тфлопс на стандартных вычислениях FP32, 1 Пфлоп на задачах обучения ИИ и 4 Петаопа в инференс-задачах.

Самая старшая версия, Tachyum Prodigy T16128, предлагает уже 128 ядер с частотой до 4 ГГц, 12 каналов памяти DDR5-4800 (но только 1DPC и до 512 Гбайт суммарно), 48 линий PCI Express 5.0 и два контроллера 400GbE. Производительность в HPC-задачах составит 16 Тфлопс, а в ИИ — 262 Тфлопс на обучении и тренировке. 

Системные платы для Prodigy представлены, как минимум, в двух вариантах: полноразмерные четырёхпроцессорные для сегмента HPC и компактные однопроцессорные для модульных систем высокой плотности. Полноразмерный вариант имеет 64 слота DIMM и поддерживает модули DDR5 объёмом до 512 Гбайт, что даёт 32 Тбайт памяти на вычислительный узел.

Сам узел полностью совместим со стандартами 19″ и Open Compute V3, он может иметь высоту 1U или 2U и поддерживает питание напряжением 48 Вольт. Плата имеет собственный BIOS UEFI, но для удалённого управления в ней реализован открытый стандарт OpenBMC.

Tachyum исповедует концепцию универсальности, но всё-таки узлы для HPC-систем на базе Prodigy могут быть нескольких типов — универсальные вычислительные, узлы хранения данных, а также узлы управления. В качестве «дисковой подсистемы» разработчики выбрали SSD-накопители в формате NF1, подобные представленному ещё в 2018 году накопителю Samsung.

Таких накопителей в корпусе системы может быть от одного до 36; поскольку NF1 существенно крупнее M.2, поддерживаются модели объёмом до 32 Тбайт, что даёт почти 1,2 Пбайт на узел. Стойка с модулями Prodigy будет вмещать до 50 модулей высотой 1U или до 25 высотой 2U. Согласно идее о минимизации дистанций при перемещении данных, сетевой коммутатор на 128 или 256 портов 100GbE устанавливается в середине стойки.

Такая конфигурация работает в системе с числом стоек до 16, более масштабные комплексы предполагается соединять между собой посредством коммутатора высотой 2U c 64 портами QSFP-DD, причём поддержка скорости 800 Гбит/с появится уже в 2022 году. 512 стоек могут объединяться посредством высокопроизводительного коммутатора CLOS, он имеет высоту 21U и также получит поддержку 800 Гбит/с в дальнейшем.

Компания активно поддерживает открытые стандарты: применён загрузчик Core-Boot, разработаны драйверы устройств для Linux, компиляторы и отладчики GCC, поддерживаются открытые приложения, такие, как LAMP, Hadoop, Sparc, различные базы данных. В первом квартале 2021 года ожидается поддержка Java, Python, TensorFlow, PyTorch, LLVM и даже операционной системы FreeBSD.

Любопытно, что существующее программное обеспечение на системах Tachyum Prodigy может быть запущено сразу в виде бинарных файлов x86, ARMv8 или RISC-V — разумеется, с пенальти. Производительность ожидается в пределах 60 ‒ 75% от «родной архитектуры», для достижения 100% эффективности всё же потребуется рекомпиляция. Но в рамках контрактной поддержки компания обещает помощь в этом деле для своих партнёров.

Разумеется, пока речи о полномасштабном производстве новых систем не идёт. Эталонные платформы Tachyum обещает во второй половине следующего года. Как обычно, сначала инженерные образцы получают OEM/ODM-партнёры компании и системные интеграторы, а массовые поставки должны начаться в 4 квартале 2021 года. Однако ПЛИС-эмуляторы Prodigy появятся уже в октябре этого года, инструментарий разработки ПО — и вовсе в августе.

Планы у Tachyum поистине наполеоновские, но её разработки интересны и содержат целый ряд любопытных идей. В чём-то новые процессоры можно сравнить с Fujitsu A64FX, которые также позволяют создавать гомогенные и универсальные вычислительные комплексы. Насколько удачной окажется новая платформа, говорить пока рано.

Постоянный URL: http://servernews.ru/1014281
25.06.2020 [18:37], Владимир Мироненко

Суперкомпьютеры EuroHPC имеют неплохую производительность, но до экзафлопса пока далеко

Всего год, а может быть и меньше, отделяет EuroHPC от запуска новейших суперкомпьютеров, созданных в рамках проектов этой организации. В связи с этим обозреватель Primeurmagazine Эд Эммен (Ad Emmen) проанализировал присутствие EuroHPC в последнем издании рейтинга TOP500.

В 2020 году в TOP500 вошли 96 европейских систем общей производительностью 379 петафлопс. По сравнению с предыдущим рейтингом выросла их общая производительность, хотя количество систем не увеличилось. Сейчас устанавливаются все более и более мощные суперкомпьютеры, но аналитик отметил, что даже если объединить все европейские системы, вошедшие в TOP500, Европа всё ещё далека до суммарной производительности систем в экзафлопс.

Если говорить только о странах, входящих в EuroHPC, то в TOP500 присутствует 93 их системы. На системы EuroHPC приходится порядка 17 % общей производительности, и этот показатель не сильно изменился с годами. И европейская система никогда не возглавляла топ-10 суперкомпьютеров.

В настоящее время в топ-10 входят три системы EuroHPC. Это HPC5 итальянской нефтегазовой компании Eni, Marconi-100, находящаяся в исследовательском центре CINECA в Италии, а также замыкающая десятку Piz Daint, установленная в Швейцарском национальном суперкомпьютерном центре (CSCS) в Лугано (Швейцария).

Таким образом, на EuroHPC приходится треть суперкомпьютеров в Топ-10, что соответствует первоначальной цели организации. Если говорить о Топ-100, то в этот рейтинг входит в среднем 35 европейских систем, что также составляет одну треть. Напомним, что проект EuroHPC направлен на укрепление независимости Европейских стран в области высокопроизводительных вычислений, на него придётся более 1€ млрд.

Постоянный URL: http://servernews.ru/1014269
24.06.2020 [17:42], Алексей Степин

Новые HPC-решения РСК на ISC 2020: узлы Tornado, универсальная СЖО и SDS Lustre

Компания, а вернее, группа компаний РСК (RSC) — ведущий российский производитель суперкомпьютерных систем, чьи решения активно используются в борьбе с COVID-19. К примеру, не столь давно кластер суперкомпьютерного центра Российской академии наук «МВС-10П ОП» был модернизирован и получил новые вычислительные узлы на базе Xeon Scalable второго поколения.

Мимо такого мероприятия, как конференция ISC High Performance 2020 столь серьезный производитель пройти не мог и приурочил к проходящему ныне мероприятию анонс своих новых решений — как аппаратных модулей для создания систем класса HPC, так и программных новинок.

Разработкой и созданием суперкомпьютеров РСК занимается давно и присутствует на рынке с 2009 года, на её счету ряд инновационных решений. Плотность вычислений продолжает расти, растут потребляемые мощности, и отвечая на требования рынка, РСК уделяет самое пристальное внимание вопросам энергоэффективности, надёжности и простоты управления.

В рамках программно-определяемой платформы нового поколения компания представила на ISC 2020 свои новые разработки: вычислительные и гиперконвергентные узлы RSC Tornado, новые системы питания и программный комплекс RSC BasIS.

Компания экспериментировала с такой экзотикой, как процессоры Intel Xeon 9200, являющиеся, по сути, двумя Xeon 8200 под одной крышкой. Они были показаны на прошлой конференции SC19. Эта разработка Intel весьма специфична, так что современные вычислительные модули RSC Tornado Compute Node базируются на хорошо зарекомендовавших себя процессорах Xeon Scalable второго поколения с теплопакетами до 205 Ватт. Это либо серия Xeon Platinum 8200, либо Gold 6200; о более интересных Xeon Scalable третьего поколения (Cooper Lake) речи пока не идёт — они были представлены Intel совсем недавно.

Каждый модуль оснащается двумя процессорами, четырьмя планками Optane DCPMM общим объёмом до 2 Тбайт, двумя накопителями NVMe на базе Optane, а также двумя более медленными NVMe-накопителями Intel P4511 E1.S объёмом 4 Тбайт. «Малая» сетевая подсистема представлена двумя портами 10GbE, «большая» — портом Intel OmniPath 100 Гбит/с, InfiniBand EDR/HDR, либо портом 100GbE на усмотрение заказчика. Габариты модуля хорошо видны на слайде, где для сравнения размещён обычный карандаш.

В системе 100% жидкостного охлаждения как и прежде используется «горячий теплоноситель», это позволяет достичь высокой энергоэффективности — коэффициент PUE для новых модулей RSC Tornado не превышает 1,04. Вычислительная стойка с новыми модулями развивает до 0,7 Пфлопс, располагая 2,4 Пбайт пространства для хранения данных и скоростью их передачи в районе 2 Тбайт/с.

Гиперконвергентные модули RSC Tornado Hyper-Converged Node выполнены в том же стиле, но оптимизированы с учётом максимизации объёмов хранения данных. Благодаря использованию «линеечных» SSD каждый такой модуль может вмещать до 24 Тбайт в 12 NVMe-накопителях E1.S с «горячей заменой». Доступна поддержка Intel Memory Drive Technology (IMDT) с памятью ёмкостью до 4,2 Тбайт.

В качестве процессоров здесь также используются Xeon Scalable второго поколения. Сетевая часть даже более гибкая, нежели у вышеописанных вычислительных модулей: высокоскоростных интерфейсов Omni-Path, InfiniBand или Ethernet может быть два. RSC Tornado Hyper-Converged Node дают до 0,345 Пфлопс на стойку, но при этом объём хранимых данных достигает 3,6 Пбайт при скоростях передачи данных до 1,5 Тбайт/с.

В рамках единой системы охлаждаются гиперконвергентные модули так же, как и их чисто вычислительные собратья, и эффективность такого охлаждения столь же высока. Конструкция унифицированной вычислительной 42U-стойки с единой системой жидкостного охлаждения, занимающей всего 0,64 м2, позволяет установить любые узлы РСК количеством до 153 шт. Блоки питания выполнены в том же форм-факторе, что и остальные узлы.

Даже 3,6 Пбайт на стойку может оказаться мало, и на этот случай РСК представила новые модули хранения данных. В них устанавливается до 32 накопителей Intel E1.L в формате EDSFF, поэтому легко достигаются объёмы порядка 1 Пбайт на узел. В пересчёте на стойку это дает до 42 Пбайт, производительность таких «дисковых модулей» может достигать 0,8 Тбайт/с. Для ускорения работы используются модули Intel Optane DCPMM.

РСК активно продвигает использование жидкостного охлаждения. Наряду с «горячим теплоносителем» в новых модульных системах компания впервые предлагает готовые модули модернизации для стандартных серверов, что позволяет их перевести на использование жидких теплоносителей. Новые водоблоки полностью совместимы с существующими креплениями и легко заменяют воздушные радиаторы.

Каждый водоблок РСК может отвести до 400 Ватт тепла. Системы жидкостного охлаждения разработки РСК позволяют удалить за пределы сервера до 70% всего выделяемого тепла, что даёт возможность отключить системные вентиляторы и снизить за счёт этого энергопотребление. Надёжность гарантирует и тот факт, что теплоносители, применяемые РСК в этих системах, электрически инертны и в случае утечки не повредят оборудование.

Комплекс охлаждения РСК состоит из водоблоков, модуля распределения теплоносителя (крепится к стандартной стойке), насосного модуля. На входе стойка потребляет жидкость с температурой от 45 до 55 градусов Цельсия, на выход идёт среда с температурой 55 градусов. Теплообменник в насосном блоке передаёт тепло (50 градусов) на внешний контур кондиционирования. На вход же от внешнего контура приходит носитель с температурой в районе 23 ‒ 45 градусов.

По сравнению с традиционными воздушными комплексами охлаждения говорится о снижении стоимости эксплуатации на величину до 70%. За счёт уменьшения количества вентиляторов в серверах и кондиционерах обеспечивается дополнительная экономия электроэнергии, а пространство в ЦОД используется более эффективно: там, где раньше можно было рассеивать до 12 киловатт тепла, теперь рассеивается до 50 кВт. Кроме того, имеется возможность использования выделяемого тепла для других целей, например, для отопления соседних помещений.

О непревзойденной эффективности речи не идёт, но 50 кВт на стойку — это выше, нежели у аналогичных открытых решений (36 кВт на стойку) или решений, используемых Большой Семёркой облачных провайдеров. Погружные системы и системы прямого контакта могут давать от 150 до 400 кВт на стойку, но либо стоят существенно дороже и требуют специального оборудования, либо гораздо сложнее в эксплуатации и обслуживании при сравнимом показателе PUE.

С совместимостью у новых систем распределения теплоносителя РСК всё хорошо: они могут работать как с водоблоками собственной разработки, так и с решениями Asetek и CoolIT, а также с любыми стоечными серверами стандартной конфигурации.

В программной части группа РСК представила новый программно-определяемый комплекс BasIS. Он может работать как на платформах самой РСК, так и на любом стандартном аппаратном обеспечении. Большое внимание уделено как эффективности нового ПО, так и удобству и простоте управления. Система BasIS легко масштабируется по мере наращивания количества вычислительных узлов.

Пространство для хранения данных пользователя выделяется динамически, в режиме «storage on demand». Основой является широко распространённая в мире высокопроизводительных вычислений открытая распределённая файловая система Lustre, впервые представленная ещё в 2003 году. «Lustre on demand» используется, например, в суперкомпьютере РСК, установленном в Объединённом институте ядерных исследований в Дубне.

Можно сказать, что группа РСК очень хорошо понимает требования к HPC-системам сегодняшнего дня и предлагает современные, универсальные и качественно спроектированные решения, как в аппаратной, так и в программной части.

Постоянный URL: http://servernews.ru/1014165
23.06.2020 [18:31], Владимир Мироненко

Intel RHOC упростит перенос приложений HPC в облако

Высокопроизводительные вычисления (HPC) в облаке — одна из самых обсуждаемых в последнее время тем на технологических мероприятиях и форумах. Компании и исследовательские институты проявляют большой интерес к HPC, пытаясь понять, как расширить с их помощью свои возможности финансово оправданным путём.

HPC в облаке — отнюдь не новое направление, но за последние несколько лет произошли кардинальные изменения и улучшения инфраструктуры, которые делают HPC доступными для гораздо более широкой аудитории. Многие провайдеры уже предлагают инстансы, которые обеспечивают большую вычислительную мощность и пропускную способность памяти для приложений, требующих большого объёма вычислений.

Больше внимания уделяется проблеме масштабирования рабочих нагрузок в облаке. Появление более дружественных к HPC системных и программных сервисов также сделало возможным «собрать» кластерные экземпляры в облаке. Тем не менее, несмотря на достигнутый прогресс, с переносом приложений HPC в облако не так всё и просто. И по-прежнему требуется время для обучения и накопления опыта, необходимого для настройки инстансов конкретного облака.

Если вам нужно работать с несколькими облачными провайдерами, у вас есть несколько путей решения вопроса. Многие поставщики сервисов и компании помогают упростить размещение рабочих нагрузок в облаке, но даже они сталкиваются с одной и той же проблемой. В какой-то момент в рабочем процессе необходимо иметь единый интерфейс для запуска нагрузок с внутренним интерфейсом для конкретного облачного провайдера.

Intel и Google недавно начали работать над созданием инструментария, обеспечивающего единый интерфейс управления. В результате Intel запустила проект с открытым исходным кодом Rapid HPC Orchestration in the Cloud или RHOC. RHOC рассматривается, как средство, помогающее пользователям развернуть HPC-платформу в облаке.

RHOC использует две общие утилиты от Hashicorp в качестве базовых механизмов, обеспечивающих поддержку нескольких облаков для запуска инстансов. Используя инфраструктуру Terraform для управления и механизмы Packer для создания облачных образов. RHOC использует шаблоны для формирования и дальнейшего развёртывания образа в разных облаках.

Пользователи запускают задания прямо из командной строки и указывают, какие шаблоны использовать, а также предоставляют свои учётные данные для облачного провайдера. Затем RHOC занимается настройкой кластера в облаке. RHOC создает новый образ или повторно использует предварительно созданный образ, запускает требуемые экземпляры, настраивает их как кластер HPC и запускает выполнение задания.

По умолчанию RHOC выключает инстансы после окончания расчётов, но есть режим поддержки работы кластера в постоянном режиме с ручным отключением. Благодаря RHOC компания Intel и её партнёры по облачным технологиям смогут совместно создавать шаблоны, включащие наиболее оптимизированные для HPC инстансы и образы для конкретного поставщика облачных вычислений.

Постоянный URL: http://servernews.ru/1014051
23.06.2020 [15:15], Игорь Осколков

Летний рейтинг суперкомпьютеров TOP500: экзафлопс напополам

Появлению первого ARM-суперкомпьютера Fugaku на первом месте TOP500 мы уже порадовались. Но если взглянуть на оставшуюся часть списка, поводов для радости уже не так много. Шутка ли, в этом году в число новых машин в списке оказалось наименьшим с момента основания рейтинга.

Существенный прирост суммарной мощности всего списка с 1,65 до 2,23 Эфлопс обеспечила опять же машина Fugaku, внеся тем самым лёгкую сумятицу — отрыв между первым и вторым местом очень существенен. Однако тут есть два важных момента. Во-первых, A64FX концептуально ближе к Xeon Phi — собственная память, стандартные ядра + «широкие» инструкции сбоку — и стоит ли его причислять к CPU или всё же к ускорителям, ещё надо подумать. Во-вторых, энергоэффективность у этой 28-МВт машины оказалась практически идентичной показателю Summit (POWER9 + Volta).

Лидером Green500 вообще оказался специфический суперкомпьютер Preferred Networks MN-3 c ускорителями PFN MN-Core. Как и PEZY, это ещё одно японское чудо, которое вряд ли станет массовым. Остальные же места в «зелёном» списке, как и прежде, по большей части принадлежат машинам на базе процессоров Intel или POWER вкупе с ускорителями NVIDIA. Собственный суперкомпьютер NVIDIA Selene на базе DGX A100 (с AMD EPYC 7002 внутри) занимает в Green500 и TOP500 второе и седьмое место соответственно.

При этом, в целом, соотношение между производителями компонентов практически не поменялось. 470 систем используют процессоры Intel, ещё 11, включая Hygon, используют AMD. Причём Rome полгода назад было всего пару штук, а теперь уже восемь. Всего 4 машины базируются на ARM: Fugaku и её прототип, Flow на базе Fujitsu PRIMEHPC FX1000 с теми же процессорами A64FX и Astra на базе Marvell ThunderX2. Есть под одному SPARC и ShenWei, остальные — IBM POWER. Ускорители установлены почти в трети систем, в подавляющем большинстве случаев это NVIDIA разных поколений.

Теперь NVIDIA имеет право зачесть в свои активы заслуги Mellanox. Формально среди интерконнектов лидирует Ethernet, используемый более чем в половине систем. За ним идёт InfiniBand — почти треть машин. Остальное приходится на проприетарные решения. Однако суммарная производительность суперкомпьютеров с Ethernet почти на треть меньше, чем этот же показатель у машин с IB или проприетарными интерконнектами. Массово Ethernet начинает встречаться у систем после первой сотни позиций TOP500.

Примерно такая же картина наблюдается со странами и производителями. Формально по числу суперкомпьютеров лидирует, конечно, Китай (226 шт.) и большая тройка Lenovo, Sugon, Inspur. В США машин 114, в Японии 30, а в России и вовсе 2 (36-е место у SberCloud Christofari и 131-е у Ломоносов-2 в МГУ). Однако по суммарной мощности лидирует США, а Япония, благодаря всё тому же Fugaku, идёт вровень с Китаем.

Из необычного — в первой десятке свежего рейтинга на шестом месте находится промышленный суперкомпьютер HPC5 итальянской корпорации Eni, который является самым быстрым в Европе вообще. Не то, чтобы у нефтегазовых компаний не хватало возможностей получить такую машину, просто далеко не всегда они готовы делиться информацией.

Составители TOP500 отдельно отметили, что рынки коммерческих и академических суперкомпьютеров отличаются кардинально, и впервые проанализировали первую сотню машин в каждой категории. Собственно говоря, коммерческих машинах как раз уже давно довольно много, но топовые позиции традиционно удерживаются по большей части не ими.

По суммарным числу и производительности коммерческих установок в лидерах опять Китай и китайские же компании. А вот для академических систем картина совершенно иная. По числу машин в лидерах уже США и Япония, по производительности опять же Япония (снова всплеск из-за Fugaku) и США, а среди вендоров верхние строчки занимают привычные имена: Cray + HPE, Atos, IBM, Fujitsu. Среди производителей чипов в количественном выражении лидируют Intel и связка Intel+NVIDIA в обоих сегментах. В плане производительности для коммерческих суперкомпьютеров картинка такая же, а вот в исследовательских машинах доминирует пара POWER+NVIDIA и теперь уже ARM.

В целом же, скорость прироста общей производительности за последние десятилетия осталась практически неизменной. Малое число новых систем в рейтинге успешно скомпенсировал Fugaku, а в скором будущем нас ожидают как минимум три сверхмощные машины экзафлопсного класса Aurora, El Capitane и Frontier. Fugaku же хоть и не дотянул до этой заветной цифры в FP64-вычислениях, но на уровне организации системы его уже можно причислить к суперкомпьютерам нового поколения.

Постоянный URL: http://servernews.ru/1014052
22.06.2020 [18:20], Игорь Осколков

ARM-суперкомпьютер Fugaku поднялся на вершину рейтингов TOP500, HPCG и HPL-AI

Конечно же, речь идёт о японском суперкомпьютере Fugaku на базе ARM-процессоров A64FX, который досрочно начал трудиться весной этого года. Эта машина стала самым мощным суперкомпьютером в мире сразу в трёх рейтингах: классическом TOP500, современном HPCG и специализированном HPL-AI.

Суперкомпьютер состоит из 158976 узлов, которые имеют почти 7,3 млн процессорных ядер, обеспечивающих реальную производительность на уровне 415,5 Пфлопс, то есть Fugaku почти в два с половиной раза быстрее лидера предыдущего рейтинга, машины Summit. Правда, оказалось, что с точки зрения энергоэффективности новая ARM-система мало чем отличается от связки обычного процессора и GPU, которой пользуется большая часть суперкомпьютеров. Так что на первое место в Green500 она не попала.

Однако на стороне Fugaku универсальность — понижение точности вычислений вдвое приводит к удвоение производительности. Так что машина имеет впечатляющую теоретическую пиковую скорость вычислений 4,3 Эопс на INT8 и не менее впечатляющие 537 Пфлопс на FP64. Это помогло занять её первое место в бенчмарке HPL-AI, которые использует вычисления разной точности. А общая архитектура процессора, включающего набортную память HBM2, и системы, использующей интерконнект Tofu, способствовали лидерству в бенчмарке HPCG, который оценивает эффективность машины в целом.

Постоянный URL: http://servernews.ru/1013963
22.06.2020 [09:09], Владимир Мироненко

Hyperion: рынок суперкомпьютеров восстановится после пандемии, хотя предстоит пара трудных лет

Отраслевая аналитическая компания Hyperion Research опубликовала результаты исследования рынка высокопроизводительных вычислений (HPC), включая оценку воздействия пандемии COVID-19 на отрасль, рост HPC в публичных облаках и значительные изменения в конкурентной позиции ведущих поставщиков серверов HPC.

По оценкам Hyperion, в целом за 2019 год рынок серверов HPC составил $13,7 млрд — рекордный доход для отрасли, хотя он и незначительно увеличился по сравнению с 2018 годом. Доход сектора суперкомпьютеров (системы стоимостью более $500 тысяч) составил $5,1 млрд, чуть меньше дохода принесли ведомственные системы ($100 000–$250 000) — $4 млрд, далее следуют системы подразделений ($250 000–$500 000) с выручкой $2,6 млрд и системы рабочих групп (менее $100 000) — $2 млрд дохода за год.

Hyperion предполагала, что влияние COVID-19 на индустрию в первом квартале выразится в падении чистого дохода на 15–18 %, что связано с задержкой поставок продукции из-за мер предосторожности, повлекших за собой сокращение выпуска и приостановку работы некоторых заводов поставщиков компонентов для HPC.

Глава Hyperion Эрл Джозеф (Earl Joseph) заявил, что воздействие COVID-19, вероятно, будет временным, хотя пока слишком рано прогнозировать серьёзность или продолжительность этого воздействия. Он допустил, что COVID-19 может оказать положительное влияние на отрасль, так как доходы публичных облачных вычислений для рабочих нагрузок HPC могут расти быстрее, чем прогнозировалось ранее. 

Джозеф также отметил, что пандемия ударила по нижней части рынка (серверы HPC по цене менее $100 тыс.), в результате чего «вероятно, будет несколько трудных лет». Он объяснил это влиянием трёх факторов. Во-первых, нижняя часть рынка ещё до начала пандемии всё больше переносила рабочие нагрузки HPC в общедоступные облака. Во-вторых, покупателями малых HPC-систем, как правило, являются предприятия малого и среднего бизнеса, которые сильнее страдают во время спадов и, следовательно, с большей вероятностью будут дольше сохранять свое существующее оборудование, откладывая модернизацию.

В-третьих, в крупных центрах высокопроизводительных вычислений, например, в нефтегазовых компаниях, обычно имеется два или три суперкомпьютера, а также три или четыре десятка систем поменьше, и они стараются увеличить нагрузку на большие системы и затем сократить расходы на сопутствующие системы.

В минувшем году на HPC-рынке HPE (которая приобрела Cray в прошлом году) увеличила отрыв от Dell Technologies, и эти компании значительно увеличило разрыв с остальными участниками рынка. HPE, у которой, по словам Джозефа, «был хороший год», получила доход от реализации HPC-серверов более чем на $5,1 млрд при доле рынка 37 %, а у Dell доход за год составил $3 млрд, доля рынка — 22 %. За ними следуют Inspur и Lenovo с долей рынка 6,6 % каждая. На пятом месте находится IBM, сократившая доходы от продажи доходах серверов HPC в 2018 году с почти миллиарда долларов до $498 млн в прошлом году, или до 3,6 % доли рынка.

Говоря о будущем рынка, Hyperion прогнозирует его ежегодный устойчивый рост на 8,7 % до $20,8 млрд в 2024 году. Прогнозируется, что категория суперкомпьютеров будет расти быстрее всего, на 11,6 % ежегодно, что в основном обусловлено государственными закупками систем экзафлопсного класса. Ожидается, что в категории рабочих групп будет самый низкий показатель роста — 3,4 %, а в системах подразделений и ведомственных системах — 8,1 % и 6,8 % соответственно.

Еще одна важная тенденция, отмеченная Hyperion: более высокий, чем ожидалось, рост публичных облачных высокопроизводительных вычислений. Hyperion повысила в этом сегменте свой прогноз по выручке — с $5,5 млрд долларов, ожидаемых в 2022 году, до $6,2 млрд. В 2023 году, как ожидает Hyperion, доход от HPC в публичных облаках достигнет $7,5 млрд.

Постоянный URL: http://servernews.ru/1013887
15.06.2020 [18:05], Владимир Мироненко

Технический директор Cray Стив Скотт перешёл в Microsoft

Стив Скотт (Steve Scott), работавший в Cray техническим директором, перешёл Microsoft на должность вице-президента по аппаратным архитектурам. До Cray Стив Скотт был техническим директором по HPC в новом владельце производителя суперкомпьютеров, HPE. Ранее он также работал в Google и занимался в NVIDIA процессорами Tesla.

О новом назначении Стива Скотта стало известно из сообщения главного менеджера команды Microsoft Azure HPC & Big Compute Эвана Бернесса (Evan Burness). Скотт также стал членом технического совета корпорации (Technical Fellow).

Скотт долгое время проработал в Cray, переходя на некоторое время в другие компании. С 1992 года он работал в Cray Research, и затем три года в поглотившей её в 1996 году компании Silicon Graphics. После поглощения Cray Research компанией Tera Computer и её переименования в Cray Inc. Скотт работал в ней до 2011 года. После этого он ушёл на два года в NVIDIA, затем чуть более года работал в Google и пять лет назад вернулся в Cray в качестве технического директора. В течение последних девяти месяцев он находился в штате HPE после приобретения последней компании Cray за $1,3 млрд.

В последние годы бизнес Cray начал сокращаться, а потери начали расти. Ещё одной большой проблемой для компании было то, что потенциальные клиенты начали переходить в облако. С 2017 года Microsoft предлагает сервисы Cray в облаке, а также расширяет собственные предложения HPC.

Несмотря на потери и уход Скотта, у Cray в составе HPE сохраняются неплохие перспективы. В частности, новые суперкомпьютерные системы Aurora, Frontier и El Capitan будут использовать архитектуру Cray Shasta.

Постоянный URL: http://servernews.ru/1013456
13.06.2020 [13:11], Алексей Разин

Япония не теряет надежды возглавить список самых производительных суперкомпьютеров

Официально список 500 самых производительных суперкомпьютеров мира последний раз обновлялся в ноябре прошлого года, номинально в нём лидирует американская система Summit с уровнем быстродействия более 200 терафлопс. Прежде чем США в следующем году шагнут за предел в один эксафлопс, Япония рассчитывает возглавить список Top 500, расположив на его вершине суперкомпьютер Fujitsu Fugaku.

Известно, что в следующем году Национальная лаборатория Ок-Ридж получит на вооружение создаваемую в сотрудничестве с AMD систему Frontier, которая поднимет планку быстродействия до 1500 петафлопс. Это на какое-то время сделает американский суперкомпьютер недосягаемым для конкурентов, особенно с учётом санкций против Китая, который в последние годы является главным соперником США в этой сфере.

Источник изображения: Kyodo

Источник изображения: Kyodo

Как отмечает издание Nikkei Asian Review, японские власти готовы поддержать инициативу Fujitsu по созданию суперкомпьютера Fugaku, чей уровень быстродействия достигнет примерно 530 петафлопс. Сейчас самый производительный японский суперкомпьютер ABCI занимает восьмую строчку в мировом рейтинге, а на его вершине японская система в последний раз присутствовала восемь с половиной лет назад. Прототип Fugaku занимает в том же рейтинге 159 место, лидируя при этом в Green500.

Примечательно, что Fugaku уже используется японскими учёными для поиска методов лечения нового коронавируса, поэтому даже если его лидерство в перечне Top 500 будет краткосрочным, определённую пользу он принесёт и не для защиты чести страны на международной арене.

Суперкомпьютер Fugaku будет построен на основе 150 тысяч процессоров Fujitsu A64FX с ARM-совместимой архитектурой. Своего предшественника, который сейчас занимает восьмую позицию в мировом рейтинге, он превзойдёт по быстродействию в 16 раз, как минимум, а уровень энергопотребления при этом будет в три раза ниже. Окончательный ввод в строй Fugaku должен состояться не ранее 2021 года, и возможность возвращения Японии на вершину рейтинга будет сильно зависеть от расторопности HPE/Cray и других компаний, создающих для американцев в три раза более производительный Frontier.

Постоянный URL: http://servernews.ru/1013324
Система Orphus