Материалы по тегу: суперкомпьютер

28.10.2021 [00:43], Игорь Осколков

Европейские Arm-процессоры SiPearl Rhea получат поддержку ускорителей Intel Ponte Vechhio

SiPearl, ответственная за разработку CPU для европейских суперкомпьютеров, и Intel объявили о сотрудничестве, которое позволит ускорить создание экзафлопсных систем в Евросоюзе путём объединения в рамках одной системы процессоров Rhea и ускорителей Ponte Vecchio. А для работы с такими гетерогенными HPC-узлами будет использоваться открытый унифицированный программный стек oneAPI, переносим и оптимизацией которого планирует заняться SiPearl.

Фактически это предварительный анонс первых систем c Ponte Vecchio не только без CPU Intel (как у злопополучной Aurora, которой компания прочит уже 2 Эфлопс), но и без x86-64 вообще — SiPearl Rhea является HPC-процессором на базе Arm. Согласно последним данным, этот 6-нм чип получит 64 ядра Neoverse V1 (Zeus), блоки RISC-V и HBM-память в единой 2.5D-упаковке. Он также получит контроллер PCIe 5.0 — ускоритель Intel Xe будет подключаться к процессору посредством CXL, о чём прямо говорится в сообщении компаний. Впрочем, до создания реальных систем пока далеко. Выпуск Rhea намечен только на конец 2022 года, а производиться он будет на мощностях TSMC.

Но гораздо интереснее, будет ли связка Rhea + Ponte Vecchio считаться достаточно «европейской» для целей импортозамещения. Впрочем, для программы EuroHPC она сгодится. SiPearl уже является участником ряда проектов Евросоюза по повышению независимости от зарубежных технологий, включая и инициативу European Processor Initiative (EPI). В сентябре этот проект получил первые тестовые образцы EPAC1.0, ещё одного европейского чипа для HPC-систем, но уже на базе RISC-V и 22-нм техпроцесса GlobalFoundries.

Постоянный URL: http://servernews.ru/1052376
27.10.2021 [01:44], Игорь Осколков

Похоже, у Китая уже есть сразу два экзафлопсных суперкомпьютера — больше таких систем нет ни у кого, даже у США

То, чего многие ждали и опасались, похоже, случилось. Издание The Next Platform получило от доверенного источника первое подтверждение циркулировавших несколько месяцев слухов о том, что Китай успешно преодолел экзафлопсный барьер. Причём сделал это ещё весной этого года и на двух независимых суперкомпьютерах с чипами собственной разработки, но публиковать результаты в TOP500 не стал.

Если появятся и другие подтверждения, что, как ожидается, случится в середине ноября, то это будет означать проигрыш США в HPC-гонке, поскольку завершение ввода в эксплуатацию Frontier — первой в США и, как изначально предполагалось, в мире системы экзафлопсного класса — запланировано только на следующий год. Ожидается, что её пиковая производительность составит 1,5 Эфлопс, а устоявшаяся — 1,3 Эфлопс.

О планах по созданию экзафлопсных систем Китай официально объявил в 2019 году. Тогда было анонсировано сразу три проекта: Национальный университет оборонных технологий (National University of Defense Technology, NUDT) должен был развивать системы Sunway, Национальный исследовательский центр параллельной вычислительной техники (National Research Center of Parallel Computer, NRCPC) ответственен за доработку платформ Tianhe, а Sugon планировала задействовать процессоры Hygon (клон первого поколения AMD EPYC) и ускорители собственной разработки, но, вероятно, в этом деле не очень преуспела.

Точные конфигурации обоих суперкомпьютеров доподлинно неизвестны, поскольку на этот раз Китай решил не хвастаться достигнутыми результатами. Тем не менее, кое-какие сведения всё же есть. Наследник TaihuLight под кодовым именем Oceanlite на базе нового поколения чипов Sunway (ShenWei) имеет минимум 42 млн ядер и пиковую производительность 1,3 Эфлопс в HPL. Устоявшуася производительность составляет 1,05 Эфлопс, а в FP16-вычислениях — 4,4 Эфлопс. Предполагается, что чипы Oceanlite по сравнению с ShenWei 26010 имеют вдвое больше вычислительных блоков на единицу площади, да и число самих чипов также выросло в два раза. При этом энергопотребление суперкомпьютера составляет 35 МВт.

Прототип Tianhe-3. Фото: Xinhua

Прототип Tianhe-3. Фото: Xinhua

Вторая система, условно называемая Tiahne-3, также имеет пиковую производительность 1,3 Эфлопс, но данных о потребляемой мощности нет. Зато об её чипах известно чуть больше — за их разработку отвечает Phytium, росту которой в своё время помог запрет на поставку Intel Xeon для китайских суперкомпьютеров. В активе компании есть собственные 7-нм Arm-процессоры FeiTeng и ускорители (DSP) серии Matrix. Похоже, компания успела получить нужные объёмы чипов до того, как TSMC прекратила их выпуск под давлением США.

Постоянный URL: http://servernews.ru/1052267
26.10.2021 [15:55], Руслан Авдеев

Минобрнауки пересмотрит принципы развития российской суперкомпьютерной инфраструктуры

В ближайшие месяцы Министерство науки и высшего образования России намерено пересмотреть концепцию развития суперкомпьютерной инфраструктуры в стране. До конца года в министерстве определят и структуру сети отечественных суперкомпьютеров.

Как сообщил журналистам ТАСС начальник отдела прикладной вычислительной инфраструктуры департамента цифрового развития министерства Александр Матюнин, к середине ноября специальная рабочая группа проведёт оценки необходимых вычислительных мощностей и типов востребованных в будущем высокопроизводительных вычислений (HPC) в науке, образовании и промышленности. А в декабре она намерена пересмотреть прогнозы развития суперкомпьютерных и грид-технологий на срок до 2031 года.

Дополнительно представители министерства доработают и концепцию развития суперкомпьютерной инфраструктуры в стране. Ожидается, что к окончанию заданного периода в России будет функционировать на проектной мощности сеть суперкомпьютерных центров, благодаря которым учёные и учреждения высшего образования получат доступ к высокопроизводительным вычислениям современного уровня.

По словам представителей министерства оценка развития инфраструктуры будет проводиться на годы вперёд: будет переработана Концепция развития суперкомпьютерной инфраструктуры в соответствии с поставленными целями, на десять лет вперёд определены модель и структура сети суперкомпьютеров, а также этапы и параметры роста производительности оборудования.

Ранее президент РАН Александр Сергеев сообщил, что страна более, чем в 100 раз отстаёт по производительности суперкомпьютеров от «ведущего мирового уровня». В последнем списке TOP500 самых быстрых суперкомпьютеров в мире есть всего три российских машины: Кристофари (Сбер, 61 место), Ломоносов-2 (МГУ, 199 место) и MTS GROM (#CloudMTS, 240 место).

Постоянный URL: http://servernews.ru/1052214
22.10.2021 [20:03], Руслан Авдеев

Для обеспечения работы суперкомпьютера El Capitan потребуется 28 тыс. тонн воды и 35 МВт энергии

К моменту ввода в эксплуатацию в 2023 году суперкомпьютер El Capitan на базе AMD EPYC Zen4 и Radeon Instinct, как ожидается, будет иметь самую высокую в мире производительность — более 2 Эфлопс. А это означает, что ему потребуются гигантские мощности для питания и охлаждения. Ливерморская национальная лаборатория (LLNL), в которой и будет работать El Capitan, поделилась подробностями о масштабном проекте, призванном обеспечить HPC-центр необходимой инфраструктурой.

В основе плана модернизации лежит проект Exascale Computing Facility Modernization (ECFM) стоимостью около $100 млн. В его рамках будет обновлена уже существующая в LLNL инфраструктура. Для реализации проекта необходимо получить очень много разрешений от местных регуляторов и очень тесно взаимодействовать с местными поставщиками электроэнергии. Тем не менее, LLNL заявляет, что проект «почти готов», по некоторым оценкам — на 93%. Функционировать новая инфраструктура должна с мая 2022 года (с опережением графика).

Сам проект стартовал ещё в 2019 году и, согласно планам, должен быть полностью завершён в июле 2022 года. В его рамках модернизируют территорию центра, введённого в эксплуатацию в 2004 году, общей площадью около 1,4 га. Если раньше центр, в котором работали системы вроде лучшего для 2012 года суперкомпьютера Sequoia (ныне выведенного из эксплуатации), обеспечивал подачу до 45 МВт, то теперь инфраструктура рассчитана уже на 85 МВт.

Конечно, даже для El Capitan такие мощности будут избыточны — ожидается, что суперкомпьютер будет потреблять порядка 30-35 МВт. Однако LLNL заранее думает о «жизнеобеспечении» преемника El Capitan. Следующий суперкомпьютер планируется ввести в эксплуатацию до того, как его предшественник будет отключён в 2029 году. Кроме того, для новой системы потребуется установка нескольких 3000-тонных охладителей. Если раньше общая ёмкость системы охлаждения составляла 10 000 т воды, то теперь она вырастет до 28 000 т.

Постоянный URL: http://servernews.ru/1051952
19.10.2021 [15:21], Сергей Карасёв

HPE построила для метеослужбы ОАЭ суперкомпьютер мощностью 2,8 Пфлопс

Компания Hewlett Packard Enterprise (HPE) реализовала проект по созданию комплекса высокопроизводительных вычислений для Национального центра метеорологии (NCM) Объединённых Арабских Эмиратов (ОАЭ). Новый суперкомпьютер получил название Atmosphere. Его планируется полностью ввести в эксплуатацию к концу текущего года. Он обеспечит пиковую производительность на уровне 2,8 Пфлопс.

Система выполнена на платформе HPE Cray EX с жидкостным охлаждением. Задействованы узлы с процессорами AMD EPYC второго поколения и акселераторами NVIDIA A100. В состав комплекса вошло хранилище на базе Cray ClusterStor E1000. Используются интерконнект HPE Slingshot и платформа HPE Data Management Framework, обеспечивающая централизованное управление данными в высокопроизводительных вычислительных системах.

НРЕ

НРЕ

На базе комплекса планируется обрабатывать различные модели прогнозирования погоды, такие как Weather Research and Forecasting (WRF) и COSMO (Consortium for Small-scale Modeling). В NCM рассчитывают, что по сравнению с нынешними комплексами, находящимися в использовании, время симуляции сократится на 200 % в случае WRF и на 300 % в случае COSMO.

Постоянный URL: http://servernews.ru/1051620
19.10.2021 [00:26], Алексей Степин

Суперкомпьютер Eni HPC4 переедет на платформу HPE GreenLake

Итальянская нефтегазовая компания Eni, как и любой другой представитель этого сектора, нуждается в серьёзных вычислительных мощностях. В 2019 году она объявила о намерении обзавестись ещё одним суперкомпьютером, остановив свой выбор производителя на Dell EMC. Этим суперкомпьютером стал HPC5. Но сейчас стало известно, что другая система, HPC4, будет модернизирована HPE и станет облачной.

Не секрет, что разработка новых источников энергии, в том числе, с прицелом на их безопасность для экологии, ведётся при активном использовании современных вычислительных технологий, позволяющих моделировать ряд сложных физических процессов без проведения громоздких и крайне недешёвых экспериментов. Однако более точные модели требуют наращивания вычислительных ресурсов, иногда многократного.

ЦОД Eni Green Data Center

ЦОД Eni Green Data Center

Выбор Eni пал на решение HPE GreenLake, которая благодаря облачному подходу позволит оптимально использовать имеющиеся ресурсы, экономя и средства, и электроэнергию. Платформа GreenLake стартовала очень удачно, она активно развивается и HPE сообщила, что суммарный объём контрактов для неё уже превысил $5,2 млрд. Недавно HPE добилась ещё одного контракта для GreenLake, на этот раз с АНБ США, что добавит к вышеуказанной сумме ещё $2 млрд.

Расположится новый кластер HPC4 в ЦОД Green Data Center, который находится в коммуне Феррера-Эрбоньоне, провинция Павия, Италия. Основой платформы станут узлы HPE ProLiant DL385 Gen10 Plus, их в составе кластера будет более полутора тысяч. Благодаря использованию современных 24-ядерных процессоров AMD EPYC 7402 каждый узел станет будет примерно на 20% производительнее исходных узлов HPC4, а пиковый показатель для всего кластера составит примерно 22 Пфлопс.

HPE ProLiant DL385 Gen10 Plus

HPE ProLiant DL385 Gen10 Plus

Но прирост достигается в данном случае не только процессорами EPYC, поскольку новая система будет гетерогенной и в её состав войдут ускорители NVIDIA и AMD: 1375 узлов получат по паре NVIDIA V100, в 125 узлах будет установлена пара A100, а ещё 22 узла оснастят двумя AMD Instinct MI100. Эта система заменит существующий кластер HPC4, который также базируется на аппаратном обеспечении HPE, но предыдущего поколения — ProLiant DL380 Gen10 c Intel Xeon Scalable семейства Skylake и ускорители NVIDIA P100. Интерконнектом станет NVIDIA/Mellanox InfiniBand HDR (200 Гбит/с).

Коридоры Eni HPC5

Коридоры Eni HPC5

Помимо прироста вычислительной мощи, у обновлённого HPC4 вдвое (с 5 до 10 Пбайт) вырастет ёмкость подсистемы хранения данных, которая будет базироваться на сочетании Cray ClusterStor E1000 и ПО HPE Data Management Framework. Это позволит специалистам Eni использовать более сложную машинную аналитику с более объёмными наборами данных. Контракт предусматривает полную модернизацию системы, а также минимизацию электронных отходов, поскольку старые компоненты попадут под действие услуги HPE Asset Upcycling Services.

Любопытно отметить, что Eni не складывает все яйца в единственную корзину: другой суперкомпьютер компании, HPC5, установленный Dell и запущенный в феврале прошлого года, продолжает свою работу. Он базируется на серверах Dell EMC PowerEdge C4140, оснащённых двумя процессорами Intel Xeon Gold 6252, четырьмя ускорителями NVIDIA V100 и соединённых интерконнектом InfiniBand HDR (200 Гбит/с). Он занимает девятую позицию в рейтинге Top500 с 51,7 Пфлопс, в то время как HPC4 — лишь 33 позицию со своими 18,6 Пфлопс, но после модернизации новый кластер имеет все шансы подняться в данном рейтинге.

Постоянный URL: http://servernews.ru/1051570
01.10.2021 [15:19], Сергей Карасёв

В США началась сборка экзафлопсного суперкомпьютера Frontier

Вычислительный центр OLCF (Oak Ridge Leadership Computing Facility) Окриджской лаборатории Министерства энергетики США приступил к строительству комплекса Frontier — суперкомпьютера с экзафлопсной производительностью. Это важная веха в реализации американской программы по созданию HPC-систем нового поколения.

В проекте по разработке вычислительного комплекса Frontier участвуют специалисты HPE. Система объединит более 9000 узлов Cray EX, каждый из которых содержит один процессор AMD EPYC третьего поколения и четыре акселератора Radeon Instinct MI200. Задействован интерконнект Slingshot 11.

Здесь и ниже изображения ORNL/DOE

Здесь и ниже изображения ORNL/DOE

СХД суперкомпьютера состоит из двух основных компонентов: это внутрисистемное хранилище и распределённое хранилище Orion, использующее открытые решения Lustre и ZFS. В общей сложности в состав комплекса войдут около 6000 твердотельных накопителей и почти 48 тыс. жёстких дисков. Суммарная вместимость составит соответственно 10 Пбайт и 695 Пбайт.

Пиковое быстродействие Frontier, как ожидается, окажется на отметке 1,5 Эфлопс. Энергопотребление системы — приблизительно 29 МВт, или 19,33 МВт в расчёте на один Эфлопс, что делает её самой энергоэффективной системой подобного класса на текущий момент. Для охлаждения машины потребовалось почти 500 тыс. л теплоносителя и четыре насосных станции мощностью 350 л.с. каждая. Завершить ввод в эксплуатацию планируется в следующем году.

Постоянный URL: http://servernews.ru/1050370
22.09.2021 [13:26], Сергей Карасёв

В основу новых суперкомпьютеров NNSA лягут процессоры Intel Xeon Scalable Sapphire Rapids

Национальное управление по ядерной безопасности (NNSA) Министерства энергетики США выбрало процессоры Intel Xeon Scalable следующего поколения с кодовым именем Sapphire Rapids для высокопроизводительных вычислительных комплексов, создаваемых по проекту Life Extension.

Речь идёт о поддержании критических задач в рамках программы управления ядерным арсеналом (Stockpile Stewardship). Она, в частности, предусматривает проверку тактико-технических характеристик и надёжности ядерных боевых частей ракет. Оцениваются химическая стабильность материалов, состояние электронных компонентов и пр.

Intel

Intel

Сообщается, что Ливерморская национальная лаборатория им. Э. Лоуренса, входящая в состав NNSA, заключила контракт с Dell Technologies на поставку новых серверов Dell EMC PowerEdge для будущих суперкомпьютеров. В основу этих систем лягут чипы Sapphire Rapids.

Отгрузки первого оборудования в рамках договора запланировано на середину следующего года. В целом, контракт охватывает период до 2025-го. Новые комплексы высокопроизводительных вычислений будут развёрнуты в Ливерморской национальной лаборатории им. Э. Лоуренса, а также в Лос-Аламосской национальной лаборатории и в Национальных лабораториях Сандия.

Постоянный URL: http://servernews.ru/1049608
07.09.2021 [12:19], Владимир Мироненко

HPE построила суперкомпьютер для японского университета Хиого

Hewlett Packard Enterprise (HPE) построила новый суперкомпьютер для университета Хиого в Кобе (Япония). Это один из самых мощных суперкомпьютеров среди имеющихся у государственных университетов Японии. Он построен с использованием систем HPE Apollo 6500 Gen10 и HPE Apollo 2000 Gen10 с ускорителями NVIDIA V100. Также в системе используется комбинация серверов HPE ProLiant DL360, DL380 и DL560 Gen10. Для обработки постоянно растущих данных была развёрнута СХД Cray ClusterStor E1000 от HPE, которая отвечает высоким требованиям для задач HPC и ИИ с интенсивным использованием данных.

Sundry Photography/iStock Editorial/Getty Images

Sundry Photography/iStock Editorial/Getty Images

Новый суперкомпьютер используется для исследований самых сложных и неотложных проблем общества. Этот университетский суперкомпьютер третьего поколения со значительно улучшенной производительностью для работы с большими наборами данных позволит повысить точность результатов благодаря использованию ИИ и машинного обучения.

С его помощью учёные будут изучать метеорологические явления, физику плазмы, сложные жидкости, сейсмостойкую архитектуру, энергосберегающие материалы, эконофизику и ДНК. Исследователи уже выяснили с помощью суперкомпьютера особенности внезапных проливных дождей, разработали покрытие, предотвращающие образование тромбов в искусственных сердцах и легких, а также произвели прогнозирование повреждений зданий и экономических потерь в результате землетрясений в Нанкайском желобе.

Постоянный URL: http://servernews.ru/1048456
25.08.2021 [15:40], Сергей Карасёв

«Тренировочный» суперкомпьютер Polaris получит 560 процессоров AMD EPYC и 2240 ускорителей NVIDIA A100

Аргоннская национальная лаборатория Министерства энергетики США анонсировала проект высокопроизводительного вычислительного комплекса Polaris. Созданием этого суперкомпьютера займутся специалисты Hewlett Packard Enterprise (HPE), а его ввод в эксплуатацию запланирован на начало следующего года.

В основу системы лягут 280 узлов HPE Apollo 6500 Gen10 Plus. Говорится об использовании 560 процессоров AMD EPYC второго и третьего поколений, а также 2240 ускорителей NVIDIA A100. Узлы будут объединены интерконнектом HPE Slingshot, а мониторинг и управление системой будет осуществляться HPE Performance Cluster Manager.

Пиковое быстродействие комплекса составит приблизительно 44 Пфлопс на FP64-операциях. Теоретическая производительность при работе с ИИ-задачами будет достигать 1,4 Эфлопс. Использовать суперкомпьютер планируется при решении ряда сложных задач. Среди них названы исследования в космической сфере, изучение биологии вирусов, проекты в области чистой энергии, производства и пр.

Аргоннская национальная лаборатория

Аргоннская национальная лаборатория

Отмечается, что создание Polaris поможет подготовиться, потренировавшись в переносе и оптимизации ПО, к появлению вычислительной системы Aurora экзафлопсного уровня, выход которой неоднократно откладывался. Это совместный проект Аргоннской национальной лаборатории, компаний Intel и HPE. Данная система обеспечит в четыре раза более высокое быстродействие по сравнению с нынешними суперкомпьютерами лаборатории. Первой экзафлопсной системой в США станет суперкомпьютер Frontier на базе AMD EPYC и Instinct.

Постоянный URL: http://servernews.ru/1047542
Система Orphus