Материалы по тегу: суперкомпьютер

13.05.2022 [04:30], Владимир Мироненко

Google представила 9-Эфлопс ИИ-кластер на базе собственных чипов TPU v4

Google представила на конференции I/O 2022 облачные решения на базе собственного ИИ-ускорителя TPU v4, который более чем вдвое производительнее и втрое энергоэффективнее TPU v3. Компания предлагает кластеры, которые содержат сразу 4096 ускорителей, тогда как в прошлом поколении они включали не более 1024 чипов. Новые кластеры предлагают пропускную способность до 6 Тбит/с на хост, что позволяет быстро обучать самые большие модели.

 Изображения: Google

Изображения: Google

По словам компании, один кластер TPU v4 имеет производительность более 1 Эфлопс. Правда, в данном случае речь идёт о BF16- или INT8-вычислениях. Один облачный ускоритель TPU v4, оснащённый 32 Гбайт HBM2-памяти (1,2 Тбайт/с) выдаёт в этом режиме до 275 Тфлопс, потребляя в среднем 170 Вт. Сейчас компания занята установкой таких кластеров в собственных дата-центрах, причём питание многих из них будет на 90% поставляться из «зелёных» безуглеродных источников.

Один из таких ЦОД, который находится в округе Мейс (штат Оклахома), получил комплекс из восьми кластеров TPU v4 с суммарной производительностью порядка 9 Эфлопс. По словам компании, это самый производительный среди публично доступных ($3,22/час за чип) кластеров такого класса.

Постоянный URL: http://servernews.ru/1065836
12.05.2022 [15:46], Владимир Мироненко

На заре двух экзафлопс: в Аргоннской национальной лаборатории начали монтаж суперкомпьютера Aurora

Рик Стивенс (Rick Stevens), заместитель директора Аргоннской национальной лаборатории (ANL), сообщил на прошедшей на этой неделе в Далласе (штат Техас) конференции Intel Vision 2022 о старте монтажа суперкомпьютера Aurora, который после окончательно ввода в эксплуатацию будет иметь пиковую производительность более 2 Эфлопс. Aurora объединит более 10 000 блейд-серверов с СЖО в составе платформы HPE Cray EX (Shasta).

Каждый узел будет оснащён двумя процессорам Intel Xeon Sapphire Rapids с HBM-памятью и шестью ускорителями Intel Xe Ponte Vecchio. Узлы объединит интерконнект Cray Slingshot. Специалисты лаборатории уже развернули хранилище Intel DAOS, узлы управления и инфраструктуру охлаждения, а также внедрили тестовые кластеры для отладки и проверки совместимости ПО с новыми процессорами и ускорителями. Лаборатория будет использовать Intel oneAPI в качестве новой, единой модели разработки ПО. Стивенс пояснил, что унификация позволит использовать одну кодовую базу для всех вычислительных блоков любого типа.

 Изображение: Intel

Изображение: Intel

Стивенс также объявил, что Аргоннская национальная лаборатория начала приём заказов на выполнение вычислений на суперкомпьютере для научных проектов. «Вы можете сделать заказ на экономические и промышленные исследования, если вы заинтересованы в совершении прорывов в науке и технике, — заявил учёный. — Мы принимаем заказы, настраиваем учётные записи разработчиков и привлекаем команды на ранних системах для создания программного обеспечения, чтобы, в первый день, когда Aurora заработает, у нас уже были запущены приложения».

 Фото: ALCF

Фото: ALCF

Aurora — одна из трёх экзафлопсных систем, призванных обеспечить лидерство США в области суперкомпьютеров. С момента анонса в 2015 году проект претерпел ряд кардинальных изменений. В частности, его пиковую производительность повысили до двух Эфлопс, а запуск в итоге перенесли на 2022 год. Две другие американские эксафлопсные системы, находящиеся в разработке — Frontier (1,5 Эфлопс, Национальная лаборатория Оук-Ридж, 2022 год) и El Capitan (2+ Эфлопс, Ливерморская национальная лаборатория им. Э. Лоуренса, 2023 год). Впрочем, в экзафлопсной гонке, похоже, лидирует пока Китай.

Постоянный URL: http://servernews.ru/1065786
16.04.2022 [23:54], Алексей Степин

Космический суперкомпьютер HPE Spaceborne-2 успешно завершил 24 эксперимента на МКС

Периферийные вычисления подразумевают работу достаточно мощных серверов в нестандартных условиях. Казалось бы, 400 километров — не такое уж большое расстояние. Но если это высота орбиты космической станции, то более «периферийное» место найти будет сложно. А ведь если человечество планирует и далее осваивать космос, оно неизбежно столкнётся и с проблемами, свойственными космическим ЦОД.

Первый космический суперкомпьютер, как его окрестили создатели из HPE, появился в 2017 году и успешно проработал на орбите 615 дней. Инженеры учли выявленные особенности работы такой системы на орбите и в прошлом году отправили на МКС Spaceborne-2 (SBC-2), который стал вдвое производительнее предшественника.

 HPE Spaceborne-1

HPE Spaceborne-1

Хотя SBC-2 по земным меркам и невелик и состоит всего из двух вычислительных узлов (HPE Edgeline EL4000 и HPE ProLiant DL360 Gen10, совокупно чуть более 2 Тфлопс), это самая мощная компьютерная система, когда-либо работавшая в космосе. К тому же, это единственная космическая вычислительная система, оснащённая ИИ-ускорителем NVIDIA T4.

 HPE Spaceborne-2 (Изображения: HPE)

HPE Spaceborne-2 (Изображения: HPE)

Теперь же HPE сообщает, что эта машина меньше чем за год помогла в проведении 24 важных научных экспериментов. Всё благодаря достаточно высокой производительности. Одним из первых стал стал анализ генов — обработка данных непосредственно на орбите позволила снизить объём передаваемой информации с 1,8 Гбайт до 92 Кбайт. Но это далеко не единственный результат.

Так, ИИ-ускорители были задействованы для визуального анализа микроскопических повреждений скафандров, используемых для выхода в открытый космос. Они же помогли в обработке данных наблюдения за крупными погодными изменениями и природными катаклизмами. Также был проведён анализ поведения металлических частиц при 3D-печати в невесомости, проверена возможность работы 5G-сетей космических условиях, ускорены расчёты требуемых объёмов топлива для кораблей и т.д.

Ряд проблем ещё предстоит решить: в частности, в условиях повышенной космической радиации существенно быстрее выходят из строя SSD, что естественно для технологии, основанной на «ловушках заряда». По всей видимости, для дальнего космоса целесообразнее будет использовать накопители на базе иной энергонезависимой памяти. Впрочем, при освоении Луны или Марса полагаться на земные ЦОД тоже будет трудно, а значит, достаточно мощные вычислительные ресурсы придётся везти с собой.

Постоянный URL: http://servernews.ru/1064130
30.03.2022 [22:01], Владимир Мироненко

Российская суперкомпьютерная платформа «РСК Торнадо» объединила отечественные «Эльбрусы» и зарубежные x86-процессоры

Группа компаний РСК на конференции «Параллельные вычислительные технологии (ПаВТ) 2022» сообщила о создании суперкомпьютерной платформы «РСК Торнадо», которая позволяет одновременно использовать в одной системе вычислительные узлы на базе зарубежных x86-процессоров и отечественных чипов «Эльбрус».

Возможность использования различных типов микропроцессорных архитектур в одном монтажном шкафу (до 104 серверов в стойке), позволит ускорить темпы импортозамещения в области высокопроизводительных вычислительных систем (HPC), решений для центров обработки данных (ЦОД) и систем хранения данных (СХД). Унифицированная интероперабельная (т.е. обеспечивающая функциональную совместимость разных решений) платформа «РСК Торнадо» предназначена для решения широкого круга задач, в том числе для работы с нагрузками Big Data, HPC и ИИ.

 Суперкомпьютер «Говорун» в ОИЯИ (Фото: Группа компаний РСК)

Суперкомпьютер «Говорун» в ОИЯИ (Фото: Группа компаний РСК)

Разработка и создание вычислительных систем на основе «РСК Торнадо» осуществляется на территории России в рамках соглашения с Министерством промышленности и торговли Российской Федерации с целью реализации подпрограммы «Развитие производства вычислительной техники» в составе государственной программы «Развитие электронной и радиоэлектронной промышленности».

Программный стек «РСК БазИС» для вышеупомянутой платформы тоже разработан в России. В настоящее время система «РСК БазИС» используется для оркестрации вычислительных мощностей Межведомственного суперкомпьютерного центра (МСЦ) РАН, Санкт-Петербургского политехнического университета (СПбПУ) и Объединенного института ядерных исследований (ОИЯИ), сведённых в единую инфраструктуру для оптимизации вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1063096
29.03.2022 [21:00], Владимир Мироненко

Общая производительность 50-ти самых мощных суперкомпьютеров России выросла за полгода почти вчетверо

Сегодня Научно-исследовательский вычислительный центр МГУ имени М.В.Ломоносова и Межведомственный Суперкомпьютерный Центр РАН объявили в ходе Международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2022» о выпуске тридцать шестой редакции списка Тор50 самых мощных суперкомпьютеров России. Первые три места принадлежат системам «Яндекса»: «Червоненкис», «Галушкин», «Ляпунов».

Новая редакция списка отличается существенным ростом суммарной производительности в тесте Linpack — всего за полгода она увеличилась с 22,9 до 85,1 Плофпс. Суммарная пиковая производительность выросла с 35,2 до до 120,2 Пфлопс. За этот короткий период в списке появилось сразу семь новых суперкомпьютеров, четыре из которых заняли первые места, а также произошло обновление ещё одной системы.

 Источник: top50.supercomputers.ru

Источник: top50.supercomputers.ru

среди отечественных производителей в рейтинге Top50 по количеству систем снова лидирует РСК — 11 вычислительных комплексов, все эксклюзивной разработки. Среди иностранных — HPE, за которой в списке числятся 12 машин. В тройку лидеров также входит компания «Т-Платформы», у неё 8 комплексов в списке. Количество систем, используемых в науке и образовании, сократилось с 27 до 26, на конкретные прикладные исследования по-прежнему ориентировано 7 систем.

42 системы используют процессоры Intel. Число гибридных суперкомпьютеров, включающих ускорители, выросло за полгода с 27 до 32. Интерконнект InfiniBand применяется в 34 системах (ранее таковых было 33). Также сохранилось количество систем на основе технологии Intel Omni-Path — 5. Наконец, 7 суперкомпьютеров всё ещё используют для взаимодействия узлов сеть Gigabit Ethernet.

Постоянный URL: http://servernews.ru/1062985
15.03.2022 [15:45], Сергей Карасёв

Atos построила суперкомпьютер Levante для моделирования климата: 3000 узлов с AMD EPYC, 800 Тбайт памяти и 130 Пбайт СХД

Французская компания Atos и Климатический вычислительный центр Германии (DKRZ) объявили о начале эксплуатации нового комплекса высокопроизводительных вычислений (HPC) — суперкомпьютера под названием Levante. Система смонтирована на площадке DKRZ в Гамбурге.

В основу Levante положен кластер Atos BullSequana XH2000. В рамках первой фазы строительства объединены около 3000 узлов на процессорах AMD EPYC 7763. В качестве интерконнекта используется NVIDIA Mellanox InfiniBand HDR 200G. Суперкомпьютер имеет 800 Тбайт основной памяти. Файловая система Lustre обеспечивает ёмкость в 130 Пбайт. Это одна из крупнейших машин подобного класса в Европе.

 Источник изображения: DKRZ

Источник изображения: DKRZ

В текущем виде комплекс демонстрирует пиковую производительность на уровне 16 Пфлопс. Это в полтора раза больше, чем результат полученный к моменту выхода ноябрьского рейтинге TOP500, в котором система заняла 68-е место. В нынешнем виде она заняла бы примерно 36–37 место.

По сравнению с суперкомпьютером предыдущего поколения Mistral комплекс Levante не только обеспечивает многократный прирост производительности, но и позволяет снизить стоимость владения. Достигается это за счёт применения технологии прямого жидкостного охлаждения. Использовать Levante планируется для моделирования различных природных явлений и прогнозирования изменений климата.

Постоянный URL: http://servernews.ru/1062005
15.03.2022 [14:54], Сергей Карасёв

Суперкомпьютер РАН помог в создании «цифровых лекарств» от коронавируса

Высокопроизводительный вычислительный комплекс Российской академии наук (РАН), построенный компаний РСК, помог в разработке нового метода более быстрого моделирования молекул-аптамеров для борьбы с коронавирусом SARS-CoV-2. Об этом говорится в публикации журнала Chemistry Europe.

Аптамеры — молекулы, которые способны находить заданные клетки организма и воздействовать на них. Использование аптамеров в терапевтической практике называют «цифровым лекарством» — благодаря целевому действию препарата, который способен предотвращать связывание вируса с клетками человека.

 Фото: Группа компаний РСК

Фото: Группа компаний РСК

Вычислительные мощности Межведомственного суперкомпьютерного центра РАН (МСЦ РАН) использовались в ходе двухгодичного исследования, проводимого в рамках международного проекта The Good Hope Net («Сеть доброй надежды»). С помощью новой итеративной процедуры проектирования были получены высокоспецифичные аптамеры к рецептор-связывающему домену шиповидного белка SARS-CoV-2. В общей сложности специалисты смоделировали 256 аптамеров, из которых для дальнейших исследований отобраны восемь.

Отмечается, что для ускорения разработки учёные применили подход, который сочетает молекулярную динамику с квантовой химией. В частности, были задействованы молекулярный дизайн, трёхмерное молекулярное моделирование мишени, стыковка аптамера с белком, молекулярно-динамическое моделирование комплексов, квантово-механическая оценка взаимодействия между аптамером и мишенью и экспериментальная проверка в каждом цикле.

«Достоинством такого подхода является то, что он значительно увеличивает скорость разработки аптамеров "с нуля", так как для исследования не требуется нарабатывать большое количество вирусных белков, достаточно создать их трёхмерную модель», — говорится в публикации.

Постоянный URL: http://servernews.ru/1062003
22.02.2022 [16:26], Владимир Мироненко

США профинансируют разработку энергоэффективных ЦОД, пост-экзафлопсных суперкомпьютеров, ИИ и квантовых сетей

Палата представителей США приняла в этом месяце акт America Competes Act, который включает положения о программах по повышению энергоэффективности дата-центров, разработке пост-экзафлопсных суперкомпьютеров и ИИ-решений, а также продвижению квантовых сетей. Акт дополняет и расширяет более ранний проект, включающий финансирование разработки полупроводников на сумму $52 млрд.

 IBM Q

IBM Q

Дополненный акт включает сразу несколько новых подразделов. В их числе «Программа энергоэффективных вычислений» (Energy-Efficient Computing Program), в рамках которой будет реализована поддержка фундаментальных исследований, разработок и демонстрации технологий энергоэффективных вычислений и центров обработки данных (ЦОД), имеющих отношение к передовым вычислительным задачам, включая высокопроизводительные вычисления (HPC), ИИ и системы машинного обучения для научных расчётов и моделирования.

В рамках программы Министерству энергетики поручено сотрудничать с Национальными лабораториями, высшими учебными заведениями и частным сектором для разработки аппаратных и программных технологий, которые повышают энергоэффективность «тяжёлых» вычислений, в том числе благодаря новым подходам к созданию ЦОД. Программа предполагает рассмотрение возможности использования ряда гетерогенных вычислительных архитектур, в том числе нейроморфных.

 Будущий суперкомпьютер Frontier (Фото: AMD)

Будущий суперкомпьютер Frontier (Фото: AMD)

Кроме того, планируется создать сверхбыстрые сети и разработать системы, не требующие прерывания работы (т.е. вычислений) для обслуживания. Программа также включает создание языков, инструментов и сред разработки для поддержки решения прикладных задач в области математики, статистики и моделирования сложных систем. А прямо сейчас ведётся работа по созданию программной экосистемы для двух экзафлопсных суперкомпьютеров (Frontier и Aurora), которые, впрочем, несколько задержались — в рамках проекта Exascale Computing Project предполагалось, что они будут созданы к 2021 году.

Тем не менее, проект признан успешным, а в новом акте содержится призыв «поддерживать и развивать экосистему», обеспечивая её оптимизацию для долгосрочного использования. Это важно, поскольку он теперь включает «Программу вычислений следующего поколения», ориентированную на создание HPC-решений «с возможностями, превосходящими экзафлопсные вычислительные системы».

 Intel Tangle Lake

Intel Tangle Lake

Наконец, особое внимание уделено квантовым технологиям. В частности, национальная инициатива в этой области поможет стимулировать исследования и разработки квантовых сетей для повышения безопасности страны и распределённых систем квантовых вычислений. В рамках совместной работы с индустрией, Национальными лабораториями и ВУЗами планируется разработать целый ряд оборудования для квантовой связи.

На поддержку одного только этого направления будет выделяться ежегодно $100 млн в период с 2022 по 2026 год. Кроме того, законопроектом предусмотрена отдельная программа Quantum User Expansion for Science and Technology program (QUEST) для упрощения исследователям доступа (в том числе облачного) к оборудованию для квантовых вычислений в США. Эта программа получит в первый год финансирование $30 млн, а всего до 2026 года на неё будет выделено $340 млн.

Постоянный URL: http://servernews.ru/1060742
16.02.2022 [21:17], Алексей Степин

Atos анонсировала экзафлопсные суперкомпьютеры BullSequana XH3000 — гибридные и «зелёные»

Atos представила суперкомпьютерную платформу BullSequana XH3000, которая придёт на смену XH2000 и станет основой для машин экзафлопсного класса, ориентированных на такие требовательные к вычислениям области науки как климатология, фармакология и генетика.

Суперкомпьютер имеет гибридную архитектуру и на данный момент является самым мощным и энергоэффективным решением в арсенале Atos. Что немаловажно, новая система разработана в Европе и будет производиться на заводе Atos в городе Анже ( Франция). Начало коммерческих поставок запланировано на IV квартал 2022 года.

Наиболее интересной особенностью BullSequana XH3000, пожалуй, можно назвать действительно беспрецедентный уровень гибридизации архитектур «под одной крышей». В рамках одного кластера могут быть задействованы вычислительные архитектуры AMD, Intel, NVIDIA и даже чипы, разрабатываемые консорциумом EPI, в том числе SiPearl. А в будущем возможна интеграция квантовых систем. Такая гибкость позволяет компании-разработчику говорить о шестикратном превосходстве новинки над решениями предыдущего поколения.

Кроме того, Atos весьма серьёзное внимание уделяет проблеме энергоэффективности и экологичности. В BullSequana XH3000 используется последнее, четвёртое поколение систем жидкостного охлаждения с «прямым контактом», которое минимум на 50% эффективнее предыдущего поколения. К тому же, вся платформа спроектирована таким образом, чтобы весь её жизненный цикл, от добычи материалов и производства до демонтажа и утилизации, был как можно более «зелёным».

Новый суперкомпьютер изначально спроектирован как масштабируемое решение — будут доступны конфигурации производительностью от 1 Пфлопс до 1 Эфлопс, а к моменту появления ускорителей следующего поколения появятся и варианты с производительностью 10 Экзафлопс. Также разработчики обращают внимание на крайнюю гибкость BullSequana XH3000 по части интерконнекта — она будет совместима с фирменной фабрикой BXI, Ethernet, а также InfiniBand HDR/NDR.

Постоянный URL: http://servernews.ru/1060364
13.02.2022 [21:49], Алексей Степин

Только Intel Xeon, только Sapphire Rapids — первые узлы суперкомпьютера Crossroads проходят тестирование

Как известно, новый суперкомпьютер Национального управления по ядерной безопасности (NNSA) Министерства энергетики США под названием Crossroads, будет построен на базе платформы c Intel Xeon Sapphire Rapids, созданной HPE. Совсем недавно Лос-Аламосская лаборатория, где устанавливается новая система, уже начала предварительные тесты первых вычислительных узлов Cray EX на базе новых процессоров Intel.

 Модуль системы тестирования Darwin (в левой части видны процессорные блоки)

Модуль системы тестирования Darwin (Изображения: Los Alamos National Lab via The Next Platform)

В них используется ранняя версия новых чипов Xeon, но она уже позволяет разработчиком из группы тестирования ASC Integrated Code оценить их производительность. Данные такого тестирования дадут инженерам Intel произвести последние оптимизиации для Sapphire Rapids. Несмотря на то, что в финальной версии в новых Xeon для этой машины ожидается использование памяти типа HBM, в предварительной версии используется обычная DDR5.

Новые узлы уже установлены в тестовую платформу ASC Darwin, которая позволяет использовать одновременно разные вычислительные архитектуры для лучшей сравнительной оценки и оптимизации кода. Каждый тестовый узел Crossroads несёт на борту по два 56-ядерных процессора Sapphire Rapids в окружении восьми модулей DDR5. В правой части видна пара сетевых модулей Cassini, это фирменный интерконнект HPE/Cray Slingshot 11. Охлаждение процессоров воздушное, хотя в финальной версии будет применено жидкостное охлаждение с технологией прямого контакта.

 Процессорный блок изнутри: воздушное охлаждение Sapphire Rapids и 8 модулей DDR5 на процессор

Процессорный блок изнутри: воздушное охлаждение Sapphire Rapids и 8 модулей DDR5 на процессор

Источники сообщают, что ввод в строй суперкомпьютера Crossroads будет происходить в два этапа, как это было и в своё время с системой Trinity на базе Xeon и Xeon Phi, поскольку в нужный Лос-Аламосским лабораториям момент компания не смогла обеспечить поставки новых на тот момент ускорителей Knights Landing. Таким образом, в Crossroads будут в какой-то момент времени одновременно трудиться вычислительные узлы, оснащённые памятью DDR5 и более новые, использующие HBM2e.

Предположительно, в тестовых версиях используются пулы памяти общим объёмом 256 Гбайт, поскольку стоимость модулей DDR5 ёмкостью 32 Гбайт существенно ниже версий с большими ёмкостями. В финальной версии объём памяти HBM2e составит по 64 Гбайт на процессорный разъём. Если пропускная способность первого варианта оценивается в 260 Гбайт/с, то вариант с HBM2e, уступая в ёмкости, сможет предоставить серьёзный выигрыш в скорости — от 1 до 1,8 Тбайт/с.

 Вычислительный узел Cray EX Shasta на базе Sapphire Rapids: 8 процессоров с СЖО «прямого контакта»

Вычислительный узел Cray EX Shasta на базе Sapphire Rapids: 8 процессоров с СЖО «прямого контакта»

Согласно расчётам The Next Platform, можно говорить о четырёхкратном преимуществе Crossroads над Trinity с точки зрения производительности, а в финансовом выражении это означает падение стоимости одного терафлопса с $4482 до $632. Для сравнения — в не столь уж от нас далёком 2008 году стоимость 1 Тфлопс составляла свыше $70 тыс.

Отметим, что HPE ответственна за постройку сразу нескольких крупных машин в США: Aurora (Intel Xeon + Xe), El Capitan (AMD EPYC + Instinct), Frontier и Crush (AMD EPYC + Instinct), Kestrel (Intel Xeon + NVIDIA A100NEXT), Perlmutter (AMD EPYC + NVIDIA A100) и Polaris (AMD EPYC + NVIDIA A100).

Постоянный URL: http://servernews.ru/1060102
Система Orphus