Материалы по тегу: компьютер

19.05.2022 [23:51], Алексей Степин

Первый в мире суперкомпьютер на базе ИИ-ускорителей Intel Habana готов к тестам

Несмотря на то, что буквально на днях было анонсировано второе поколение ИИ-ускорителей Intel Habana, только сейчас первый действительно серьёзный ИИ-суперкомпьютер Voyager, основанный ещё на первом поколении этих чипов, был окончательно смонтирован и подготовлен к эксплуатации.

В 2021 году Суперкомпьютерный центр Калифорнийского университета в Сан-Диего (SDSC) выбрал ускорители от Habana Labs, к тому моменту уже приобретённой Intel, для своего экспериментального ИИ-суперкомпьютера Voyager. Фактически это первая система подобного класса, которая использует исключительно ИИ-решения Intel. Пока что она предназначена для обкатки технологий, в том числе более глубокого изучения поведения аппаратной части, адаптации ПО, оценке и тюнингу производительности.

 Суперкомпьютер Voyager. Источник: SDSC

Суперкомпьютер Voyager. Источник: SDSC

Voyager включает 42 узла Supermicro X12, каждый из которых оснащена парой обычных процессоров Intel Xeon Scalable третьего поколения и парком из восьми ускорителей Habana Gaudi первого поколения. Каждый ускоритель располагает 32 Гбайт памяти HBM с пропускной способностью 1 Тбайт/с. Также в состав входит пара узлов SuperServer 4029GP-T с восемью инференс-ускорителями Habana Goya HL-100. Поскольку машина рассчитана на работу со сверхбольшими ИИ-моделями, в качестве основного интерконнекта используется 400GbE-фабрика с RDMA: каждый сервер имеет по шесть таких портов, а для связи используются неблокирующие коммутаторы Arista.

 Фазы проекта Voyager. Источник: Intel

Фазы проекта Voyager. Источник: Intel

Несмотря на достаточно серьёзные параметры рекордов от Voyager ждать не стоит. Первые три года работы машины придутся на тестовую фазу, во время которой доступ к ней получат избранные группы исследователей и учёных, а вся информация о работе будет тщательно собираться и изучаться. Следующая фаза продлится уже два года, и в этот период доступ к Voyager станет намного более свободным. К этому момент SDSC надеется отловить все баги, адаптировать ПО и выработать наиболее оптимальные методики работы с суперкомпьютером.

Постоянный URL: http://servernews.ru/1066281
19.05.2022 [02:15], Игорь Осколков

Tachyum готова всего за €500 млн построить монструозный ИИ-суперкомпьютер производительностью 1 Зфлопс

Tachyum продолжает рассказывать о том, как хороши её грядущие процессоры Prodigy. Вчера компания анонсировала две референсные системы, которые, по словам разработчиков, будут значительно быстрее и энергоэффективнее всех ныне существующих суперкомпьютерных платформ, даже самых производительных. Более того, платформа Tachyum якобы уже сейчас может масштабироваться до зеттафлопсного уровня.

 Изображения: Tachyum

Изображения: Tachyum

Первая система Prodigy Rack с воздушным охлаждением включает 24 2U-узла, каждый их которых содержит четыре процессора Prodigy среднего уровня — суммарно 96 CPU на стойку. В сравнении с кластером из четырёх NVIDIA DGX H100, включающем 32 ускорителя H100 (SXM), решение Tachyum обещает быть до 6,5 раз производительнее в HPC-приложениях, а в ИИ-нагрузках — до 12,5 раз быстрее (без уточнения точности вычислений). При этом по производительности и совокупной стоимости владения (TCO) оно до 16 раз лучше по сравнению с решением NVIDIA.

Вторая референсная система Prodigy Rack, на этот раз с жидкостным охлаждением, включает 36 1U-узлов. Узлы тоже четырёхпроцессорные, но уже с флагманскими 128-ядерными CPU Prodigy, работающими на частоте 5,7 ГГц. У этой системы разница в производительности с решением NVIDIA составляет до 13,5 и 27 раз для HPC- и ИИ-нагрузок соответственно, а по показателю TCO — до 10 раз. Впрочем, на бумаге сравнивать между собой два всё ещё не вышедших продукта можно сколько угодно.

Тем не менее, Tachyum предлагает Словакии построить за €70 млн новый суперкомпьютер, который в ИИ-задачах будет иметь производительность 128 Эфлопс, а в HPC — 500 Пфлопс (FP64). Эта гипотетическая система получит более 1,6 Пбайт RAM и 100-Пбайт хранилище (10 стоек), а её энергопотребление составит 9 МВт. В случае платформы с воздушным охлаждением на вычислительную часть потребуется 197 стоек, а с СЖО можно уложиться и 48 стоек.

Суперкомпьютер Tachyum должен быть всемеро быстрее суперкомпьютера NVIDIA Eos и в 25 раз производительнее машины Fugaku, нынешнего лидера TOP500. В данном случае речь идёт об ИИ-нагрузках, хотя к методике подсчёта Tachyum есть вопросы, поскольку для Eos, например, заявлено 9 Пфлопс для FP16-расчётов, а результат Fugaku в HPL-AI на вычислениях смешанной точности составляет 2 Эфлопс.

 FPGA-эмулятор Tachyum Prodigy

FPGA-эмулятор Tachyum Prodigy

Если и такого суперкомпьютера окажется недостаточно, то Tachyum готова за €500 млн построить настоящего монстра с FP64-производительностью на уровне 4 Эфлопс, а ИИ — сразу 1 Зфлопс (зеттафлопс). Именно до такого уровня, по словам компании, могут масштабироваться её Prodigy-системы первого поколения. Потреблять такая машина должна менее 70 МВт. Но, честно говоря, пока что всё это звучит слишком хорошо, чтобы быть правдой.

Постоянный URL: http://servernews.ru/1066207
13.05.2022 [04:30], Владимир Мироненко

Google представила 9-Эфлопс ИИ-кластер на базе собственных чипов TPU v4

Google представила на конференции I/O 2022 облачные решения на базе собственного ИИ-ускорителя TPU v4, который более чем вдвое производительнее и втрое энергоэффективнее TPU v3. Компания предлагает кластеры, которые содержат сразу 4096 ускорителей, тогда как в прошлом поколении они включали не более 1024 чипов. Новые кластеры предлагают пропускную способность до 6 Тбит/с на хост, что позволяет быстро обучать самые большие модели.

 Изображения: Google

Изображения: Google

По словам компании, один кластер TPU v4 имеет производительность более 1 Эфлопс. Правда, в данном случае речь идёт о BF16- или INT8-вычислениях. Один облачный ускоритель TPU v4, оснащённый 32 Гбайт HBM2-памяти (1,2 Тбайт/с) выдаёт в этом режиме до 275 Тфлопс, потребляя в среднем 170 Вт. Сейчас компания занята установкой таких кластеров в собственных дата-центрах, причём питание многих из них будет на 90% поставляться из «зелёных» безуглеродных источников.

Один из таких ЦОД, который находится в округе Мейс (штат Оклахома), получил комплекс из восьми кластеров TPU v4 с суммарной производительностью порядка 9 Эфлопс. По словам компании, это самый производительный среди публично доступных ($3,22/час за чип) кластеров такого класса.

Постоянный URL: http://servernews.ru/1065836
12.05.2022 [15:46], Владимир Мироненко

На заре двух экзафлопс: в Аргоннской национальной лаборатории начали монтаж суперкомпьютера Aurora

Рик Стивенс (Rick Stevens), заместитель директора Аргоннской национальной лаборатории (ANL), сообщил на прошедшей на этой неделе в Далласе (штат Техас) конференции Intel Vision 2022 о старте монтажа суперкомпьютера Aurora, который после окончательно ввода в эксплуатацию будет иметь пиковую производительность более 2 Эфлопс. Aurora объединит более 10 000 блейд-серверов с СЖО в составе платформы HPE Cray EX (Shasta).

Каждый узел будет оснащён двумя процессорам Intel Xeon Sapphire Rapids с HBM-памятью и шестью ускорителями Intel Xe Ponte Vecchio. Узлы объединит интерконнект Cray Slingshot. Специалисты лаборатории уже развернули хранилище Intel DAOS, узлы управления и инфраструктуру охлаждения, а также внедрили тестовые кластеры для отладки и проверки совместимости ПО с новыми процессорами и ускорителями. Лаборатория будет использовать Intel oneAPI в качестве новой, единой модели разработки ПО. Стивенс пояснил, что унификация позволит использовать одну кодовую базу для всех вычислительных блоков любого типа.

 Изображение: Intel

Изображение: Intel

Стивенс также объявил, что Аргоннская национальная лаборатория начала приём заказов на выполнение вычислений на суперкомпьютере для научных проектов. «Вы можете сделать заказ на экономические и промышленные исследования, если вы заинтересованы в совершении прорывов в науке и технике, — заявил учёный. — Мы принимаем заказы, настраиваем учётные записи разработчиков и привлекаем команды на ранних системах для создания программного обеспечения, чтобы, в первый день, когда Aurora заработает, у нас уже были запущены приложения».

 Фото: ALCF

Фото: ALCF

Aurora — одна из трёх экзафлопсных систем, призванных обеспечить лидерство США в области суперкомпьютеров. С момента анонса в 2015 году проект претерпел ряд кардинальных изменений. В частности, его пиковую производительность повысили до двух Эфлопс, а запуск в итоге перенесли на 2022 год. Две другие американские эксафлопсные системы, находящиеся в разработке — Frontier (1,5 Эфлопс, Национальная лаборатория Оук-Ридж, 2022 год) и El Capitan (2+ Эфлопс, Ливерморская национальная лаборатория им. Э. Лоуренса, 2023 год). Впрочем, в экзафлопсной гонке, похоже, лидирует пока Китай.

Постоянный URL: http://servernews.ru/1065786
16.04.2022 [23:54], Алексей Степин

Космический суперкомпьютер HPE Spaceborne-2 успешно завершил 24 эксперимента на МКС

Периферийные вычисления подразумевают работу достаточно мощных серверов в нестандартных условиях. Казалось бы, 400 километров — не такое уж большое расстояние. Но если это высота орбиты космической станции, то более «периферийное» место найти будет сложно. А ведь если человечество планирует и далее осваивать космос, оно неизбежно столкнётся и с проблемами, свойственными космическим ЦОД.

Первый космический суперкомпьютер, как его окрестили создатели из HPE, появился в 2017 году и успешно проработал на орбите 615 дней. Инженеры учли выявленные особенности работы такой системы на орбите и в прошлом году отправили на МКС Spaceborne-2 (SBC-2), который стал вдвое производительнее предшественника.

 HPE Spaceborne-1

HPE Spaceborne-1

Хотя SBC-2 по земным меркам и невелик и состоит всего из двух вычислительных узлов (HPE Edgeline EL4000 и HPE ProLiant DL360 Gen10, совокупно чуть более 2 Тфлопс), это самая мощная компьютерная система, когда-либо работавшая в космосе. К тому же, это единственная космическая вычислительная система, оснащённая ИИ-ускорителем NVIDIA T4.

 HPE Spaceborne-2 (Изображения: HPE)

HPE Spaceborne-2 (Изображения: HPE)

Теперь же HPE сообщает, что эта машина меньше чем за год помогла в проведении 24 важных научных экспериментов. Всё благодаря достаточно высокой производительности. Одним из первых стал стал анализ генов — обработка данных непосредственно на орбите позволила снизить объём передаваемой информации с 1,8 Гбайт до 92 Кбайт. Но это далеко не единственный результат.

Так, ИИ-ускорители были задействованы для визуального анализа микроскопических повреждений скафандров, используемых для выхода в открытый космос. Они же помогли в обработке данных наблюдения за крупными погодными изменениями и природными катаклизмами. Также был проведён анализ поведения металлических частиц при 3D-печати в невесомости, проверена возможность работы 5G-сетей космических условиях, ускорены расчёты требуемых объёмов топлива для кораблей и т.д.

Ряд проблем ещё предстоит решить: в частности, в условиях повышенной космической радиации существенно быстрее выходят из строя SSD, что естественно для технологии, основанной на «ловушках заряда». По всей видимости, для дальнего космоса целесообразнее будет использовать накопители на базе иной энергонезависимой памяти. Впрочем, при освоении Луны или Марса полагаться на земные ЦОД тоже будет трудно, а значит, достаточно мощные вычислительные ресурсы придётся везти с собой.

Постоянный URL: http://servernews.ru/1064130
30.03.2022 [22:01], Владимир Мироненко

Российская суперкомпьютерная платформа «РСК Торнадо» объединила отечественные «Эльбрусы» и зарубежные x86-процессоры

Группа компаний РСК на конференции «Параллельные вычислительные технологии (ПаВТ) 2022» сообщила о создании суперкомпьютерной платформы «РСК Торнадо», которая позволяет одновременно использовать в одной системе вычислительные узлы на базе зарубежных x86-процессоров и отечественных чипов «Эльбрус».

Возможность использования различных типов микропроцессорных архитектур в одном монтажном шкафу (до 104 серверов в стойке), позволит ускорить темпы импортозамещения в области высокопроизводительных вычислительных систем (HPC), решений для центров обработки данных (ЦОД) и систем хранения данных (СХД). Унифицированная интероперабельная (т.е. обеспечивающая функциональную совместимость разных решений) платформа «РСК Торнадо» предназначена для решения широкого круга задач, в том числе для работы с нагрузками Big Data, HPC и ИИ.

 Суперкомпьютер «Говорун» в ОИЯИ (Фото: Группа компаний РСК)

Суперкомпьютер «Говорун» в ОИЯИ (Фото: Группа компаний РСК)

Разработка и создание вычислительных систем на основе «РСК Торнадо» осуществляется на территории России в рамках соглашения с Министерством промышленности и торговли Российской Федерации с целью реализации подпрограммы «Развитие производства вычислительной техники» в составе государственной программы «Развитие электронной и радиоэлектронной промышленности».

Программный стек «РСК БазИС» для вышеупомянутой платформы тоже разработан в России. В настоящее время система «РСК БазИС» используется для оркестрации вычислительных мощностей Межведомственного суперкомпьютерного центра (МСЦ) РАН, Санкт-Петербургского политехнического университета (СПбПУ) и Объединенного института ядерных исследований (ОИЯИ), сведённых в единую инфраструктуру для оптимизации вычислительных ресурсов.

Постоянный URL: http://servernews.ru/1063096
29.03.2022 [21:00], Владимир Мироненко

Общая производительность 50-ти самых мощных суперкомпьютеров России выросла за полгода почти вчетверо

Сегодня Научно-исследовательский вычислительный центр МГУ имени М.В.Ломоносова и Межведомственный Суперкомпьютерный Центр РАН объявили в ходе Международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2022» о выпуске тридцать шестой редакции списка Тор50 самых мощных суперкомпьютеров России. Первые три места принадлежат системам «Яндекса»: «Червоненкис», «Галушкин», «Ляпунов».

Новая редакция списка отличается существенным ростом суммарной производительности в тесте Linpack — всего за полгода она увеличилась с 22,9 до 85,1 Плофпс. Суммарная пиковая производительность выросла с 35,2 до до 120,2 Пфлопс. За этот короткий период в списке появилось сразу семь новых суперкомпьютеров, четыре из которых заняли первые места, а также произошло обновление ещё одной системы.

 Источник: top50.supercomputers.ru

Источник: top50.supercomputers.ru

среди отечественных производителей в рейтинге Top50 по количеству систем снова лидирует РСК — 11 вычислительных комплексов, все эксклюзивной разработки. Среди иностранных — HPE, за которой в списке числятся 12 машин. В тройку лидеров также входит компания «Т-Платформы», у неё 8 комплексов в списке. Количество систем, используемых в науке и образовании, сократилось с 27 до 26, на конкретные прикладные исследования по-прежнему ориентировано 7 систем.

42 системы используют процессоры Intel. Число гибридных суперкомпьютеров, включающих ускорители, выросло за полгода с 27 до 32. Интерконнект InfiniBand применяется в 34 системах (ранее таковых было 33). Также сохранилось количество систем на основе технологии Intel Omni-Path — 5. Наконец, 7 суперкомпьютеров всё ещё используют для взаимодействия узлов сеть Gigabit Ethernet.

Постоянный URL: http://servernews.ru/1062985
15.03.2022 [15:45], Сергей Карасёв

Atos построила суперкомпьютер Levante для моделирования климата: 3000 узлов с AMD EPYC, 800 Тбайт памяти и 130 Пбайт СХД

Французская компания Atos и Климатический вычислительный центр Германии (DKRZ) объявили о начале эксплуатации нового комплекса высокопроизводительных вычислений (HPC) — суперкомпьютера под названием Levante. Система смонтирована на площадке DKRZ в Гамбурге.

В основу Levante положен кластер Atos BullSequana XH2000. В рамках первой фазы строительства объединены около 3000 узлов на процессорах AMD EPYC 7763. В качестве интерконнекта используется NVIDIA Mellanox InfiniBand HDR 200G. Суперкомпьютер имеет 800 Тбайт основной памяти. Файловая система Lustre обеспечивает ёмкость в 130 Пбайт. Это одна из крупнейших машин подобного класса в Европе.

 Источник изображения: DKRZ

Источник изображения: DKRZ

В текущем виде комплекс демонстрирует пиковую производительность на уровне 16 Пфлопс. Это в полтора раза больше, чем результат полученный к моменту выхода ноябрьского рейтинге TOP500, в котором система заняла 68-е место. В нынешнем виде она заняла бы примерно 36–37 место.

По сравнению с суперкомпьютером предыдущего поколения Mistral комплекс Levante не только обеспечивает многократный прирост производительности, но и позволяет снизить стоимость владения. Достигается это за счёт применения технологии прямого жидкостного охлаждения. Использовать Levante планируется для моделирования различных природных явлений и прогнозирования изменений климата.

Постоянный URL: http://servernews.ru/1062005
15.03.2022 [14:54], Сергей Карасёв

Суперкомпьютер РАН помог в создании «цифровых лекарств» от коронавируса

Высокопроизводительный вычислительный комплекс Российской академии наук (РАН), построенный компаний РСК, помог в разработке нового метода более быстрого моделирования молекул-аптамеров для борьбы с коронавирусом SARS-CoV-2. Об этом говорится в публикации журнала Chemistry Europe.

Аптамеры — молекулы, которые способны находить заданные клетки организма и воздействовать на них. Использование аптамеров в терапевтической практике называют «цифровым лекарством» — благодаря целевому действию препарата, который способен предотвращать связывание вируса с клетками человека.

 Фото: Группа компаний РСК

Фото: Группа компаний РСК

Вычислительные мощности Межведомственного суперкомпьютерного центра РАН (МСЦ РАН) использовались в ходе двухгодичного исследования, проводимого в рамках международного проекта The Good Hope Net («Сеть доброй надежды»). С помощью новой итеративной процедуры проектирования были получены высокоспецифичные аптамеры к рецептор-связывающему домену шиповидного белка SARS-CoV-2. В общей сложности специалисты смоделировали 256 аптамеров, из которых для дальнейших исследований отобраны восемь.

Отмечается, что для ускорения разработки учёные применили подход, который сочетает молекулярную динамику с квантовой химией. В частности, были задействованы молекулярный дизайн, трёхмерное молекулярное моделирование мишени, стыковка аптамера с белком, молекулярно-динамическое моделирование комплексов, квантово-механическая оценка взаимодействия между аптамером и мишенью и экспериментальная проверка в каждом цикле.

«Достоинством такого подхода является то, что он значительно увеличивает скорость разработки аптамеров "с нуля", так как для исследования не требуется нарабатывать большое количество вирусных белков, достаточно создать их трёхмерную модель», — говорится в публикации.

Постоянный URL: http://servernews.ru/1062003
22.02.2022 [16:26], Владимир Мироненко

США профинансируют разработку энергоэффективных ЦОД, пост-экзафлопсных суперкомпьютеров, ИИ и квантовых сетей

Палата представителей США приняла в этом месяце акт America Competes Act, который включает положения о программах по повышению энергоэффективности дата-центров, разработке пост-экзафлопсных суперкомпьютеров и ИИ-решений, а также продвижению квантовых сетей. Акт дополняет и расширяет более ранний проект, включающий финансирование разработки полупроводников на сумму $52 млрд.

 IBM Q

IBM Q

Дополненный акт включает сразу несколько новых подразделов. В их числе «Программа энергоэффективных вычислений» (Energy-Efficient Computing Program), в рамках которой будет реализована поддержка фундаментальных исследований, разработок и демонстрации технологий энергоэффективных вычислений и центров обработки данных (ЦОД), имеющих отношение к передовым вычислительным задачам, включая высокопроизводительные вычисления (HPC), ИИ и системы машинного обучения для научных расчётов и моделирования.

В рамках программы Министерству энергетики поручено сотрудничать с Национальными лабораториями, высшими учебными заведениями и частным сектором для разработки аппаратных и программных технологий, которые повышают энергоэффективность «тяжёлых» вычислений, в том числе благодаря новым подходам к созданию ЦОД. Программа предполагает рассмотрение возможности использования ряда гетерогенных вычислительных архитектур, в том числе нейроморфных.

 Будущий суперкомпьютер Frontier (Фото: AMD)

Будущий суперкомпьютер Frontier (Фото: AMD)

Кроме того, планируется создать сверхбыстрые сети и разработать системы, не требующие прерывания работы (т.е. вычислений) для обслуживания. Программа также включает создание языков, инструментов и сред разработки для поддержки решения прикладных задач в области математики, статистики и моделирования сложных систем. А прямо сейчас ведётся работа по созданию программной экосистемы для двух экзафлопсных суперкомпьютеров (Frontier и Aurora), которые, впрочем, несколько задержались — в рамках проекта Exascale Computing Project предполагалось, что они будут созданы к 2021 году.

Тем не менее, проект признан успешным, а в новом акте содержится призыв «поддерживать и развивать экосистему», обеспечивая её оптимизацию для долгосрочного использования. Это важно, поскольку он теперь включает «Программу вычислений следующего поколения», ориентированную на создание HPC-решений «с возможностями, превосходящими экзафлопсные вычислительные системы».

 Intel Tangle Lake

Intel Tangle Lake

Наконец, особое внимание уделено квантовым технологиям. В частности, национальная инициатива в этой области поможет стимулировать исследования и разработки квантовых сетей для повышения безопасности страны и распределённых систем квантовых вычислений. В рамках совместной работы с индустрией, Национальными лабораториями и ВУЗами планируется разработать целый ряд оборудования для квантовой связи.

На поддержку одного только этого направления будет выделяться ежегодно $100 млн в период с 2022 по 2026 год. Кроме того, законопроектом предусмотрена отдельная программа Quantum User Expansion for Science and Technology program (QUEST) для упрощения исследователям доступа (в том числе облачного) к оборудованию для квантовых вычислений в США. Эта программа получит в первый год финансирование $30 млн, а всего до 2026 года на неё будет выделено $340 млн.

Постоянный URL: http://servernews.ru/1060742
Система Orphus