Материалы по тегу: суперкомпьютер

04.10.2022 [14:29], Татьяна Золотова

Российского производителя суперкомпьютеров «Т-платформы» окончательно признали банкротом

Арбитражный суд Москвы признал российского производителя суперкомпьютеров «Т-платформы» банкротом, согласно картотеке судебных дел. Причиной стало отсутствие у компании имущества в количестве, достаточном для покрытия всех имеющихся долгов перед кредиторами, сообщает CNews.

Рассмотрение дела длилось год – с октября 2021 года. В сентябре 2022 года банкротом стал также основатель «Т-платформ» Всеволод Опанасенко. Сейчас он находится под следствием и может быть признан виновным в мошенничестве в особо крупном размере.

В материалах суда сказано, что восстановление платежеспособности компании невозможно. Отдельно в решении суда указано, что в результате рассмотрения иска «Т-платформы» о собственном банкротстве признаки преднамеренного и/или фиктивного банкротства выявлены не были. Конкурсным управляющим назначен Сергей Кононов из московской саморегулируемой организации «Союз менеджеров и арбитражных управляющих».

Череда проблем, приведших в итоге к банкротству «Т-платформ», началась в марте 2019 года с ареста Всеволода Опанасенко. Он был задержан по делу о поставке компьютеров в российское МВД на сумму 357,1 млн руб. К концу года компания, по сути, прекратила реальную деятельность. В конце осени 2020 года «Т-платформы» возглавил Кирилл Алифанов, компания начала набирать штат, но уже в октябре следующего года подала заявление о признании себя банкротом. В декабре 2021 года столичный Арбитраж вынес решение о введении в отношении «Т-платформ» процедуры внешнего наблюдения.

Постоянный URL: http://servernews.ru/1075241
26.09.2022 [13:21], Андрей Крупин

Суперкомпьютеры «Яндекса» сохранили лидерство в рейтинге TOP 50 самых мощных вычислительных систем СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук опубликовали обновлённую редакцию списка TOP 50 самых мощных компьютеров стран СНГ (фактически там только суперкомпьютеры РФ).

Лидирующие позиции в рейтинге сохранили установленные в дата-центрах «Яндекса» вычислительные комплексы «Червоненкис» (1 место, пиковая производительность 29,4 Пфлопс), «Галушкин» (2 позиция, производительность в пределе 20,6 Пфлопс) и «Ляпунов» (3 место, пиковая производительность 20 Пфлопс).

На четвёртом месте списка остался развёрнутый в IT-инфраструктуре «Сбера» суперкомпьютер «Кристофари Нео» с пиковой производительностью в 14,9 Пфлопс. На пятой позиции разместился также принадлежащий «Сберу» вычислительный комплекс «Кристофари» (пиковая производительность 8,8 Пфлопс). В основу всех входящих в пятёрку лидеров машин положены графические ускорители NVIDIA A100 с интерконнектом InfiniBand.

Суммарная пиковая производительность 50 систем списка составила 120,6 Пфлопс (было 120,2 Пфлопс в предыдущей редакции списка). Всего за полгода в списке появились три новых суперкомпьютера, занявшие 20, 39 и 49 места. По количеству систем, входящих в список, лидирует компания Hewlett-Packard Enterprise — 11 систем (12 в прошлой редакции) и группа компаний РСК — 11 (11), далее компания «Т-Платформы» — 7 (8).

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

С полной версией рейтинга 50 самых мощных суперкомпьютеров СНГ можно ознакомиться на сайте top50.supercomputers.ru.

Следующая редакция списка TOP 50 самых мощных компьютеров России и СНГ будет объявлена 28 марта 2023 года на международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2023».

Постоянный URL: http://servernews.ru/1074809
05.09.2022 [23:00], Алексей Степин

Tesla рассказала подробности о чипах D1 собственной разработки, которые станут основой 20-Эфлопс ИИ-суперкомпьютера Dojo

Компания Tesla уже анонсировала собственный, созданный в лабораториях компании процессор D1, который станет основой ИИ-суперкомпьютера Dojo. Нужна такая система, чтобы создать для ИИ-водителя виртуальный полигон, в деталях воссоздающий реальные ситуации на дорогах. Естественно, такой симулятор требует огромных вычислительных мощностей: в нашем мире дорожная обстановка очень сложна, изменчива и включает множество факторов и переменных.

До недавнего времени о Dojo и D1 было известно не так много, но на конференции Hot Chips 34 было раскрыто много интересного об архитектуре, устройстве и возможностях данного решения Tesla. Презентацию провел Эмиль Талпес (Emil Talpes), ранее 17 лет проработавший в AMD над проектированием серверных процессоров. Он, как и ряд других видных разработчиков, работает сейчас в Tesla над созданием и совершенствованием аппаратного обеспечения компании.

 Изображения: Tesla (via ServeTheHome)

Изображения: Tesla (via ServeTheHome)

Главной идеей D1 стала масштабируемость, поэтому в начале разработки нового чипа создатели активно пересмотрели роль таких традиционных концепций, как когерентность, виртуальная память и т.д. — далеко не все механизмы масштабируются лучшим образом, когда речь идёт о построении действительно большой вычислительной системы. Вместо этого предпочтение было отдано распределённой сети хранения на базе SRAM, для которой был создан интерконнект, на порядок опережающий существующие реализации в системах распределённых вычислений.

Основой процессора Tesla стало ядро целочисленных вычислений, базирующееся на некоторых инструкциях из набора RISC-V, но дополненное большим количеством фирменных инструкций, оптимизированных с учётом требований, предъявляемых ядрами машинного обучения, используемыми компанией. Блок векторной математики был создан практически с нуля, по словам разработчиков.

Набор инструкций Dojo включает в себя скалярные, матричные и SIMD-инструкции, а также специфические примитивы для перемещения данных из локальной памяти в удалённую, равно как и семафоры с барьерами — последние требуются для согласования работы c памятью во всей системе. Что касается специфических инструкций для машинного обучения, то они реализованы в Dojo аппаратно.

Первенец в серии, чип D1, не является ускорителем как таковым — компания считает его высокопроизводительным процессором общего назначения, не нуждающимся в специфических ускорителях. Каждый вычислительный блок Dojo представлен одним ядром D1 с локальной памятью и интерфейсами ввода/вывода. Это 64-бит ядро суперскалярно.

Более того, в ядре реализована поддержка многопоточности (SMT4), которая призвана увеличить производительность на такт (а не изолировать разные задачи друг от друга), поэтому виртуальную память данная реализация SMT не поддерживает, а механизмы защиты довольно ограничены в функциональности. За управление ресурсами Dojo отвечает специализированный программный стек и фирменное ПО.

64-бит ядро имеет 32-байт окно выборки (fetch window), которое может содержать до 8 инструкций, что соответствует ширине декодера. Он, в свою очередь, может обрабатывать два потока за такт. Результат поступает в планировщики, которые отправляют его в блок целочисленных вычислений (два ALU) или в векторный блок (SIMD шириной 64 байт + перемножение матриц 8×8×4).

У каждого ядра D1 есть SRAM объёмом 1,25 Мбайт. Эта память — не кеш, но способна загружать данные на скорости 400 Гбайт/с и сохранять на скорости 270 Гбайт/с, причём, как уже было сказано, в чипе реализованы специальные инструкции, позволяющие работать с данными в других ядрах Dojo. Для этого в блоке SRAM есть свои механизмы, так что работа с удалённой памятью не требуют дополнительных операций.

Что касается поддерживаемых форматов данных, то скалярный блок поддерживает целочисленные форматы разрядностью от 8 до 64 бит, а векторный и матричный блоки — широкий набор форматов с плавающей запятой, в том числе для вычислений смешанной точности: FP32, BF16, CFP16 и CFP8. Разработчики D1 пришли к использованию целого набора конфигурируемых 8- и 16-бит представлений данных — компилятор Dojo может динамически изменять значения мантиссы и экспоненты, так что система может использовать до 16 различных векторных форматов, лишь бы в рамках одного 64-байт блока данных он не менялся.

Как уже упоминалось, топология D1 использует меш-структуру, в которой каждые 12 ядер объединены в логический блок. Чип D1 целиком представляет собой массив размером 18×20 ядер, однако доступны лишь 354 ядра из 360 присутствующих на кристалле. Сам кристалл площадью 645 мм2 производится на мощностях TSMC с использованием 7-нм техпроцесса. Тактовая частота составляет 2 ГГц, общий объём памяти SRAM — 440 Мбайт.

Процессор D1 развивает 362 Тфлопс в режиме BF16/CFP8, в режиме FP32 этот показатель снижается до 22 Тфлопс. Режим FP64 векторными блоками D1 не поддерживается, поэтому для многих традиционных HPC-нагрузок данный процессор не подойдёт. Но Tesla создавала D1 для внутреннего использования, поэтому совместимость её не очень волнует. Впрочем, в новых поколениях, D2 или D3, такая поддержка может появиться, если это будет отвечать целям компании.

Каждый кристалл D1 имеет 576-битный внешний интерфейс SerDes с совокупной производительностью по всем четырём сторонам, составляющей 8 Тбайт/с, так что узким местом при соединении D1 он явно не станет. Этот интерфейс объединяет кристаллы в единую матрицу 5х5, такая матрица из 25 кристаллов D1 носит название Dojo training tile.

Этот тайл выполнен как законченный термоэлектромеханический модуль, имеющий внешний интерфейс с пропускной способностью 4,5 Тбайт/с на каждую сторону, совокупно располагающий 11 Гбайт памяти SRAM, а также собственную систему питания мощностью 15 кВт. Вычислительная мощность одного тайла Dojo составляет 9 Пфлопс в формате BF16/CFP8. При таком уровне энергопотребления охлаждение у Dojo может быть только жидкостное.

Тайлы могут объединяться в ещё более производительные матрицы, но как именно физически организован суперкомпьютер Tesla, не вполне ясно. Для связи с внешним миром используются блоки DIP — Dojo Interface Processors. Это интерфейсные процессоры, посредством которых тайлы общаются с хост-системами и на долю которых отведены управляющие функции, хранение массивов данных и т.п. Каждый DIP не просто выполняет IO-функции, но и содержит 32 Гбайт памяти HBM (не уточняется, HBM2e или HBM3).

DIP использует полностью свой транспортный протокол (Tesla Transport Protocol, TTP), разработанный в Tesla и обеспечивающий пропускную способность 900 Гбайт/с, а поверх Ethernet — 50 Гбайт/с. Внешний интерфейс у карточек — PCI Express 4.0, и каждая интерфейсная карта несёт пару DIP. С каждой стороны каждого ряда тайлов установлено по 5 DIP, что даёт скорость до 4,5 Тбайт/с от HBM-стеков к тайлу.

В случаях, когда во всей системе обращение от тайла к тайлу требует слишком много переходов (до 30 в случае обращения от края до края), система может воспользоваться DIP, объединённых снаружи 400GbE-сетью по топологии fat tree, сократив таким образом, количество переходов до максимум четырёх. Пропускная способность в этом случае страдает, но выигрывает латентность, что в некоторых сценариях важнее.

В базовой версии суперкомпьютер Dojo V1 выдаёт 1 Эфлопс в режиме BF16/CFP8 и может загружать непосредственно в SRAM модели объёмом до 1,3 Тбайт, ещё 13 Тбайт данных можно хранить в HBM-сборках DIP. Следует отметить, что пространство SRAM во всей системе Dojo использует единую плоскую адресацию. Полномасштабная версия Dojo будет иметь производительность до 20 Эфлопс.

Сколько сил потребуется компании, чтобы запустить такого монстра, а главное, снабдить его рабочим и приносящим пользу ПО, неизвестно — но явно немало. Известно, что система совместима с PyTorch. В настоящее время Tesla уже получает готовые чипы D1 от TSMC. А пока что компания обходится самым большим в мире по числу установленных ускорителей NVIDIA ИИ-суперкомпьютером.

Постоянный URL: http://servernews.ru/1073480
15.08.2022 [19:25], Сергей Карасёв

Tesla похвасталась седьмым по величине GPU-суперкомпьютером в мире

Тим Заман, руководитель отдела искусственного интеллекта и средств автопилотирования Tesla, сообщил о том, что компания Илона Маска в настоящее время эксплуатирует седьмой по величине суперкомпьютер в мире. Правда, речь идёт лишь о числе используемых в системе ускорителей.

По словам господина Замана, вычислительный комплекс Tesla недавно подвергся апгрейду. В результате общее число задействованных акселераторов NVIDIA A100 (80 Гбайт) выросло до 7360 шт. В прошлом году Tesla представила свой новый кластер, насчитывающий 720 узлов, каждый из которых оборудован восемью ускорителями A100. Таким образом, в общей сложности на момент анонса использовались 5760 акселераторов. Заявленное быстродействие достигало 1,8 Эфлопс (FP16).

 Источник изображения: Tim Zaman

Источник изображения: Tim Zaman

В рамках обновления система получила ещё 1600 шт. таких же ускорителей. Результирующую производительность Tesla пока не раскрывает, но она могла увеличиться примерно на четверть. Система предназначена для обучения ИИ-моделей, отвечающих за работу средств автопилотирования в электромобилях компании. Попутно Tesla разрабатывает суперкомпьютер Dojo. Он будет оснащён собственными 7-нм чипами D1 (FP32). Каждый чип будет иметь площадь 645 мм2 и содержать 50 млрд транзисторов.

Постоянный URL: http://servernews.ru/1072174
12.08.2022 [12:48], Руслан Авдеев

Испанская провинция Астурия разместит в заброшенных шахтах суперкомпьютеры

Правительство северо-восточного испанского региона Астурии рассчитывает перепрофилировать заброшенные шахты для использования в качестве площадок для строительства ЦОД, способных включиться в национальную сеть суперкомпьютеров Spanish Supercomputing Network.

Власти провинции намерены использовать сеть заброшенных шахт общей протяжённостью порядка 5 тыс. км для размещения IT-инфраструктуры суперкомпьютеров. В ходе недавнего визита на возможное место строительства министр науки, инноваций и университетов и директор Национального суперкомпьютерного центра (он же Барселонский суперкомпьютерный центр) посетили возможные места размещения мощностей в муниципалитетах Альер и Мьерес, а также Инновационный центр Университета Овьедо, тоже являющийся ключевым элементом проекта.

 Источник: правительство Астурии

Источник: правительство Астурии

Целью визитов являлась оценка возможности размещения под землёй суперкомпьютерной инфраструктуры, что поможет восстановлению старых шахт для повторного использования, минимизирует ущерб экологии благодаря сокращению расходов на содержание крупной вычислительной наземной инфраструктуры, и, наконец, обеспечит физическую безопасность оборудования, хранящего большие объёмы данных — посторонним будет в буквальном смысле трудно до них добраться.

Более того, старые галереи уже имеют многие элементы для размещения IT-оборудования — системы вентиляции и энергоснабжения, запасы воды и довольно стабильный температурный уровень в штольнях. Местные власти рассчитывают, что подобная площадка позволит дополнить суперкомпьютерную сеть Spanish Supercomputing Network (RES).

 Источник изображения: Jordan Harrison/unsplash.com

Источник изображения: Jordan Harrison/unsplash.com

Сформированная в 2007 году испанским Министерством образования и науки, RES представляет собой серию объектов большой вычислительной мощности, доступ к которым обеспечен испанским исследовательским группам. Сегодня RES включает 14 учреждений, располагающих 16 суперкомпьютерами и 9 объектами, обеспечивающими различные сервисы обработки данных. Вскоре частью сети станет система MareNostrum-5, расположенная в Барселонском суперкомпьютерном центре.

Использование шахт для строительства ЦОД и суперкомпьютеров — весьма распространённая практика, причём объекты активно используются как легальными, так и нелегальными игроками рынка. Так, в конце прошлого года о намерении строить суперкомпьютеры и облачные хранилища на базе подземной площадки Lefdal Mine объявила норвежская НКО Sigma2, а в 2019 году германская полиция закрыла нелегальный дата-центр, располагавшийся в бывшем бункере НАТО.

Постоянный URL: http://servernews.ru/1072054
10.08.2022 [22:05], Владимир Мироненко

На пути к Aurora: запущен «тренировочный» суперкомпьютер Polaris

Аргоннская национальная лаборатория (ANL) Министерства энергетики США объявила о доступности суперкомпьютера Polaris, ранний вариант которого занял 14-е место в последней версии списка TOP500. Он будет использоваться для проведения научных исследований и в качестве испытательного стенда для 2-Эфлопс суперкомпьютера Aurora, запуск которой намечен на ближайшие месяцы. Правда, аппаратно Aurora и Polaris отличаются.

Созданная HPE система Polaris состоит из 560 узлов Apollo 6500, каждый из которых оснащён процессором AMD EPYC Milan, четырьмя ускорителями NVIDIA A100 (40 Гбайт) и 512 Гбайт DDR4-памяти. Эти узлы объединены в сеть интерконнектом HPE Slingshot 10 (осенью он будет обновлен до Slingshot 11) и подключены к сдвоенному 100-Пбайт Lustre-хранилищу (Grand и Eagle). Заявленная пиковая производительность должна составить 44 Пфлопс.

 Фото: ANL

Фото: ANL

«Polaris примерно в четыре раза быстрее нашего суперкомпьютера Theta, что делает его самым мощным компьютером в Аргонне на сегодняшний день», — отметил Майкл Папка (Michael Papka), директор Argonne Leadership Computing Facility (ALCF). Он добавил, что возможности Polaris позволят пользователям выполнять моделирование, анализ данных и ИИ-задачи с такими масштабом и скоростью, которые были невозможны с предыдущими вычислительными системами.

Помимо работы над подготовкой к запуску Aurora, суперкомпьютер Polaris будет обслуживать внутренние потребности лаборатории, например, работу с комплексом Advanced Photon Source (APS) X-ray. «Благодаря тесной интеграции суперкомпьютеров ALCF с APS, CNM и другими экспериментальными установками мы можем помочь ускорить проведение анализа данных и предоставить информацию, которая позволит исследователям управлять своими экспериментами в режиме реального времени», — заявил Майкл Папка.

Постоянный URL: http://servernews.ru/1071938
02.08.2022 [14:03], Владимир Мироненко

Индия займётся самостоятельным выпуском серверов для своих суперкомпьютеров

Центр развития передовых вычислений (C-DAC) Департамента электроники и информационных технологий Министерства коммуникаций и информационных технологий Индии заключил контракт с местным производителем электроники VVDN Technologies на выпуск разработанных в Индии HPC-серверов RUDRA для суперкомпьютеров семейства PARAM.

Как пишет The Register, пока не уточняется, в каких суперкомпьютерах PARAM будут использоваться серверы местного производства. В марте 2022 года в Индии запустили две HPC-системы семейства PARAM: Ganga с 312 узлами (1,67 Пфлопс) и Shakti с 404 узлами (1,6 Пфлопс). C-DAC планирует построить 24 суперкомпьютера. На сегодняшний день им было запущено 11 суперкомпьютерных систем.

Компания VVDN специализируется на выпуске бытовой техники, планшетов и телекоммуникационного оборудования, включая оборудование 5G. Как сообщается на сайте VVDN, компания обладает опытом проектирования, разработки и производства серверов. VVDN сообщает, что имеет SMT-линии с возможностью обработки плат размером до 850 × 560 мм, а также оборудование, необходимое для выпуска серверов.

 Источник изображения: VVDN

Источник изображения: VVDN

VVDN уже участвует в государственных программах импортозамещения и локализации производства ИТ-оборудования, серверов, ноутбуков, планшетов, настольных ПК и т. д., а также в программах в области производства телекоммуникационного и сетевого оборудования, бытовой техники и компонентов для автомобилей и т.д. Кроме того, у компании есть собственные наработки в области корпоративного ПО.

Анонсированный сервер RUDRA представляет собой стандартное решение в форм-факторе 1U или 2U, поддерживающее установку процессоров Intel Xeon Сascade Lake, пары ускорителей и памяти DDR4. VVDN будет заниматься производством плат и штамповкой корпусов, а также тестированием, валидацией и сертификацией серверных платформ.

Постоянный URL: http://servernews.ru/1071347
27.07.2022 [19:00], Сергей Карасёв

СПбПУ и РСК создадут Центр компетенций для разработки новых промышленных решений на базе передовых цифровых технологий

Санкт-Петербургский политехнический университет Петра Великого (СПбПУ) и группа компаний РСК подписали меморандум о сотрудничестве. Документ предполагает формирование Центра компетенций для разработки новых промышленных решений с применением передовых цифровых технологий. Меморандум был сформирован во время переговоров, проведенных на выставке «Иннопром 2022».

Сотрудничество будет вестись по нескольким направлениям. В частности, стороны разработают план развития суперкомпьютерных вычислений в СПбПУ в рамках совместных проектов. Предполагается, что развитие ИТ-инфраструктуры университета будет способствовать решению наукоёмких мультидисциплинарных задач в области цифрового инжиниринга.

В СПбПУ располагается суперкомпьютерный центр «Политехнический» — один из самых мощных и наиболее инновационных в России центров высокопроизводительных вычислений (НРС). Технологической основой суперкомпьютерных систем, установленных в центре, является универсальное высокоплотное и энергоэффективное решение «РСК Торнадо» со 100-% жидкостным охлаждением на «горячей воде». Суммарная пиковая производительность систем в настоящее время составляет 1,812 Пфлопс.

 Фото: СПбПУ

Фото: СПбПУ

Отмечается, что использование HPC-систем необходимо для реализации проектов в двигателестроении, авиастроении, энергомашиностроении, нефтегазовом, атомном, тяжёлом и специальном машиностроении, приборостроении, судостроении, автомобилестроении, ракетной и космической техники и др. Основной задачей Центра компетенции будет применение оптимизационных методов для разработки новых промышленных решений с помощью применения передовых отечественных программно-аппаратных комплексов.

«Это, в свою очередь, будет способствовать решению наукоемких задач в области цифрового инжиниринга, разработки цифровых двойников высокотехнологичных изделий промышленности, применению цифровых и производственных технологий, аддитивных технологий, технологий сварки и защитных покрытий, разработанных СПбПУ. Кроме того, Центр компетенции будет заниматься формированием стратегии развития национального технологического суверенитета в области разработки и применения систем автоматизированного проектирования (CAD) и инжиниринга (CAE) с использованием высокопроизводительных вычислений (HPC)», — пояснил Егор Дружинин, технический директор группы компаний РСК.

Постоянный URL: http://servernews.ru/1070982
22.07.2022 [21:52], Алексей Степин

Бразильская нефтегазовая компания Petrobras получит самый мощный суперкомпьютер в Латинской Америке — Pegasus

Современный суперкомпьютер, а лучше несколько, стремится иметь любая страна или корпорация, и гонка HPC-решений проходит не только между США и Китаем — так, крупнейшая бразильская нефтегазовая компания Petrobras анонсировала создание нового кластера в Рио-де-Жанейро.

Будущий суперкомпьютер получил имя Pegasus, и он должен стать самой мощной HPC-системой в латиноамериканском регионе с производительностью около 21 Пфлопс. Система будет включать в себя 2016 ускорителей неизвестной пока модели и 678 Тбайт оперативной памяти, а в качестве интерконнекта планируется использовать 400-Гбит/с сеть. Вероятно, это будeт InfiniBand NDR.

 Рио-де-Жанейро. Источник: Pixabay

Рио-де-Жанейро. Источник: Pixabay

Суперкомпьютеры активно применяются в нефтегазовой отрасли в самых различных сценариях, от поиска новых месторождений до повышения эффективности существующих процессов переработки природных ресурсов. Petrobras уже располагает солидными вычислительными мощностями, составляющими 42 Пфлопс. Главной задачей Pegasus будет обработка обширных массивов данных в рамках геологоразведывательного проекта EXP100, а также поиск способов ускорить начало разработок новых нефтегазовых полей в проекте PROD1000.

 Машинный зал Dragão. Источник: Agência Petrobras

Машинный зал Dragão. Источник: Agência Petrobras

В июне 2021 года компания Petrobras запустила систему Dragão с 200 Тбайт памяти и 100G-интерконнектом. Система на базе процессоров Xeon Gold 6230R занимает 60 место в TOP500 с пиковой теоретической производительностью 14,01 Пфлопс. Также у Petrobras есть машины Atlas (8,84 Пфлопс) и Fênix (5,37 Пфлопс). Для сравнения — система HPC5, принадлежащая итальянской нефтегазовой компании Eni S.p.A., сейчас находится на 12 месте TOP500 и имеет пиковую теоретическую производительность 51,72 Пфлопс.

До момента ввода в строй Pegasus, который запланирован на декабрь 2022 года, Dragão продолжит оставаться мощнейшей латиноамериканской HPC-системой. К концу 2022 года компания намеревается нарастить свой пул вычислительных мощностей до 80 Пфлопс, но пока явно отстаёт от графика. Впрочем, темпы роста впечатляют: ещё в 2018 году в распоряжении Petrоbras было лишь 3 Пфлопс.

Постоянный URL: http://servernews.ru/1070678
21.07.2022 [20:43], Владимир Мироненко

После апгрейда Aitken стал самым мощным суперкомпьютером NASA

Национальное управление по аэронавтике и исследованию космического пространства (NASA) США произвело апгрейд суперкомпьютера Aitken, после которого тот стал самой мощной HPC-системой космического агентства, опередив систему Pleiades, лидировавшую по производительности в течение целых 14 лет после запуска в 2008 году. Обе компьютерные системы находятся на объекте NASA Advanced Supercomputing (NAS), где Aitken разместили в энергоэффективном модульном суперкомпьютерном комплексе (MSF) Исследовательского центра Эймса в Кремниевой долине (Калифорния, США). Aitken используется для расчётов и моделирования в рамках лунной миссии «Артемида».

После добавления четырёх новых стоек HPE Apollo 9000, содержащих 512 узлов с процессорами AMD EPYC 7742 (Rome), общее количество узлов Aitken увеличилось до 3200 (308 224 ядра, 1,27 Пбайт памяти): 2048 AMD-узлов и 1152 Intel-узла (Intel Xeon Gold 6248). В качестве интерконнекта используется InfiniBand EDR/HDR. Aitken занимает 58 место в свежем TOP500 с теоретической пиковой производительностью 13,12 Пфлопс (устоявшаяся 9,07 Пфлопс). На момент запуска в 2019 году система имела пиковую производительность всего 3,69 Пфлопс. Но два последовательных апгрейда существено увеличили её возможности. Теперь Aitken полностью занимает первый из шестнадцати модулей MSF.

 Модуль MSF (Фото: NASA)

Модуль MSF (Фото: NASA)

Система потребляет чуть больше 2 МВт, но благодаря гибридной системе охлаждения (СЖО + воздух), адаптированной к климату Калифорнии, она имеет высокую энергоэффективность. Согласно весеннему отчёту NASA, её коэффициент PUE равен 1,05. Модульная конструкция позволяет экономить на охлаждении 14 % энергии и снижает потребление воды на 96 % по сравнению с системами в основном кампусе NAS. Всего на территории NAS располагаются четырёх суперкомпьютера: Aitken, Electra, Pleiades и Endeavour. В рамках программы High-End Computing Capability (HECC) они используются более чем 1500 исследователями из NASA, университетов и космической индустрии для реализации задач космического агентства.

Постоянный URL: http://servernews.ru/1070604
Система Orphus