Материалы по тегу: суперкомпьютер

22.12.2020 [13:52], Алексей Степин

Экзафлопсный суперкомпьютер Frontier получит 28-МВт питание, 500 тыс. л теплоносителя для СЖО и 110-тонный фальшпол

В начале года мы опубликовали заметку, посвящённую выводу из строя суперкомпьютера Titan, расположенного в Национальной лаборатории Ок-Ридж (ORNL) и успешно выполнившего 2,8 млн задач для науки. Titan отправился на заслуженный покой, а его место займёт суперкомпьютер Frontier мощностью 1,5 Эфлопс: в настоящее время уже начаты работы по его монтажу.

Если проект суперкомпьютера Aurora для Аргонноской национальной лабораторией столкнулся с задержками из-за проблем Intel с освоением 7-нм техпроцесса, то в случае с Frontier всё идёт по плану — первый американский суперкомпьютер экзакласса будет использовать именно решения AMD. Об этом проекте стало известно в мае 2019 года, когда AMD и Cray объявили о сотрудничестве.

Разместится Frontier в Национальной лаборатории Ок-Ридж (ORNL), в помещениях своего предшественника, Titan. Сама ORNL сообщила об успешном начале работ по переоборудованию инфраструктуры под новый суперкомпьютер. А работ потребуется немало, поскольку Frontier потребует существенно больших мощностей как по питанию, так и по охлаждению. Его масса также больше, что потребует укрепить силовые структуры помещения. Помещение, известное как комната E102, расположено в здании за номером 5600, имеет площадь свыше 1800 м2, и оно требует удаления всей старой инфраструктуры, включая полную замену фальшпола.

Если Titan потреблял около 10 МВт, то Frontier потребует почти 30 МВт, а система охлаждения должна будет отводить порядка 40 МВт тепловой энергии. В настоящее время новый, способный выдержать большие массы, фальшпол уже установлен, его масса составляет порядка 110 тонн. Ведутся работы по прокладке новых 24-дюймовых магистралей СЖО, способных прокачать около 19 тысяч литров жидкости в минуту. Общий же объём теплоносителя составит почти 500 тысяч литров (130 тысяч американских галлонов). За работу СЖО будут отвечать четыре насосных станции каждая мощностью 350 л.с. каждая.

Ранее пространство вокруг «комнаты 102» занимали офисы группы OLCF, но теперь там устанавливаются трансформаторы подсистем питания мощностью 28 мВт. Также пришлось изыскать место для градирен СЖО — для них был возведен новый фундамент в соседнем здании за номером 5800. В нём не прекращались научные исследования и, хотя в распоряжении проекта имелись данные о проложенных силовых линиях, было принято решение не рисковать и использовать георадары и сенсоры ЭМИ.

Архитектура вычислительного узла Frontier

Архитектура вычислительного узла Frontier

Несмотря на все трудности, проект Frontier пока развивается успешно. Как правило, такие HPC-системы требуют порядка двух лет на подготовку и монтаж. К тому же пандемия внесла свои коррективы — ранее ORNL уже была вынуждена объявить об обязательном тестировании всех работников на коронавирус. Несмотря на это, завершение работ намечено на весну 2021 года. Полномасштабный запуск Frontier в эксплуатацию произойдет не позднее 2022 года.

Коммутаторы Slingshot требуют довольно серьёзного охлаждения

Коммутаторы Cray Slingshot требуют довольно серьёзного охлаждения

Новый суперкомпьютер сможет поддерживать минимальную производительность на уровне 1,5 экзафлопс. В его состав войдёт более 100 стоек Cray Shasta, заполненных узлами на базе AMD EPYC Milan и ускорителей Radeon Instinct в соотношении 1 к 4. Для устранения потенциальных «бутылочных горлышек» каждый ГП в каждом узле получит свой сетевой порт Cray Slingshot, который обеспечит прямую связь между этими чипами. А программный комплекс, обеспечивающий работу Frontier, будет сочетать в себе технологии Cray Programming Environment и открытую платформу AMD ROCm. Подробнее о новом суперкомпьютере можно узнать на сайте ORNL.

Постоянный URL: http://servernews.ru/1028415
15.12.2020 [01:43], Владимир Мироненко

NEC построит гибридный суперкомпьютер SQUID c Intel Xeon Ice Lake, NVIDIA A100, векторными ускорителями SX-Aurora TSUBASA и доступом в облака

Центр Cybermedia Университета Осаки и NEC Corporation объявили о планах представить новую суперкомпьютерную систему для высокопроизводительных вычислений (HPC) и высокопроизводительного анализа данных (HPDA) от NEC. Она заменит существующую систему, тоже поставленную NEC. Согласно графику, новая система начнёт работать в мае 2021 года. Она войдёт в инфраструктура нового поколения для открытых исследований и инноваций Университета Осаки (ONION).

Новая суперкомпьютерная система SQUID (Supercomputer for Quest for Unsolved Interdisciplinary Datascience) будет состоять из 1520 CPU-узлов на базе Intel Xeon Scalable 3-го поколения (Ice Lake), а также 42 GPU-узлов с восемью NVIDIA A100 и 36 «векторных» узлов, каждый из которых оснащён восемью ускорителями NEC SX-Aurora TSUBASA, обеспечивающими более быстрое и высокоэффективное моделирование погодных, сейсмических, гидравлических и других явлений. Эта гибридная суперкомпьютерная система способна обеспечить теоретическую производительность более 16 Пфлопс.

Для хранения данных будет использоваться решение DDN EXAScaler ёмкостью 20 Пбайт с 1,2-Пбайт хранилищем для высокоскоростной обработки данных. Для доступа также будет использовано ПО Cloudian Object-Storage HyperStore. А NVIDIA Mellanox HDR InfiniBand обеспечиет высокую скорость, низкую задержку и интеллектуальную связь между всеми узлами и СХД.

Новая суперкомпьютерная система позволяет исследователям динамически развёртывать и использовать программный стек по своему выбору. Кроме того, она обеспечит безопасную вычислительную среду, в которой пользователи могут с уверенностью использовать конфиденциальные данные. Например, чувствительные данные в хранилище университетского городка могут быть обработаны и проанализированы вычислительными узлами суперкомпьютера без перемещения данных из хранилища.

Безопасная вычислительная среда также предлагает функцию безопасного разделения, которая динамически отделяет и изолирует сеть для определенной группы пользователей и, таким образом, предоставляет услуги, которые не позволяют другим пользователям видеть данные и вычисления. Эти возможности будут востребованы, в частности, в медицинской сфере.

Наконец, новая суперкомпьютерная система будет интегрирована с облачными сервисами Oracle Cloud Infrastructure и Microsoft Azure. Динамический перенос части рабочих процессов в облако при высокой загруженности суперкомпьютера позволяет быстро реагировать на растущий спрос на вычислительные ресурсы, обеспечивая при этом те же возможности, что и локальная вычислительная среда. Это также обеспечит гибкость за счёт использования более современных вычислительных ресурсов, которые продолжают обновляться в облачных сервисах.

Постоянный URL: http://servernews.ru/1027830
14.12.2020 [16:34], Сергей Карасёв

AMD-суперкомпьютер Hawk получит 192 NVIDIA A100 для ускорения ИИ-вычислений

Штутгартский Центр высокопроизводительных вычислений (HLRS), одна из крупнейших европейских суперкомпьютерных площадок, нарастит мощности комплекса Hawk с целью ускорения задач, связанных с искусственным интеллектом (ИИ).

На текущий момент Hawk является одним из самых мощных суперкомпьютеров в мире. В его основу положены узлы Apollo производства Hewlett Packard Enterprise. Задействованы процессоры AMD EPYC 7742, а также интерконнект Mellanox HDR Infiniband. >В ноябрьском рейтинге Top500 система Hawk занимает шестнадцатое место с производительностью приблизительно 19,33 Пфлопс и пиковым быстродействием на уровне 25,16 Пфлопс.

На фоне растущих потребностей в вычислениях, связанных с машинным обучением и искусственным интеллектом, HLRS принял решение модернизировать Hawk путём добавления 192 акселераторов NVIDIA A100 с архитектурой Ampere.

Предполагается, что обновлённая суперкомпьютерная система поможет в решении сложных задач, связанных с распространением коронавирусной инфекции, разработкой транспортных средств будущего и пр.

Постоянный URL: http://servernews.ru/1027790
11.12.2020 [00:14], Игорь Осколков

МСЦ РАН отмечает 20-летие и делится результатами работы

Межведомственный суперкомпьютерный центр Российской академии наук (МСЦ РАН) в этом году отмечает юбилей. Формирование центра как наследника идей советских школ БЭСМ и Эльбрус началось в 1996 году. На тот момент это была вторая в мире после США подобная организация, нацеленная на взаимодействие разных ведомств, министерств и научных коллективов.

Сейчас суммарная пиковая производительность всех систем центра составляет 2 Пфлопс. А началось всё с установки двух первых систем в 1998 и 1999 годах на базе PA-RISC: HP V-class и HP Superdome. Но знаковым стало появления первого кластера с отечественной сборкой и интеграцией на рубеже — это была система МВС-1000М на базе DEC Alpha, которая преодолела отметку в 1 Тфлопс и попала в первую сотню рейтинга суперкомпьютеров TOP500. С этого момента принято отсчитывать возраст центра в современном его виде.

Всего же системы МСЦ РАН попадали в TOP500 37 раз, из них 18 раз в Топ-100. А в Green500 — 23 и 11 раз соответственно. Несмотря на то, что сейчас по мировым меркам мощности МСЦ РАН не так велики, а пользователи просят добавить хотя бы ещё одну петафлопсную машину, тем не менее, по уровню технологий системы центра не отстают от зарубежных. В частности, новая гиперконвергентная СХД позволила обновлённому суперкомпьютеру МВС-10П ОП2 попасть в первую двадцатку рейтинга IO500.

С 2012 года системы МСЦ РАН перешли сначала на прямое жидкостное охлаждение, а потом и на охлаждение горячей водой, что позволило повысить плотность и компактность систем, значительно сократив энергопотребление и расходы. Эти системы построены российской группой компаний РСК на базе аппаратной платформы Intel и собственных решений программно-аппаратных решений. В рейтинге Топ-50 (СНГ) её системы занимают 12 позиций. А машины МСЦ РАН попадали в него 107 раз, из них 46 — в первую десятку. В свежем Топ-50 присутствуют пять систем МСЦ РАН.

Вычислительными ресурсами центра, как и было задумано, пользуются в основном внешние пользователи — на их долю приходится более 90% нагрузки. Ну а собственно загрузка суперкомпьютеров превышает 90%, что говорит об их востребованности: время ожидания для запуска задач составляет 2-3 дня. Кроме того, центр предлагает не только доступ к ресурсам, но и заказы на готовые исследования, пусть и в небольшом пока объёме.

В дальнейшем МСЦ РАН сосредоточится на развитии актуальных тем ИИ и анализа больших данных, а также на дальнейшей интеграции суперкомпьютерных ресурсов в масштабе всей страны. Впрочем, это требует и развития региональных центров высокопроизводительных вычислений, которые сейчас используются не только для собственно расчётов, но и для отладки моделей и программ, которые в дальнейшем работают «в полную силу» уже на машинах МСЦ РАН.

О некоторых свежих прикладных и фундаментальных исследованиях было рассказано в презентации, посвящённой юбилею центра. Наиболее актуальной среди них, конечно, является разработка средств для борьбы с коронавирусом. В рамках международного проекта The Good Hope Net российские учёные смоделировали терапевтические препараты для противодействия COVID-19, которые уже проходят успешные испытания на клеточных культурах.

Вечная проблема и одна из традиционных задач суперкомпьютеров (а когда-то и первых компьютеров вообще) — создание прогнозов погоды и изучение климата. Оригинальных моделей для численного прогноза погоды в мире есть всего десяток, и одна из них разрабатывается и развивается в России. Для прогнозов уже требуется отдельный суперкомпьютер, а моделирование климата ещё более трудоёмкая задача: на машинах МСЦ РАН, в частности, сделано ретроспективное воспроизведение изменений климата в 1850-214 г.г. и моделирование вероятных изменений в перспективе до 2100 года, в том числе в зависимости от развития экономики.

Другая актуальная работа, проведённая в МСЦ РАН — моделировании сложных течений разреженного газа в рамках кинетического подхода. Оно применяется сразу в нескольких областях: расчёты поведения космических аппаратов при входе в земную атмосферу и работы микроэлектромеханических устройств (насосы, сопла, системы охлаждения), моделирование методов осаждения тонких плёнок, разработка наноматеиралов и так далее.

Наконец, ещё одна важная и перспективная задача, посильная только суперкомпьютерам — моделирование физических процессов, происходящих в термоядерном реакторе. В частности, на презентации говорилось об исследованиях динамики плазмы в диамагнитном режиме открытой магнитной ловушки. И всё это только малая часть решённых за последние годы задач.

Постоянный URL: http://servernews.ru/1027554
08.12.2020 [16:16], Сергей Карасёв

Суперкомпьютер Aitken от HPE помогает NASA подготовиться к высадке на Луне

Национальное управление по аэронавтике и исследованию космического пространства США (NASA) использует для выполнения сложного моделирования в рамках миссии «Артемида» вычислительный комплекс Aitken, построенный HPE. Этот суперкомпьютер уже позволил получить важные результаты.

Напомним, что по проекту «Артемида» NASA планирует в 2024 году высадить в области южного полюса Луны двух астронавтов. Запуск космического корабля должен произойти в Космическом центре Кеннеди в штате Флорида. Исследователям NASA необходимо понять, какие эффекты будут происходить при старте, с какими рисками может быть связано отделение ускорителей от ракеты-носителя и пр. Именно эти задачи и помогает решить система Aitken.

Суперкомпьютер был разработан HPE в августе 2019 года. Он располагается в первом из двенадцати компьютерных блоков в Модульном суперкомпьютерном вычислительном центре (Modular Supercomputing Facility). При этом NASA и НРЕ постоянно работают над повышением эффективности этого комплекса.

«За первый год работы суперкомпьютер NASA Aitken использовал только 16 % энергии, необходимой для охлаждения, сэкономив таким образом более 100 тысяч долларов и 1,4 миллиона киловатт-часов. Потребление воды для охлаждения суперкомпьютера также уменьшилось на 91 %, что позволило сохранить около 3,8 тыс. кубометров воды в день», — отмечает НРЕ.

В январе 2021 года мощности Aitken будут увеличены за счёт добавления узлов HPE Apollo на базе процессоров AMD EPYC 2-го поколения. Это позволит ускорить выполнение комплексных вычислений для решения различных задач NASA.

Постоянный URL: http://servernews.ru/1027304
23.11.2020 [20:00], Игорь Осколков

SC20: на экзафлопсном фронте без перемен

Ноябрьский рейтинг суперкомпьютеров TOP500 оказался ещё более скудным на новинки в сравнении с летним. Тогда в списке появилось менее сотни новых машин, сейчас — всего 44. Составители списка вновь вынуждены констатировать, что это новый антирекорд с момента выхода первого рейтинга в 1993 году. Однако перспективы не так плохи — до 2026 года мы должны увидеть от 28 до 38 систем мощностью от 1 Эфлопс, на создание которых уйдёт $10-15 млрд.

Лидером же нынешнего TOP4500 остаётся Fugaku, который с лета немного «нарастил мускулы» благодаря доукомплектации новыми узлами и, что не менее важно, за счёт программных оптимизаций. Теперь у него 7,3 млн ядер, которые выдают на-гора 442 Пфлопс реальной производительности. И он всё ещё практически в три раза быстрее второго места в списке, суперкомпьютера Summit. В более современном и комплексном бенчмарке HPCG разрыв между ними ещё заметнее: 16 Пфлопс против 2,93 Пфлопс. А в специализированном HPL-AI и вовсе разгромный — 2 Эфлопс против 0,55 Эфлопс.

Однако и «цена» за такую производительность немаленькая — почти 30 МВт! По показателю Гфлопс/Вт Fugaku чуть лучше того же Summit, а в Green500 он опустился на 10 место. И вот, что интересно — в первой десятке сейчас сплошь системы на базе AMD EPYC 7002 с NVIDIA A100 (верхняя часть списка) и IBM POWER или Intel Xeon с NVIDIA V100 (нижняя), если не учитывать специализированную машину Preferred Networks MN-3. Да и в целом по TOP500 более четверти машин (136) используют ускорители NVIDIA или в редких случаях другие акселераторы. Новых MI100 пока в списке нет.

Зато AMD, процессорами EPYC которой теперь оснащена 21 машина (19 из них Rome), теперь представлена в 12 из 44 новых участников списка. Из них 9 — с 64-ядерными CPU. И это очень сильно контрастирует с наиболее массовыми конфигурациями от 16 до 24 ядер на сокет, которые суммарно занимают почти 60% списка. Что любопытно, среди этих 21 машин шесть имеют ускорители NVIDIA A100, причём одна половина в составе DGX A100 и с 64-ядерными CPU, а вторая — с 24-ядерными. Ещё 14 машин не имеют никаких ускорителей, и 11 из них тоже базируются на 64-ядерных EPYC.

Так что можно аккуратно сказать, что решения AMD интересны и в качестве основы для систем с ускорителями (и тут необязательно использовать старшие SKU), и в составе CPU-only машин. Тем не менее, 90% нынешнего списка остаётся за Intel. Половина новых участников списка всё так же используют Intel Xeon Cascade Lake, а остальные — либо более старые поколения Intel, либо более экзотичные архитектуры. Ладно, A64FX уже не такой экзотичный, а вот пара машин с NEC SX-Aurora Vector Engine Type10AE в качестве основных процессоров на фоне остальных выделяется.

Загадывать наперёд смысла нет, но всё же интересно, что будет дальше делать IBM после реструктуризации, и особенно интересно — что сделает NVIDIA с Arm. Fujitsu A64FX, который лежит в основе Fugaku, всё же довольно нетипичный чип во всех отношениях, а Marvell, только-только получив новые процессоры ThunderX3, похоже, отказывается от серверных CPU. Из альтернатив, готовых составить компанию A100 прямо сейчас, остаётся, по-видимому, только Arm-платформы Ampere. Для A100 же от нынешних EPYC нужны, пожалуй, именно линии PCIe 4.0, которые требуются и самим акселераторам, и сетевым адаптерам, чтобы упростить масштабирование кластера. И вот с интерконнектом и вообще с сетями у NVIDIA после покупки Mellanox всё неплохо.

Особенно интересны в этом контексте DPU, которые потенциально могут значительно снизить потребность в обычных CPU, но насколько это будет применимо именно в HPC, ещё вопрос. Да, половина списка TOP500 опирается на Ethernet, однако совокупная мощность всех систем с InfiniBand составляет 40% от суммарной мощности всех суперкомпьютеров списка. Ещё столько же приходится на проприетарные и кастомные интерконнекты вкупе с Omni-Path (есть даже одна машина с OPA от Cornelis Networks). Следующий шаг NVIDIA уже объявлен — адаптеры, DPU и коммутаторы следующего поколения NDR InfiniBand с базовой скоростью 400 Гбит/с появятся в ближайшие пару лет. Правда, со стороны хоста им опять понадобится или много линий PCIe 4.0, или вовсе PCIe 5.0.

Прямо сейчас такой порядок скоростей на узел есть только у Fugaku. Любопытно, что из всех известных на данный момент проектов экзафлопсных машин, по данным Hyperion Research, только для одной китайской в планах явно указывается использование 400G-интерконнекта «домашней выделки». Причём эта система NUDT Tiahne-3 будет полагаться на некий Arm-чип (вероятно, развитие Phytium), но с учётом последних событий — санкций на современные техпроцессы и неразбериху в китайском офисе Arm — пока не очень понятно, как это всё будет реализовано и когда. Всего у Китая есть три проекта машин экзафлопсного класса.

Евросоюз тоже рассчитывает получить три таких машины в 2022-2023 году, и одна из них будет базироваться на Arm-процессорах собственной разработки SiPearl Rhea. А пока в рамках проекта EuroHPC, который испытывал проблемы с финансированием, будут построены сразу несколько суперкомпьютеров в разных регионах, включая весьма мощные. Великобритания, покинувшая проект в связи с Brexit’ом, по оценкам, будет вынуждена выложить от 0,7 до 1,2 млн фунтов, чтобы получить на рубеже 2022-2023 г.г. собственный экзафлопсный компьютер.

Наконец, в США пока разрабатываются три главных экзафлопсных системы: Aurora, Frontier и El Capitan. Первая из-за пересмотра проекта и ряда проблем Intel задержится примерно на год, так что вторая в конце 2021 года станет первой такой системой в США. В её основу лягут AMD EPYC на базе Zen3, которые должны показать в начале следующего года, и ускорители на базе архитектуры AMD CDNA. Из особенностей отмечается высокая плотность — 300 кВт на стойку, что требует СЖО — и суммарное потребление на уровне 40 МВт. Примерно того же стоит ждать и от суперкомпьютера El Capitan, который будет основан на следующем поколении CPU и GPU AMD и заработает в 2023 году.

Есть и ещё одна система с производительностью около 1 Эфлопс, которая будет поэтапно введена в строй в 2020-2021 г.г. — это Perlmutter на базе AMD EPYC Zen3 и ускорителей NVIDIA. Интересно, вся эта «фантастическая четвёрка» будет базироваться на платформе HPE Cray EX. Последовательная покупка SGI и Cray резко укрепила позиции HPE на рынке суперкомпьютеров. По итогам 2019 года, согласно данным Hyperion Research, она занимает более 37% рынка HPC-серверов. На втором месте Dell с долей 22%, а все прочие игроки занимают менее 7% каждый.

При этом совокупный среднегодовой темп роста до 2024 года именно этого сегмента будет не так велик — 6,8% вместо ранее предсказанных 8,7%. Наибольший прирост придётся на большие во всех смыслах машины, включая экзафлопсные. Быстрее всего будет расти сегмент СХД — 8,3%. Тут в лидерах как раз Dell и IBM, а HPE и DDN на третьем и четвёртом местах соответственно. Хуже всего придётся нижнему сегменту HPC-серверов начального уровня (до $100 тыс.) — после кризиса 2008 года она так и не восстановился, а сейчас скорее пойдёт в облака.

Да и вообще HPC в облаках будет расти более чем в 2,5 раза быстрее, чем в on-premise — CAGR до 2024 года составит 17,6% против 6,7%. Впрочем, разница в объёмах рынках всё равно будет составлять более 4,3 раз в пользу on-premise. Тем не менее, облака добавят $8,8 млрд к общему объёму рынка HPC, который вырастет до более чем $47 млрд. Следует учитывать, что всё это пока что предварительные прогнозы, которые теперь будут обновляться гораздо чаще. Пандемия COVID-19, как теперь стало понятно, заметно повлияла на рынок HPC.

Общие выводы Hyperion Research, в целом, совпадают с данными доклада Intersect360, о котором мы уже писали ранее — многие проекты отложены или заморожены, и не все из них будут реализованы даже после снижения влияния пандемии на мировую экономику. Во всех случаях основным препятствием для закупок, как и прежде, останется стоимость систем. Но для on-premise также будут важны затраты на питание и охлаждение и ограничения по площади. А основными критериями при выборе новых систем помимо очевидного соотношения цена/производительность также станут безопасность, скорость работы CPU и способность работы с ИИ и Big Data.

Постоянный URL: http://servernews.ru/1026082
23.11.2020 [17:15], Сергей Карасёв

Ещё пять крупных HPC-центров выбрали СЖО CoolIT

Компания CoolIT Systems сообщила о том, что сразу несколько крупных центров высокопроизводительных вычислений (НРС) выбрали её системы прямого жидкостного охлаждения (Direct Liquid Cooling, DLC) для реализации своих проектов.

Отмечается, что в развёртывании новых НРС-комплексов участвовали такие гиганты как Intel, Dell EMC, GIGABYTE, Penguin и HPE. Системы DLC позволяют отводить тепло от центральных процессоров, регуляторов напряжения и памяти. Внедрение таких решений даёт возможность повысить плотность размещения оборудования в стойках, улучшить эффективность отвода тепла и сэкономить на площадях.

Итак, сообщается, что CoolIT Systems выступила поставщиком DLC-систем для суперкомпьютеров HLRN IV и Lise (№56 в TOP500), которые функционируют в интересах учёных Северо-Германского суперкомпьютерного альянса.

Кроме того, решения CoolIT Systems задействованы в составе вычислительных комплексов Lichtenberg II (№101 в TOP500), CARA (№306) и Magma (№95). Они используются для различных научных вычислений, авиационного моделирования и пр.

Постоянный URL: http://servernews.ru/1026025
23.11.2020 [13:20], Сергей Карасёв

Новый водоблок Motivair может отвести до 1 кВт тепла

Компания Motivair Corporation разработала специализированные модули Dynamic Cold Plates, предназначенные для использования в составе систем жидкостного охлаждения (СЖО) мощных серверных процессоров и ускорителей. Представленные изделия позволяют повысить надёжность функционирования СЖО.

В традиционных системах применяется медная пластина с микроканалами для прохождения теплоносителя. При этом важно, чтобы в составе жидкости не присутствовали частицы с диаметром более 50 микрон, говорит Motivair. В противном случае каналы могут попросту блокироваться, из-за чего будет падать эффективность отвода тепла. Это заметно повышает требование к системам фильтрации и очистки теплоносителя.

Решение Motivair Dynamic Cold Plates лишено микроканалов — вместо них используются желобки, через которые могут свободно проходить частицы, имеющие до 400 микрон в поперечнике. Такая конструкция приводит к уменьшению общей площади контакта, но это компенсируется динамическим распределением потоков жидкости в желобках. В целом, новая технология, использованная в составе Dynamic Cold Plates, обеспечивает эффективный отвод тепла при высоких нагрузках с меньшим риском загрязнения и отказа СЖО.

Изделие имеет низкопрофильный форм-фактор. Оно может применяться с центральными и графическими процессорами, чьё максимальное значение рассеиваемой тепловой энергии достигает 1000 Вт. Это актуально для нынешних и будущих суперкомпьютеров. Компания принимает участие в создании систем охлаждение трёх систем экзафлопсного класса HPE Cray EX: Aurora, Frontier и El Capitan.

Постоянный URL: http://servernews.ru/1026022
22.11.2020 [14:33], Андрей Галадей

В Microsoft Azure развернули облачный суперкомпьютер производительностью почти 5 Пфлопс

В облаке Microsoft Azure был достигнут новый рекорд масштабирования высокопроизводительных вычислений (HPC). Там удалось создать виртуальный кластер с 86 400 ядрами CPU. Для этого использовались физические серверы на базе AMD EPYC 7002 с подключением HDR InfiniBand, которые объединили в 720 виртуальных машин Azure HBv2. Это дало пиковую производительность на уровне 5 Пфлопс.

Облачный провайдер сотрудничал с Институтом передовых наук и технологий Бекмана при Иллинойском университете в Урбана-Шампейн (UIUC), чтобы проверить пределы масштабируемости Azure. В качестве рабочей нагрузки использовался инструмент для моделерирования молекулярной динамики (NAMD), разработанный в UIUC. Инструмент сыграл важную роль в исследовании COVID-19 в этом году.

«Команда обнаружила, что кластеры HBv2 не только соответствуют требованиям исследователей, но и что производительность и масштабируемость в Azure конкурируют, а в некоторых случаях превосходят возможности суперкомпьютера Frontera, занявшего 8-е место в списке Top500 за июнь 2020 года», — заявил Эван Бернесс (Evan Burness), главный специалист и программный менеджер Azure HPC.

Это позволит использовать мощности облака для будущих проектов. Проще говоря, это может позволить быстрее найти лекарство от коронавируса и других болезней. А Дэвид Харди (David Hardy), старший программист-исследователь в UIUC отметил, что благодаря библиотеке Charm++, которая позволяет распараллеливать задачи, удалось добиться хорошей производительности и масштабирования для NAMD в кластере Microsoft Azure. Причём это не потребовало переписывание исходного кода.

Напомним, что ранее в Azure показали новый рекорд производительности ввода-вывода на файловой системе BeeGFS.

Постоянный URL: http://servernews.ru/1025987
20.11.2020 [00:07], Андрей Галадей

SC20: новый HPC-стек Atos повысит эффективность и снизит энергопотребление суперкомпьютеров

Компания Atos объявила в рамках SC20 о выпуске новых программных решений для систем высокопроизводительных вычислений (High Performance Computing, HPC). Их задача состоит в оптимизации производительности и снижении потребления энергии суперкомпьютерами.

Компания отмечает, что эти программные пакеты могут применяться в линейке фирменных решений Atos BullSequana X. В перечне ПО HPC Software Suites есть Smart Data Management Suite, Smart Energy Management Suite, Smart Performance Management Suite и Smart Management Center xScale. В Atos отмечают, что этот софт позволяет снизить «прожорливость» систем за счёт гибкой настройки суперкомпьютеров, что важно в свете ожидаемого в будущем перехода на экзафлопные вычисления.

smartcitiesworld.net

smartcitiesworld.net

К примеру, Smart Management Center xScale упрощает задачи настройки, развертывания и работы кластера в целом. А Smart Energy Management Suite позволяет клиентам управлять энергопотреблением суперкомпьютеров, оптимизируя их производительность. Эта инициатива позволит, как ожидается, снизить выбросы углекислого газа, поскольку именно тепловые электростанции на данный момент вырабатывают большую часть энергии. При этом пока не приводится никаких конкретных цифр, позволяющих оценить работу такого ПО.

По словам Агнес Будо (Agnès Boudot), старшего вице-президента и руководителя подразделения HPC & Quantum в Atos, новые программные комплексы являются результатом обширного опыта компании в развертывании крупномасштабных суперкомпьютеров. Целью является предоставление энергоэффективных решений, которые будут минимально влиять на окружающую среду.

Также госпожа Будо отметила, что компания гордится тем, что этом году 30 её суперкомпьютеров вошли в TOP 500, в том числе JUWELS, один из самых энергоэффективных суперкомпьютером в мире, занимающий в Green500 третье место. Она уточнила, что программные комплексы Atos позволят пользователям раскрыть мощь своей суперкомпьютерной системы, одновременно улучшив её показатели в плане потребления энергии.

Отмечается, что это ПО уже доступно. Напомним, что это не первая «зелёная» инициатива компании. Ранее в Atos запустили сервис OneCloud, который призван ускорить переход клиентов на более экологичные облачные системы.

Постоянный URL: http://servernews.ru/1025833
Система Orphus