Материалы по тегу: суперкомпьютер
16.02.2024 [12:52], Сергей Карасёв
В МАИ запущен второй модульный ЦОД для суперкомпьютера: производительность машины вырастет до 380 ТфлопсМосковский авиационный институт (МАИ) сообщил о вводе в эксплуатацию второго корпуса своего НРС-комплекса, что позволит поднять общую производительность суперкомпьютера более чем в два раза — со 150 до 380 Тфлопс. Это, как ожидается, позволит существенно нарастить объём выполняемых работ в интересах аэрокосмической индустрии с использованием методов математического моделирования. Развитие НРС-кластера МАИ осуществляется по проекту «Будущие аэрокосмические рынки — 2050», который университет реализует как участник программы «Приоритет-2030». Цель — развитие перспективных направлений аэрокосмической индустрии, включая полимерные композиционные материалы. Модульный дата-центр, поддерживающий работу суперкомпьютера, произвела, поставила и запустила в эксплуатацию компания GreenMDC. Системным интегратором выступила фирма «Ниагара Компьютерс». Отмечается, что для первой очереди вычислительного комплекса МАИ GreenMDC развернула мини-ЦОД CUBiC. Новый дата-центр имеет схожую конфигурацию, но при этом вдвое превосходит предшественника по количеству стоек и по мощности — восемь высоконагруженных стоек по 20 кВт каждая. В новом ЦОД использованы ИБП китайского производителя Kehua и кондиционеры Envicool (также КНР). Оборудование систем противопожарной безопасности — «Болид» и НПО ПАС. Тестирование дата-центра выполнялось как на производстве, так и непосредственно на площадке после сборки: каждое продлилось 72 часа. Одним из основных проектов МАИ, реализуемых с использованием суперкомпьютерных технологий, является цифровая платформа проектирования летательных аппаратов. Цель заключается в разработке и внедрении на предприятиях программно-информационной среды решения задач проектирования, анализа и контроля массы изделий для повышения качества, сокращения сроков и стоимости проектирования, производства и сертификации. Кроме того, НРС-комплекс МАИ используется для выполнения расчётно-экспериментальных исследований в области прочности конструкций и снижения уровня шума в пассажирском салоне и кабине экипажа. Осуществляются расчёты тепловых, аэродинамических и других параметров. Среди перспективных задач обновлённого суперкомпьютера заявлены исследования в области технологий ремонта и систем мониторинга состояния конструкции агрегатов авиационной техники, расчётно-экспериментальные исследования в сфере виброакустики, прочностные расчёты в интересах сертификации перспективных самолётов, создание стендов для бортовых систем самолёта SJ-100.
13.02.2024 [18:03], Владимир Мироненко
В Казахстане построят суперкомпьютер при участии компании Presight AI из ОАЭМинистерство цифрового развития, инновации и аэрокосмической промышленности Республики Казахстан (МЦРИАП РК), АО «Фонд национального благосостояния «Самрук-Қазына» и компания Presight AI Ltd. из ОАЭ подписали соглашение о создании суперкомпьютера в Казахстане и строительства ЦОД для его размещения, сообщается на сайте МЦРИАП РК. Проект будет выполнен в два этапа. В ходе первого этапа будут установлены вычислительные мощности в существующем ЦОД АО «НИТ» (оператор ИКТ электронного правительства), а на втором этапе будет построен новый ЦОД со значительными вычислительными мощностями. Как сообщается в пресс-релизе, со стороны рынка, высших учебных заведений, научного сообщества и государственных органов имеется потребность в создании технологической инфраструктуры (суперкомпьютер) для успешного развития инструментов ИИ. В стране появился ряд стартапов и зрелых компаний, занимающихся внедрением ИИ, такие как Cerebra, ForUS.Data, GoatChat.AI, Higgsfield AI, AI Labs, Sergek Group и др. Также отмечено, что запуск технологической HPC-инфраструктуры определит лидерство Казахстана в Центральной Азии в сфере развития ИИ, который предоставит возможность аренды вычислительных мощностей для сопредельных стран. Ранее МЦРИАП РК сообщило о расширении сотрудничества с Объединёнными Арабскими Эмиратами (ОАЭ) с целью реализации проектов в области дата-центров и ИИ.
12.02.2024 [08:54], Сергей Карасёв
EuroHPC развернёт в Европе специализированные индустриальные суперкомпьютерыЕвропейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) объявило о начале приёма заявок от заинтересованных площадок для размещения специализированных суперкомпьютеров промышленного уровня. Речь идёт о вычислительных комплексах не ниже среднего класса, специально разработанных с учётом норм безопасности, конфиденциальности и целостности данных в индустриальном сегменте. К таким системам обычно предъявляются более высокие требования, нежели к суперкомпьютерам для решения научных задач. EuroHPC JU планирует закупить новые вычислительные комплексы совместно с консорциумом частных партнёров. С выбранными площадками будут заключены соглашения о размещении и эксплуатации оборудования. EuroHPC JU приобретёт как минимум один промышленный суперкомпьютер в 2024 году. Подробности о проекте не раскрываются, но известно, что общий вклад ЕС в его реализацию составит €12,2 млн. Новые промышленные суперкомпьютеры будут совместно финансироваться из бюджета EuroHPC JU, полученного в рамках Программы «Цифровая Европа» (DEP), а также за счёт взносов государств-участников организации. При этом EuroHPC JU покроет до 35 % затрат на приобретение вычислительных комплексов. Развёртывание этих систем поможет удовлетворить растущий спрос на вычислительные ресурсы со стороны индустриальных заказчиков. В целом, инициатива должна способствовать «повышению инновационного потенциала предприятий в Европе».
05.02.2024 [16:21], Сергей Карасёв
Cadence представила суперкомпьютер Millennium M1 для вычислительной гидродинамики с ИИКомпания Cadence анонсировала систему Millennium Enterprise Multiphysics Platform: это, как утверждается, первое в отрасли программно-аппаратное решение для проектирования и анализа мультифизических систем. Суперкомпьютер, получивший название Cadence Millennium M1 CFD, ориентирован на решение задач в области вычислительной гидродинамики (CFD). Отмечается, что CFD используется для сокращения длительных циклов проектирования и уменьшения количества дорогостоящих экспериментов. Такие решения востребованы в аэрокосмической, оборонной, автомобильной, электронной и других отраслях. Суперкомпьютер Millennium M1 использует узлы с традиционными CPU, дополненные ускорителями на базе GPU — до 32 ускорителей на стойку и с возможностью масштабирования до 5 тыс. GPU на кластер и более. Задействован высокоскоростной интерконнект. При этом Cadence пока не раскрывает точные характеристики системы, но говорит, что она в 20 раз энергоэффективнее традиционных CPU-кластеров. Кроме того, машина позволяет создавать цифровых двойников с функцией визуализации. Отмечается, что ключевой особенностью Millennium M1 является специализированное ПО. Оно может использоваться для решения задач моделирования турбулентных течений — Large Eddy Simulation (LES). Быстрое генерирование высококачественных синтетических данных позволяет ИИ-алгоритмам находить оптимальные решения без ущерба для точности. В целом, как утверждается, суперкомпьютер Millennium M1 расширяет возможности LES в аэрокосмической, автомобильной, энергетической и других отраслях благодаря сокращению времени выполнения расчётов с дней до часов. Система доступна в двух вариантах — облачном (минимум 8 ускорителей) и локальном (минимум 32 ускорителя). В первом случае машина размещается на платформе Cadence и масштабируется по мере необходимости. Во втором случае система размещается локально в IT-инфраструктуре заказчика.
02.02.2024 [13:29], Сергей Карасёв
Lenovo построит в Германии энергоэффективный суперкомпьютер на базе AMD EPYC Genoa и NVIDIA H100
amd
epyc
genoa
h100
hardware
hpc
lenovo
nvidia
германия
отопление
суперкомпьютер
энергоэффективность
Компания Lenovo объявила о заключении контракта с Падерборнским университетом в Германии (University of Paderborn) на создание нового НРС-комплекса, мощности которого будут использоваться для обеспечения исследований в рамках Национальной программы высокопроизводительных вычислений (NHR). В основу суперкомпьютера лягут двухузловые серверы ThinkSystem SD665 V3. Конфигурация каждого узла включает два процессора AMD EPYC Genoa и до 24 модулей оперативной памяти DDR5-4800. Применена технология прямого жидкостного охлаждения Lenovo Neptune Direct Water Cooling (DWC). Кроме того, НРС-комплекс будет использовать GPU-серверы ThinkSystem SD665-N V3, несущие на борту четыре ускорителя NVIDIA H100, связанные между собой посредством NVLink. Общее количество ядер составит более 136 тыс. Для подсистемы хранения выбрана платформа IBM ESS 3500, обеспечивающая возможности гибкого использования SSD (NVMe) и HDD. Новый суперкомпьютер расположится в Падерборнском центре параллельных вычислений (PC2). Монтаж оборудования планируется произвести во II половине текущего года. За интеграцию будет отвечать pro-com DATENSYSTEME GmbH. Ожидается, что по сравнению с нынешней системой центра Noctua 2 (на изображении), построенной Atos, готовящийся суперкомпьютер будет обладать примерно вдвое более высокой производительностью. Быстродействие Noctua 2 составляет до 4,19 Пфлопс (Linpack) для CPU-ядер и до 1,7 Пфлопс (Linpack) для GPU-блоков. Особое внимание при строительстве суперкомпьютера будет уделяться энергетической эффективности. Благодаря использованию источников питания с жидкостным охлаждением и полностью изолированных стоек более 97 % вырабатываемого тепла может быть передано непосредственно в систему циркуляции тёплой воды. Применение теплообменников и блоков распределения охлаждающей жидкости (CDU) обеспечивает температуру носителя в обратном контуре выше 45 °C, что позволяет повторно использовать генерируемое тепло.
25.01.2024 [14:41], Сергей Карасёв
Для звёзд — Xeon, для гравитации — EPYC: Lenovo обновила HPC-кластер Кардиффского университетаКомпания Lenovo поставила в Кардиффский университет в Великобритании 90 серверов ThinkSystem, которые позволили поднять производительность кластера Hawk HPC приблизительно в два раза. Система применяется для решения сложных задач в таких областях, как астрофизика и наука о жизни. Lenovo и британский поставщик IT-решений Logicalis предоставили HPC-ресурсы для двух исследовательских групп в Кардиффском университете. Одна из них — научная коллаборация, участвующая в проекте лазерно-интерферометрической гравитационно-волновой обсерватории (LIGO). Эта инициатива нацелена на обнаружение гравитационных волн. Сообщается, что для проекта LIGO компания Lenovo предоставила 75 серверов ThinkSystem SR645, оснащённых процессорами AMD EPYC Genoa. Эти системы поддерживают до 6 Тбайт оперативной памяти DDR5-4800 в виде 24 модулей и до трёх ускорителей PCIe (2 × PCIe 5.0 и 1 × PCIe 4.0). Отмечается, что установка серверов позволила удвоить вычислительные мощности, доступные исследователям. Вторая исследовательская группа в Кардиффском университете, изучающая процессы звёздообразования, получила 15 серверов Lenovo ThinkSystem SR630 на платформе Intel Xeon Sapphire Rapids и два сервера хранения ThinkSystem SR650 с возможностью установки 20 накопителей LFF или 40 накопителей SFF. Группа сосредоточена на анализе спиральных галактик, таких как наш Млечный Путь. Приобретённые серверы помогут в выполнении сложных задач моделирования.
24.01.2024 [14:50], Сергей Карасёв
Европейский экзафлопсный суперкомпьютер Jupiter будет построен на базе модульного ЦОДЮлихский исследовательский центр (FZJ) в Германии раскрыл информацию о конфигурации дата-центра для первого европейского суперкомпьютера экзафлопсного класса — системы JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research). Напомним, Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) заключило контракт на создание JUPITER с консорциумом, в который входят Eviden (подразделение Atos) и ParTec, немецкая компания по производству суперкомпьютерного оборудования. Ввод суперкомпьютера в эксплуатацию запланирован на осень 2024 года. Сообщается, что JUPITER будет построен на базе модульного ЦОД, за создание которого отвечает Eviden. Этот дата-центр займёт площадь приблизительно 2300 м2. Модульная архитектура на основе контейнеров обеспечит ряд преимуществ: значительное сокращение времени планирования и монтажа, а также снижение затрат на строительство и эксплуатацию. Кроме того, в дальнейшем облегчится модернизация, тогда как инфраструктура электропитания и охлаждения может гибко адаптироваться к новым требованиям. Eviden заявляет, что благодаря модульности сроки поставки необходимых узлов сократятся на 50 %. Конфигурация ЦОД включает около 50 взаимозаменяемых модулей, в том числе 20 IT-контейнеров, 15 контейнеров энергоснабжения, а также примерно 10 логистических контейнеров со складскими помещениями, инженерными комнатами и пр. В состав IT-модулей войдут по два контейнера, объединяющих 20 стоек платформы BullSequana XH3000 с прямым жидкостным охлаждением. Модули данных будут содержать четыре контейнера с накопителями. Модульный ЦОД финансируется Федеральным министерством образования и исследований (BMBF). При этом BMBF и Министерство культуры и науки земли Северный Рейн-Вестфалия (MKW NRW) обеспечат равное финансирование технического оборудования. В состав суперкомпьютера войдут модули NVIDIA Quad GH200, а также энергоэффективные высокопроизводительные Arm-процессоры SiPearl Rhea. Быстродействие на операциях обучения ИИ составит до 93 Эфлопс, а FP64-производительность «незначительно превысит 1 Эфлопс».
24.01.2024 [14:50], Руслан Авдеев
Обновлённый космический суперкомпьютер HPE Spaceborne-2 готов к отправке на МКСНа следующей неделе планируется запуск на Международную космическую станцию (МКС) обновлённого варианта специального вычислительного модуля HPE Spaceborne Computer-2. Как сообщает Национальная лаборатория МКС, это коммерческая версия суперкомпьютера из серийных компонентов, созданная на основе серверов семейств HPE EdgeLine и ProLiant. Организаторами запуска выступают NASA, Northrop Grumman и SpaceX. Старт должен состояться 29 января 2024 года в рамках миссии NG-20 — борту корабля Northrop Grumman Cygnus планируется доставить на станцию различные научные материалы, оборудование и компоненты. Одним из грузов будет и обновлённая версия Spaceborne-2, ранее отправленного на МКС в феврале 2021 года и вернувшегося на Землю 11 января 2023. Первый компьютер серии Spaceborne отправили на МКС 14 августа 2017 года, возвращение состоялось 4 июня 2019. По данным Datacenter Dynamics, в состав системы всё ещё входят x86-серверы HPE Edgeline EL4000 с одним GPU и HPE DL360 Gen10. Обновлённая система протестирована HPE и передана NASA. Всего по требованию NASA пришлось внести 516 корректировок. Например, HPE в сотрудничестве с KIOXIA оснастила систему дополнительным хранилищем. Суперкомпьютер поможет продолжающимся на МКС исследованиям, обеспечив более быструю обработку наблюдений со станции за Землёй и более эффективный мониторинг здоровья астронавтов.
24.01.2024 [13:55], Сергей Карасёв
Итальянская нефтегазовая компания Eni получит 600-Пфлопс суперкомпьютер HPC6 на базе AMD Instinct MI250XИтальянская нефтегазовая компания Eni, по сообщению ресурса Inside HPC, заказала суперкомпьютер HPE Cray EX4000 на аппаратной платформе AMD. Быстродействие этой машины, как ожидается, составит около 600 Пфлопс. Известно, что в состав системы, получившей название HPC6, войдут 3472 узла, каждый из которых получит 64-ядерный процессор AMD EPYC и четыре ускорителя AMD Instinct MI250X. Таким образом, общее количество ускорителей составит 13 888. Судя по всему, компания смогла достаточно полно адаптировать своё ПО для работы на современных ускорителях AMD, эксперименты с которыми она начала ещё несколько лет назад. Комплекс будет использовать хранилище HPE Cray ClusterStor E1000 с интерконнектом HPE Slingshot. Узлы суперкомпьютера будут организованы в 28 стоек. Предусмотрено применение технологии прямого жидкостного охлаждения, которая, по заявлениям Eni, рассеивает 96 % вырабатываемого тепла. Максимальная потребляемая мощность — 10,17 МВт. Новый суперкомпьютер разместится в ЦОД Eni Green Data Center в Феррера-Эрбоньоне, который, как утверждается, является одним из самых энергоэффективных и экологически чистых вычислительных центров в Европе. По производительности HPC6 значительно превзойдёт комплексы HPC4 и HPC5, совокупная вычислительная мощность которых составляет 70 Пфлопс. При производительности 600 Пфлопс система HPC6 займёт второе место в текущем списке TOP500 самых мощных суперкомпьютеров мира.
16.01.2024 [22:51], Руслан Авдеев
Заброшенные шахты могут стать хранилищами «мусорного» тепла эдинбургского суперкомпьютераМеждународная группа учёных намеревается выяснить, можно ли сохранить «мусорное» тепло суперкомпьютера Эдинбургского университета в старых шахтах для того, чтобы впоследствии направить его на отопление местных домов. По словам учёных, в шахтах много воды, поэтому они способны стать идеальным хранилищем тепла. При этом для более чем 800 тыс. шотландских домохозяйств отопление является дорогим удовольствием, так что дешёвый источник тепла им не помешает. Исследование обойдётся в £2,6 млн ($3,3 млн), сообщает Datacenter Dynamics. Эдинбургский университет выделит £500 тыс. ($633 тыс). из собственно фонда, связанного со снижением вредных выбросов, а правительство Шотландии предоставило грант на сумму £1 млн ($1,27 млн). Подключатся и другие структуры, включая даже Министерство энергетики США с грантом $1 млн. Дата-центр Advanced Computing Facility (ACF) на территории Эдинбургского университета уже обслуживает один суперкомпьютер, а в 2025 году к нему присоединится машина экзафлопсного уровня, первый суперкомпьютер такого класса в Великобритании. В рамках исследования Edinburgh Geobattery, проводимого специалистами в области геотермальной энергетики TownRock Energy совместно с представителями науки и промышленности, будет оцениваться, возможно и целесообразно ли хранить тёплую воду (+40 °C) в заброшенных шахтах до того, как передать её на нужды городского отопления. Предполагается, что тепло ACF поможет обогреть не менее 5 тыс. домохозяйств, если тесты подтвердят теоретические выкладки. ACF выделяет до 70 ГВт·ч тепла ежегодно, но после запуска нового суперкомпьютера этот показатель увеличится до 272 ГВт·ч. Новая машина, оснащённая СЖО, будет построена в специально возведённом крыле ACF, которое само по себе обойдётся в £31 млн ($39,24 млн). Использование тепла ЦОД обычно считается довольно эффективным методом дополнительной эксплуатации дата-центров. Тем не менее, такая технология имеет серьёзный недостаток, поскольку передавать тепло туда, где оно востребовано, не всегда целесообразно. Некоторые европейские системы располагаются в «шаговой» доступности от систем районного отопления, а другие представляют собой небольшие вычислительные модули, которые предлагается размещать непосредственно в зданиях. Есть и проекты централизованного управления передачей тепла ЦОД. В непосредственной близости от Эдинбурга находятся заброшенные угольные, сланцевые и другие шахты, частично затопленные подземными водами. Проект предусматривает передачу тепла ЦОД естественными потоками грунтовых вод, с последующим использованием теплонасосов для обогрева зданий. Более того, в университете утверждают, что четверть британских домов расположена над бывшими шахтами, поэтому гипотетически получить тепло таким способом могут до 7 млн домохозяйств. |
|