Материалы по тегу: milan

28.09.2024 [23:24], Сергей Карасёв

Индия запустила сразу пять суперкомпьютеров за два дня

Премьер-министр Индии Нарендра Моди, по сообщению The Register, объявил о вводе в эксплуатацию трёх новых высокопроизводительных вычислительных комплексов PARAM Rudra. Запуск этих суперкомпьютеров, как отмечается, является «символом экономической, социальной и промышленной политики» страны.

Вдаваться в подробности о технических характеристиках машин Моди во время презентации не стал. Однако некоторую информацию раскрыли организации, которые займутся непосредственной эксплуатацией этих НРС-систем.

Один из суперкомпьютеров располагается в Национальном центре радиоастрофизики Индии (NCRA). Данная машина оснащена «несколькими тысячами процессоров Intel» и 90 ускорителями NVIDIA A100, 35 Тбайт памяти и хранилищем вместимостью 2 Пбайт. Ещё один НРС-комплекс смонтирован в Центре фундаментальных наук имени С. Н. Бозе (SNBNCBS): известно, что он обладает быстродействием 838 Тфлопс.

Оператором третьей системы является Межуниверситетский центр ускоренных вычислений (IUAC): этот суперкомпьютер с производительностью на уровне 3 Пфлопс использует 24-ядерные чипы Intel Xeon Cascade Lake-SP. Ёмкость хранилища составляет 4 Пбайт. Упомянут интерконнект с пропускной способностью 240 Гбит/с.

The Register отмечает, что указанные характеристики в целом соответствуют описанию суперкомпьютеров Rudra первого поколения. Согласно имеющейся документации, такие машины используют:

  • Материнскую плату половинной ширины для серверов формата 1U или 2U — до 64 серверов в стойке суммарной мощностью 40 кВт;
  • Два процессора Intel Xeon Cascade Lake-SP;
  • Два неназванных GPU-ускорителя;
  • Два NVMe SSD стандарта U.2;
  • Два порта 10GbE и дополнительный сетевой адаптер;
  • Интерконнект Trinetra — шесть полнодуплексных интерфейсов со скоростью 100 Гбит/с;
  • Технологию прямого жидкостного охлаждения собственной разработки.

Ожидается, что машины Rudra второго поколения получат поддержку процессоров Xeon Sapphire Rapids и четырёх GPU-ускорителей. Суперкомпьютеры третьего поколения будут использовать 96-ядерные Arm-процессоры AUM, разработанные индийским Центром развития передовых вычислений: эти изделия будут изготавливаться по 5-нм технологии TSMC.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Между тем компания Eviden (дочерняя структура Atos) сообщила о поставках в Индию двух новых суперкомпьютеров. Один из них установлен в Индийском институте тропической метеорологии (IITM) в Пуне, второй — в Национальном центре среднесрочного прогнозирования погоды (NCMRWF) в Нойде. Эти системы, построенные на платформе BullSequana XH2000, предназначены для исследования погоды и климата. В создании комплексов приняли участие AMD, NVIDIA и DDN.

Система IITM, получившая название ARKA, обладает быстродействием 11,77 Пфлопс: 3021 узел с AMD EPYC 7643 (Milan), 26 узлов с NVIDIA A100, NVIDIA Quantum InfiniBand и хранилище на 33 Пбайт (ранее говорилось о 3 Пбайт SSD + 29 Пбайт HDD). В свою очередь, суперкомпьютер NCMRWF под названием Arunika обладает производительностью 8,24 Пфлопс: 2115 узлов с AMD EPYC 7643 (Milan), NVIDIA Quantum InfiniBand и хранилище DDN EXAScaler ES400NVX2 (2 Пбайт SSD + 22 Пбайт HDD). Кроме того, эта система включает выделенный блок для приложений ИИ и машинного обучения с быстродействием 1,9 Пфлопс (точность не указана), состоящий из 18 узлов с NVIDIA A100.

Постоянный URL: http://servernews.ru/1111682
08.05.2024 [13:24], Сергей Карасёв

ИИ-суперкомпьютер в чемодане — GigaIO представила платформу Gryf

Компания GigaIO совместно с SourceCode анонсировала вычислительную систему Gryf. Это, как утверждается, первый в мире суперкомпьютер для ИИ-нагрузок, выполненный в виде чемодана на колёсиках. Изделие имеет габариты 228,6 × 355,6 × 622,3 мм и весит около 25 кг. Применяется фирменная система интерконнекта FabreX на базе PCI Express.

Конфигурация Gryf предусматривает использование модулей (Sled) четырёх типов: это вычислительный узел (Compute Sled), блок ускорителя (Accelerator Sled), узел хранения (Storage Sled) и сетевой блок (Network Sled). Они могут компоноваться в различных сочетаниях, но общее количество модулей в рамках одного экземпляра Gryf не превышает шести.

В состав Compute Sled входят процессор AMD EPYC 7313 Milan (16C/32T; 3,0–3,7 ГГц; 155 Вт), 256 Гбайт DDR4-3200, системный накопитель NVMe M.2 SSD вместимостью 256 Гбайт и два 100GbE-порта QSFP56/QSFP28. Может применяться ОС Linux Rocky 8/9 или Ubuntu 20/24. В свою очередь, Accelerator Sled содержит ускоритель NVIDIA L40S (48 Гбайт). Модуль Storage Sled объединяет восемь накопителей NVMe E1.L SSD суммарной вместимостью 246 Гбайт.

 Источник изображения: GigaIO

Источник изображения: GigaIO

Наконец, Network Sled предоставляет два разъёма QSFP56 100GbE и шесть 25GbE-портов SFP28. Вся система получает питание от двух блоков мощностью 2500 Вт каждый. Применены шесть вентиляторов охлаждения диаметром 60 мм. Диапазон рабочих температур — от 10 до +32 °C.

Одно устройство Gryf обеспечивает производительность до 91,6 Тфлопс FP32, до 733 Тфлопс FP16 и до 1466 Тфлопс FP8. При этом в единый комплекс могут быть связаны до пяти экземпляров Gryf, что позволяет масштабировать быстродействие для выполнения тех или иных задач.

Постоянный URL: http://servernews.ru/1104462
13.03.2024 [17:57], Сергей Карасёв

AMD EPYC + Proxmox: 45Drives предложила системы Proxinator в качестве альтернативы VMware

Канадская компания 45Drives анонсировала аппаратные решения семейства Proxinator, предназначенные для создания виртуальной инфратструктуры машин. В основу устройств, рассчитанных на монтаж в стойку, положена аппаратная платформа AMD с процессорами поколения EPYC Milan, дополненная инструментами Proxmox.

Отмечается, что после поглощения компании VMware корпорацией Broadcom многие корпоративные пользователи начали искать альтернативные решения. Связано это с кардинальным изменением бизнес-модели VMware. В частности, Broadcom отменила бессрочные лицензии и перевела все продукты на подписную схему. Кроме того, были упразднены скидки и изменён подход к взаимодействию с партнёрами.

45Drives заявляет, что в поисках замены многие корпоративные клиенты не хотят снова становиться зависимыми от проприетарных решений. Системы Proxinator на базе открытого ПО, как утверждается, помогают избежать указанных рисков, одновременно предлагая высокую производительность. Используются платформа виртуализации Proxmox. Говорится, что в максимальной конфигурации на базе одного устройства Proxinator могут быть развёрнуты до 4 тыс. ВМ.

 Источник изображения: 45Drives

Источник изображения: 45Drives

В семейство Proxinator входят модели на процессорах AMD EPYC 7413, 7543 и 7713P с 24, 32 и 64 ядрами. Объём оперативной памяти составляет соответственно 128, 256 и 512 Гбайт. При необходимости размер ОЗУ может быть расширен до 2 Тбайт. Возможна установка HDD и SSD с интерфейсами SATA и SAS, а также высокоскоростных модулей NVMe. В зависимости от модификации предусмотрены отсеки для 4, 8, 16 или 32 накопителей.

 Источник изображения: 45Drives

Источник изображения: 45Drives

Для систем Proxinator компания 45Drives предлагает техническое обслуживание и всестороннюю поддержку. За $2500 разработчик произведёт настройку, тестирование и миграцию виртуальных машин vSphere. При миграции компания предлагает переиспользовать уже имеющиеся у клиента накопители.

Постоянный URL: http://servernews.ru/1101645
08.01.2024 [00:28], Алексей Степин

Oxide Cloud Computer: переизобретая облако

Публичные облака очень популярны, но не всегда в должной мере отвечают поставленным целям и задачам компании. В то же время, классическая серверная инфраструктура дорога в содержании, хлопотна в настройке и не всегда безопасна — не в последнюю очередь из-за фрагментированности программных и аппаратных архитектур, уходящей корнями в далёкое прошлое.

Компания Oxide Computer заявила, что разработанная ею интегрированная платформа должна вернуть компьютерным системам нового поколения холизм, присущий самым ранним вычислительным решениям, когда аппаратное и программное обеспечение создавалось совместно и с взаимным учётом особенностей.

Разлад, по мнению Oxide, начался в этой сфере давно — с появлением BIOS, отделившей «железо» от системного ПО. В дальнейшем этот разрыв только нарастал, как и степень закрытости компонентов вкупе со всё большим и большим количеством слоёв абстракций.

 Источник изображений здесь и далее: Oxide Computer

Источник изображений здесь и далее: Oxide Computer

Появление UEFI лишь усугубило эту проблему. Причём речь здесь не только о прошивках: можно вспомнить SMM и интеграцию в процессоры «вспомогательных ядер», обслуживающих I/O-подсистемы, но полностью скрытых от системного ПО. По мнению Oxide, такой подход представляет серьёзную угрозу безопасности, поскольку со стороны «железа» операционной системе доступно всё меньше информации об истинных аппаратных возможностях и ресурсах сервера.

Появление BIOS с открытым кодом проблемы не решает — вспомогательные аппаратные компоненты сегодня не просто слишком сложны, но и работают под управлением проприетарных прошивок, а информации в открытом доступе о них крайне мало. Крупные гиперскейлеры борются с этой фрагментацией путём создания собственных, уникальных решений. Oxide Computer же решила распространить этот подход на традиционный корпоративный рынок.

В своих новых системах компания отказалась не только от традиционных прошивок BIOS и UEFI, но и от использования закрытых BMC и сервисных процессоров, равно как и блоков Root-of-Trust (RoT). Вместо них используются чипы STM32H753 и LP55S28, работающие под управлением специально разработанной для этих целей операционной системы Hubris, полностью открытой, написанной на языке Rust.

Полностью избавиться от проприетарности на платформе AMD невозможно, поскольку Platform Security Processor (PSP) отвечает за старт и инициализацию процессора и памяти. Но вот дальнейший процесс загрузки управляется не BIOS/UEFI, а фирменной открытой ОС Helios, часть которой «живёт» в SPI-памяти. Helios является своего рода наследницей illumos, восходящей ещё к OpenSolaris. Стек включает гипервизор bhyve, Propolis для работы с VMM, а также Omicron для управления всей платформой в целом на уровне стойки. Естественно, для подсистемы хранения задействованы ZFS-пулы.

Результатом работ Oxide стала платформа под названием Cloud Computer. Для неё не просто было разработано уникальное программное обеспечение — практически с нуля была создана и вся аппаратная часть, от вычислительных узлов до сетевых коммутаторов и подсистемы питания. Об этом компания рассказывает в своём блоге. При этом практически вся программная часть этого программно-аппаратного комплекса открыта, но вот аппаратную часть кому-то со стороны просто так повторить вряд ли удастся.

Oxide позиционирует Cloud Computer в качестве универсальной платформы для частных облаков, обеспечивающей единство архитектуры и удобства конфигурирования с гибкостью и простотой использования публичных облаков. По словам компании, развёртывание облака на базе Oxide Cloud Computer занимает считаные часы, что является заслугой в том числе и уникальной архитектуры новинки. Фактически для первичного запуска системы достаточно подключить питание и сеть.

Платформа (фактически готовая стойка) может включать в себя 16, 24 или 32 вычислительных узла на базе 64-ядерных процессоров AMD EPYC 7713P (Milan) с 512 или 1 Тбайт RAM, что даёт до 2048 ядер и до 32 Тбайт памяти на стойку. Каждый узел имеет 10 U.2-отсеков и комплектуется NVMe SSD объёмом 3,2 Тбайт, так что суммарный объём хранилища может достигать 931,5 Тбайт. В качестве интерконнекта используется 100GbE, в состав системы входит два программируемых коммутатора на базе Intel Tofino 2 (12,8 Тбит/с). В них также применяется ПО Oxide, написанное на P4.

Подсистема хранения использует OpenZFS для построения распределённого блочного хранилища и реализует проактивную защиту данных, быстрое снятие снимков, их преобразование в дисковые образы и обратно, а также многое другое. Шифрование данных обеспечивается на всех уровнях, а за безопасность и хранение ключей отвечает фирменный RoT-контроллер, упомянутый ранее.

Полка питания содержит 6 БП (5+1), максимальная потребляемая стойкой мощность не превышает 15 кВт. Питание у системы трёхфазное. Высота стойки Oxide составляет 2354 мм, ширина — стандартные 600 мм, глубина — 1060 мм. Платформа может генерировать почти 61500 BTU/час и нуждается в соответствующем воздушном охлаждении. Система работоспособна при температурах окружающей среды в пределах от +2 до +35 °C при относительно влажности не выше 80 %. Масса стойки составляет до 1145 кг.

Постоянный URL: http://servernews.ru/1098412
08.11.2023 [18:28], Сергей Карасёв

AMD продлила жизненный цикл процессоров EPYC Milan до 2026 года

Компания AMD объявила об увеличении жизненного цикла процессоров EPYC Milan. Эти изделия, дебютировавшие в начале 2021 года, в соответствии с новым графиком будут доступны для заказа как минимум до 2026-го. Вместе с тем чипы постепенно уступают место более новым AMD EPYC 7004 (Genoa).

Процессоры EPYC Milan насчитывают до 64 ядер и несут на борту до 256 Мбайт кеш-памяти. Обеспечивается поддержка 128 линий PCIe 4.0 и восьми каналов памяти DDR4-3200.

 Источник изображения: AMD

Источник изображения: AMD

AMD отмечает, что в свете стремительного развития ИИ, машинного обучения и платформ НРС в определённых областях создаётся потребность в экономичных и проверенных массовых решениях среднего уровня. Именно на таких заказчиков и ориентированы изделия EPYC Milan. Они, как утверждается, обеспечивают оптимальное соотношение цены, качества, производительности, энергоэффективности и безопасности. Чипы могут применяться различными предприятиями, поставщиками облачных услуг, государственными и финансовыми службами.

При этом AMD официально представила шесть новых моделей EPYC Milan, о подготовке которых сообщалось в середине сентября нынешнего года. Напомним, это процессоры с количеством ядер от 8 до 56 и показателем TDP от 120 до 240 Вт. Цена новинок варьируется от $348 до $3139.

Постоянный URL: http://servernews.ru/1095664
14.09.2023 [18:34], Сергей Карасёв

AMD выпустила шесть новых процессоров EPYC Milan — спустя 2,5 года после анонса семейства

Компания AMD, по сообщению ресурса Tom's Hardware, без громких анонсов пополнила семейство процессоров EPYC Milan шестью новыми моделями: EPYC 7663P, EPYC 7643P, EPYC 7303P, EPYC 7303, EPYC 7203P и EPYC 7203. Чипы вышли спустя примерно два с половиной года после дебюта соответствующего семейства. Сейчас их постепенно вытесняют более новые AMD EPYC 7004 (Genoa).

Изделия EPYC 7663P и EPYC 7643P фактически представляют собой версии EPYC 7663 и EPYC 7643 для односокетных серверов. Процессор EPYC 7663P насчитывает 56 ядер (112 потоков) с базовой частотой 2,0 ГГц (повышается до 3,5 ГГц). Показатель TDP равен 240 Вт. Цена — $3139. Модель EPYC 7643P имеет 48 ядер (96 потоков) с частотой 2,3–3,6 ГГц, обладает показателем TDP в 225 Вт и стоит $2722. P-версии практически вдвое дешевле своих старших собратьев, рассчитанных на двухсокетные системы.

 Источник изображения: AMD

Источник изображения: AMD

Решения EPYC 7303P и EPYC 7303 располагают 16 ядрами (32 потока) с тактовой частотой 2,4–3,4 ГГц, а их показатель TDP равен 130 Вт. Чипы ориентированы на одно- и двухпроцессорные серверы соответственно. Цена — $594 и $604. Наконец, изделия EPYC 7203P и EPYC 7203 содержат восемь ядер (16 потоков) с частотой 2,8–3,4 ГГц. Величина TDP составляет 120 Вт. Стоят эти модели $338 и $348. Все новые процессоры поддерживают 128 линий PCIe 4.0. Объём кеша L3 равен 256 Мбайт у двух старших версий и 64 Мбайт у четырёх других.

Постоянный URL: http://servernews.ru/1093034
28.05.2021 [00:33], Владимир Мироненко

Perlmutter стал самым мощным ИИ-суперкомпьютером в мире: 6 тыс. NVIDIA A100 и 3,8 Эфлопс

В Национальном вычислительном центре энергетических исследований США (NERSC) Национальной лаборатории им. Лоуренса в Беркли состоялась торжественная церемония, посвящённая официальному запуску суперкомпьютера Perlmutter, также известного как NERSC-9, созданного HPE в партнёрстве с NVIDIA и AMD.

Это самый мощный в мире ИИ-суперкомпьютер, базирующийся на 6159 ускорителях NVIDIA A100 и примерно 1500 процессорах AMD EPYC Milan. Его пиковая производительность в вычислениях смешанной точности составляет 3,8 Эфлопс или почти 60 Пфлопс в FP64-вычислениях.

Perlmutter основан на платформе HPE Cray EX с прямым жидкостным охлаждением и интерконнектом Slingshot. В состав системы входят как GPU-узлы, так и узлы с процессорами. Для хранения данных используется файловая система Lustre объёмом 35 Пбайт скорость обмена данными более 5 Тбайт/с, которая развёрнута на All-Flash СХД HPE ClusterStor E1000 (тоже, к слову, на базе AMD EPYC).

 Perlmutter (Phase 1). Фото: NERSC

Perlmutter (Phase 1). Фото: NERSC

Установка Perlmutter разбита на два этапа. На сегодняшней презентации было объявлено о завершении первого (Phase 1) этапа, который начался в ноябре прошлого года. В его рамках было установлено 1,5 тыс. вычислительных узлов, каждый из которых имеет четыре ускорителя NVIDIA A100, один процессор AMD EPYC Milan и 256 Гбайт памяти. На втором этапе (Phase 2) в конце 2021 года будут добавлены 3 тыс. CPU-узлов c двумя AMD EPYC Milan и 512 Гбайт памяти., а также ещё ещё 20 узлов доступа и четыре узла с большим объёмом памяти.

 NERSC

NERSC

Также на первом этапе были развёрнуты служебные узлы, включая 20 узлов доступа пользователей, на которых можно подготавливать контейнеры с приложениями для последующего запуска на суперкомпьютере и использовать Kubernetes для оркестровки. Среда разработки будет включать NVDIA HPC SDK в дополнение к наборам компиляторов CCE (Cray Compiling Environment), GCC и LLVM для поддержки различных средств параллельного программирования, таких как MPI, OpenMP, CUDA и OpenACC для C, C ++ и Fortran.

 Фото: DESI

Фото: DESI

Сообщается, что для Perlmutter готовится более двух десятков заявок на вычисления в области астрофизики, прогнозирования изменений климата и в других сферах. Одной из задач для новой системы станет создание трёхмерной карты видимой Вселенной на основе данных от DESI (Dark Energy Spectroscopic Instrument). Ещё одно направление, для которого задействуют суперкомпьютер, посвящено материаловедению, изучению атомных взаимодействий, которые могут указать путь к созданию более эффективных батарей и биотоплива.

Постоянный URL: http://servernews.ru/1040628
Система Orphus