Материалы по тегу: sapphire rapids

22.09.2021 [13:26], Сергей Карасёв

В основу новых суперкомпьютеров NNSA лягут процессоры Intel Xeon Scalable Sapphire Rapids

Национальное управление по ядерной безопасности (NNSA) Министерства энергетики США выбрало процессоры Intel Xeon Scalable следующего поколения с кодовым именем Sapphire Rapids для высокопроизводительных вычислительных комплексов, создаваемых по проекту Life Extension.

Речь идёт о поддержании критических задач в рамках программы управления ядерным арсеналом (Stockpile Stewardship). Она, в частности, предусматривает проверку тактико-технических характеристик и надёжности ядерных боевых частей ракет. Оцениваются химическая стабильность материалов, состояние электронных компонентов и пр.

Intel

Intel

Сообщается, что Ливерморская национальная лаборатория им. Э. Лоуренса, входящая в состав NNSA, заключила контракт с Dell Technologies на поставку новых серверов Dell EMC PowerEdge для будущих суперкомпьютеров. В основу этих систем лягут чипы Sapphire Rapids.

Отгрузки первого оборудования в рамках договора запланировано на середину следующего года. В целом, контракт охватывает период до 2025-го. Новые комплексы высокопроизводительных вычислений будут развёрнуты в Ливерморской национальной лаборатории им. Э. Лоуренса, а также в Лос-Аламосской национальной лаборатории и в Национальных лабораториях Сандия.

Постоянный URL: http://servernews.ru/1049608
24.08.2021 [01:45], Игорь Осколков

Intel Xeon Sapphire Rapids получат UMA-режим, динамический балансировщик нагрузки DLB и поддержку CXL на всех линиях PCIe

На мероприятии Architecture Day Intel, наконец, поделилась некоторыми подробностями о будущих серверных процессорах Xeon Sapphire Rapids, которые станут доступны в первой половине 2022 года. Правда, презентация оставила больше вопросов, чем ответов. Но на HotChips 33 представители компании дали некоторые пояснения и чуть более подробно рассказали о части нововведений.

Например, компания назвала типичный уровень задержек между отдельными тайлами, соединёнными между собой десятью EMIB-мостиками — в среднем от 4 до 8 нс (но не более 10 нс) за один переход по мостику. Причём этот показатель может чуть плавать в зависимости от обращения к соседу слева/справа или снизу/сверху (подключений по диагонали нет). Поскольку все ресурсы для всех тайлов и ядер/потоков общие, наихудшая ситуация наступает тогда, когда запрос и ответ к памяти соседнего тайла пойдут в обход по всем тайлам. То есть на пути туда-обратно запрос совершит четыре перехода по мостикам.

Избавиться от такой ситуации можно как формированием NUMA-кластеров, так и новым UMA-режимом (квадрант в терминологии Intel), в котором  системный агент каждого тайла «привязывается» к контроллеру памяти на том же самом тайле. Это требует симметричного размещения памяти на всех контроллерах, зато снижает задержки (как при использовании NUMA), сохраняя при этом «цельность» процессора при взгляде со стороны, то есть не требует модификации ПО. Вероятно, именно этот режим работы будет рекомендовано использовать по умолчанию.

Число линий PCIe так и не было названо, однако было сказано, что все они будут поддерживать CXL (блоками по x16) — у AMD EPYC Genoa, если верить утечкам, это не так. Режим работы будет автоматически выбираться в зависимости от типа устройства при загрузке. Интересно, что ускорители Ponte Vecchio, вероятно, будут поддерживать только PCIe-режим. Это, правда, не помешает реализовать обещанную когда-то поддержку общей когерентной памяти в связке CPU-GPU.

Кроме того, текущая реализация CXL не поддерживает режим Type 3, который, в частности, позволяет наращивать объём доступной CPU памяти путём подключения внешних блоков DRAM/SCM. Дополнительно отмечено, что HBM-память, тоже подключаемая посредством EMIB, будет иметь собственные контроллеры, так что все 8 каналов DRAM никуда не денутся. Любопытно, что SKU с малым числом ядер будут иметь то же число каналов памяти, линий PCIe/UPI и т.д., но при этом могут оказаться вовсе не состоящими из тайлов.

Помимо прочего, докладчик поделился некоторыми сведениями о новых или расширенных возможностях Sapphire Rapids. В частности, они получат поддержку Virtual Shared Memory, позволяющую ПО, использующему CPU и ускорители (интегрированные или дискретные), иметь для удобства работы единое адресное пространство с поддержкой целостности и когерентности памяти. В том числе для виртуальных машин. Для них же (и для контейнеров) пригодится технология Intel Scalable IO Virtualization (S-IOV), расширяющая возможности SR-IOV.

Про акселераторы DSA и QAT уже говорилось в прошлый раз. Сейчас же было немного рассказано про DLB (Dynamic Load Balancer), динамический балансировщик нагрузки, который распределяет её между ядрами, принимая решения 400 млн раз в секунду, и ускоряет операции, связанные с этим процессом. Он отслеживает потребление ресурсов и позволяет задать приоритеты для различных нагрузок. Для работы со всеми этими ускорителями и нужен новый набор инструкций AiA (Accelerator Interfacing Architecture), который позволяет управлять ими из режима пользователя.

Постоянный URL: http://servernews.ru/1047385
19.08.2021 [16:00], Игорь Осколков

Intel представила Xeon Sapphire Rapids: четырёхкристалльная SoC, HBM-память, новые инструкции и ускорители

В рамках Architecture Day компания Intel рассказала о грядущих серверных процессорах Sapphire Rapids, подтвердив большую часть опубликованной ранее информации и дополнив её некоторыми деталями. Intel позиционирует новинки как решение для более широкого круга задач и рабочих нагрузок, чем прежде, включая и популярные ныне микросервисы, контейнеризацию и виртуализацию. Компания обещает, что CPU будут сбалансированы с точки зрения вычислений, работой с памятью и I/O.

Новые процессоры, наконец, получили чиплетную, или тайловую в терминологии Intel, компоновку — в состав SoC входят четыре «ядерных» тайла на техпроцессе Intel 7 (10 нм Enhanced SuperFIN). Каждый тайл объединён с соседом посредством EMIB. Их системные агенты, включающие общий на всех L3-кеш объём до 100+ Мбайт, образуют быструю mesh-сеть с задержкой порядка 4-8 нс в одну сторону. Со стороны процессор будет «казаться» монолитным.

Каждые ядро или поток будут иметь свободный доступ ко всем ресурсам соседних тайлов, включая кеш, память, ускорители и IO-блоки. Потенциально такой подход более выгоден с точки зрения внутреннего обмена данными, чем в случае AMD с общим IO-блоком для всех чиплетов, которых в будущих EPYC будет уже 12. Но как оно будет на самом деле, мы узнаем только в следующем году — выход Sapphire Rapids запланирован на первый квартал 2022-го, а массовое производство будет уже во втором квартале.

Ядра Sapphire Rapids базируются на микроархитектуре Golden Cove, которая стала шире, глубже и «умнее». Она же будет использована в высокопроизводительных ядрах Alder Lake, но в случае серверных процессоров есть некоторые отличия. Например, увеличенный до 2 Мбайт на ядро объём L2-кеша или новый набор инструкций AMX (Advanced Matrix Extension). Последний расширяет ИИ-функциональность CPU и позволяет проводить MAC-операции над матрицами, что характерно для такого рода нагрузок.

Для AMX заведено восемь выделенных 2D-регистров объёмом по 1 Кбайт каждый (шестнадцать 64-байт строк). Отдельный аппаратный блок выполняет MAC-операции над тремя регистрами, причём делаться это может параллельно с исполнением других инструкций в остальной части ядра. Настройкой параметров и содержимого регистров, а также перемещением данных занимается ОС. Пока что в процессорах представлен только MAC-блок, но в будущем могут появиться блоки и для других, более сложных операций.

В пике производительность AMX на INT8 составляет 2048 операций на цикл на ядро, что в восемь раз больше, чем при использовании традиционных инструкций AVX-512 (на двух FMA-портах). На BF16 производительность AMX вдвое ниже, но это всё равно существенный прирост по сравнению с прошлым поколением Xeon — Intel всё так же пытается создать универсальные ядра, которые справлялись бы не только с инференсом, но и с обучением ИИ-моделей. Тем не менее, компания говорит, что возможности AMX в CPU будут дополнять GPU, а не напрямую конкурировать с ними.

К слову, именно Sapphire Rapids должен, наконец, сделать BF16 более массовым, поскольку Cooper Lake, где поддержка этого формата данных впервые появилась в CPU Intel, имеет довольно узкую нишу применения. Из прочих архитектурных обновлений можно отметить поддержку FP16 для AVX-512, инструкции для быстрого сложения (FADD) и более эффективного управления данными в иерархии кешей (CLDEMOTE), целый ряд новых инструкций и прерываний для работы с памятью и TLB для виртуальных машин (ВМ), расширенную телеметрию с микросекундными отсчётами и так далее.

Последние пункты, в целом, нужны для более эффективного и интеллектуального управления ресурсами и QoS для процессов, контейнеров и ВМ — все они так или иначе снижают накладные расходы. Ещё больше ускоряют работу выделенные акселераторы. Пока упомянуты только два. Первый, DSA (Data Streaming Accelerator), ускоряет перемещение и передачу данных как в рамках одного хоста, так и между несколькими хостами. Это полезно при работе с памятью, хранилищем, сетевым трафиком и виртуализацией.

Второй упомянутый ускоритель — это движок QAT (Quick Assist Engine), на который можно возложить операции или сразу цепочки операций (де-)компрессии (до 160 Гбит/с в обе стороны одновременно), хеширования и шифрования (до 400 Гбитс/с) в популярных алгоритмах: AES GCM/XTS, ChaChaPoly, DH, ECC и т.д. Теперь блок QAT стал частью самого процессора, тогда как прежде он был доступен в составе некоторых чипсетов или в виде отдельной карты расширения. Это позволило снизить задержки и увеличить производительность блока.

Кроме того, QAT можно будет задействовать, например, для виртуализации или Intel Accelerator Interfacing Architecture (AiA). AiA — это ещё один новый набор инструкций, предназначенный для более эффективной работы с интегрированными и дискретными ускорителями. AiA помогает с управлением, синхронизацией и сигнализацией, что опять таки позволит снизить часть накладных расходов при взаимодействии с ускорителями из пространства пользователя.

Подсистема памяти включает четыре двухканальных контроллера DDR5, по одному на каждый тайл. Надо полагать, что будут доступные четыре же NUMA-домена. Больше деталей, если не считать упомянутой поддержки следующего поколения Intel Optane PMem 300 (Crow Pass), предоставлено не было. Зато было официально подтверждено наличие моделей с набортной HBM, тоже по одному модулю на тайл. HBM может использоваться как в качестве кеша для DRAM, так и независимо. В некоторых случаях можно будет обойтись вообще без DRAM.

Про PCIe 5.0 и CXL 1.1 (CXL.io, CXL.cache, CXL.memory) добавить нечего, хотя в рамках другого доклада Intel ясно дала понять, что делает ставку на CXL в качестве интерконнекта не только внутри одного узла, но и в перспективе на уровне стойки. Для объединения CPU (бесшовно вплоть до 8S) всё так же будет использоваться шина UPI, но уже второго поколения (16 ГТ/с на линию) — по 24 линии на каждый тайл.

Конкретно для Sapphire Rapids Intel пока не приводит точные данные о росте IPC в сравнении с Ice Lake-SP, ограничиваясь лишь отдельными цифрами в некоторых задачах и областях. Также не был указан и ряд других важных параметров. Однако AMD EPYC Genoa, если верить последним утечкам, даже по чисто количественным характеристикам заметно опережает Sapphire Rapids.

Постоянный URL: http://servernews.ru/1047107
05.07.2021 [15:37], Андрей Галадей

Intel Xeon Sapphire Rapids получат инструкции AVX-512 FP16

Разработчики из компании Intel готовят патчи для ПО с поддержкой будущих процессоров Xeon семейства Sapphire Rapids, которые, как теперь выяснилось, будут включать инструкции AVX-512 FP16. Соответствующая документация была выложена в публичный доступ в самом конце июня. А вслед за этим появились патчи для GCC и LLVM, на которые обратил внимание ресурс Phoronix.

Поддержка FP16-вычислений с помощью AVX-512 будет актуальна, в первую очередь, для приложений машинного обучения. При этом не следует путать их с BF16 (Bfloat16), которая появилась ещё в семействе Cooper Lake в прошлом году. Для GCC Intel подготовила набор из 62 патчей для поддержки всех новых функций AVX512 FP16, а также автоматической векторизации _Float16 и связаных задач. Для LLVM добавлены патчи, «знакомящие» Clang с новым форматом и инструкциями.

Судя по всему, полноценная поддержка появится только в GCC 12, то есть, как теперь понятно, ближе к релизу самих процессоров в первой половине 2022 года. И очередные релизы крупных дистрибутивов её не получат. Что касается Clang, то есть все шансы, что поддержка будет добавлена уже в LLVM 13 — релиз намечен на осень.

Постоянный URL: http://servernews.ru/1043516
29.06.2021 [20:30], Игорь Осколков

Intel снова подтвердила перенос выхода серверных процессоров Xeon Sapphire Rapids на первое полугодие 2022-го

В небольшой заметке вице-президент Intel Лиза Спелман (Lisa Spelman), отвечающая за разработку Xeon и памяти, в очередной раз упомянула, что производство следующего поколения серверных процессоров под кодовым именем Sapphire Rapids начнётся в первом квартале 2022 года, а массовый выпуск будет налажен уже во втором.

Утверждается, что это необходимо в связи с выделением дополнительного времени на валидацию новых систем, что впоследствии упростит для партнёров и заказчиков использование и интеграцию продуктов с новыми Xeon. Связано ли это с каким-либо техническими сложностями, не сообщается, но компания говорит о повышении спроса на эти решения.

Таким образом, срок выхода новых CPU, включая уже выпущенные Ice Lake-SP, фактически сдвинулся на год, несмотря на более ранние заявления компании. Наиболее близкие партнёры Intel из числа гиперскейлеров и поставщиков HPC-решений уже имеют доступ к инженерным образцам и первыми получат новинки. Подготовка программной экосистемы тоже уже давно ведётся. Среди заметных HPC-проектов, которые должны вовремя получить Sapphire Rapids, есть неоднократно перенесённая Aurora, Crossroads, а также SuperMUC-NG.

Sapphire Rapids будут заметно отличаться от всех Xeon предыдущих поколений. CPU вслед за решениями AMD получат чиплетную компоновку, обзаведутся поддержкой PCIe 5.0 (с CXL 1.1.) и DDR5. AMD EPYC Genoa на базе Zen4, релиз которых тоже ожидается в следующем году, также получат эти интерфейсы. Пока что Intel говорит о нескольких преимуществах грядущих Xeon (во всяком случае для HPC-сегмента и в какой-то мере СХД). Они получат набортную HBM-память, технологию DSA (Data Streaming Accelerator) для ускорения операций ввода-вывода и новый набор инструкций для работы с матрицами AMX (Advanced Matrix Extension), которые дополнят ИИ-расширения DL Boost.

Постоянный URL: http://servernews.ru/1043145
28.06.2021 [19:00], Алексей Степин

Intel на ISC 2021: от Xeon Ice Lake-SP и Sapphire Rapids до Ponte Vecchio и DAOS

Партнёрский материал

В рамках суперкомпьютерной выставки-конференции компания ISC 2021 Intel рассказала о своих последних решениях в области высокопроизводительных вычислений (HPC), а также коротко упомянула о будущих продуктах. Сочетание новых процессорных платформ Xeon Scalable, ускорителей Ponte Vecchio на базе Intel Xe и сетевых адаптеров Ethernet 800/810 Series должно обеспечить компании уверенную позицию в мире HPC.

В последние пару лет в секторе HPC появились решения на базе 64-ядерных EPYC, а затем и разработки на базе архитектуры ARM, показавшие высокие удельную производительность и энергоэффективность. В то же время платформа Intel® Xeon® хоть и была в ряде отношений прогрессивной — достаточно вспомнить уникальную поддержку памяти Optane™ и инструкций AVX-512, — однако количество ядер на процессор до уровня конкурентов нарастить не удавалось, а гибридная платформа Xeon 9200 популярности не снискала по ряду причин.

Но сейчас ситуация начинает меняться в пользу Intel. Хотя третье поколение Xeon Scalable (Ice Lake-SP) и задержалось, но получилось достаточно интересным: у новых процессоров появилась поддержка действительно серьёзных по объёму защищённых вычислительных анклавов, шины PCIe 4.0, дальнейшее развитие AVX-512 и VNNI, восьмиканальный контроллер памяти DDR4-3200, а максимальное количество ядер при этом выросло с 28 до 40, что уже хоть как-то сопоставимо с EPYС второго и третьего поколений.

Несмотря на некоторое отставание по «сырому» количеству ядер, процессоры Xeon Scalable третьего поколения, согласно данным Intel, хорошо показывают себя в ряде HPC-приложений благодаря усовершенствованной микроархитектуре и поддержке расширений и VNNI. Как сообщила Intel, процессор Xeon Platinum 8358 (10 нм, 32C/64T, 2,6 ‒ 3,4 ГГц, 48 Мбайт кеша, 250 Ватт TDP) серьёзно опережает AMD EPYC 7543 (7 нм, 32С/64T, 2,8 ‒ 3,7 ГГц, 256 Мбайт кеша, 225 Ватт TDP) именно в сфере HPC: в тестах NAMD преимущество составило 62%, пакеты LAMMPS и RELION показали превосходство на 57% и 68%, соответственно, а в тесте Binominal Options выигрыш составил 37%.

Кроме того, симуляции с использованием метода Монте-Карло, часто использующегося в финансовых приложениях, работают на Xeon Scalable третьего поколения более чем вдвое быстрее. Отлично выступил и Xeon Platinum 8380 (10 нм, 40C/80T, 2,3 ‒ 3,4 ГГц, 60 Мбайт кеша, 270 Ватт TDP): в 20 наиболее популярных ИИ-тестах он опередил EPYC 7763 (7 нм, 64С/128T, 2,45 ‒ 3,5 ГГц, 256 Мбайт кеша, 280 Ватт TDP) на 50%. Этот пример хорошо доказывает тот факт, что количество ядер и «сырая» вычислительная мощность не гарантируют победы, а наличие аппаратных и программных оптимизаций может быть решающим в ряде задач.

Вычислительные нагрузки в области моделирования и симуляции, такие, как моделирование поведения жидкостей или квантовая хромодинамика, задачи машинного обучения, базы данных класса in-memory весьма зависят от производительности подсистем памяти. И здесь Intel тоже есть, что сказать. Ранее опробовав технологию встроенной высокоскоростной памяти на платформе Xeon Phi™ 7200 (до 16 Гбайт 3D MCDRAM), компания собирается вернуться к этой идее на новом уровне: процессоры под кодовым названием Sapphire Rapids получат не только поддержку DDR5, но и набортную HBM2 (до 64 Гбайт).

В сочетании с поддержкой PCI Express 5.0 и новых инструкций ускорения матричных вычислений (Advanced Matrix Extensions) это делает Xeon (Sapphire Rapids) весьма привлекательной платформой именно для сегмента HPC. И будущей новинкой уже заинтересовались крупные заказчики: эти процессоры планируется использовать в суперкомпьютерах Aurora, Crossroads и SuperMUC-NG. Представители этих и ряда других научно-исследовательских организаций настроены весьма оптимистично в отношении платформы Sapphire Rapids.

В ряде машин компанию им составит ускорители Intel Xe Ponte Vecchio, который уже проходит процесс валидации в составе новых систем. Напомним, каждый узел вышеупомянутого суперкомпьютера Aurora должен получить по два процессора Sapphire Rapids и по шесть ускорителей Ponte Vecchio. Появление нового игрока на рынке откроет дополнительные возможности для производителей систем в HPC-сегменте.

Сами ускорители Ponte Vecchio уникальны: чиплет являет собой довольно замысловатую многокомпонентную структуру, состоящую из 47 элементов и соединённую воедино с помощью технологий Foveros 3D и EMIB. Неудивительно, ведь общее число транзисторов у этого монстра превышает 100 млрд, что позволяет Intel рассчитывать на уровень производительности более 1 Пфлопс. Доступен этот ускоритель будет в формате OCP Accelerator Module (OAM). Известно также, что он получит жидкостное охлаждение.

Наконец, третий важный компонент любой HPC-платформы: хранилище данных. В этой области Intel делает ставку на открытые решения, и на ISC 2021 компания представила коммерческий вариант объектного распределённого хранилища DAOS (Distributed Application Object Storage). Платформа DAOS является программно-определяемой, но это не указание на её невысокую производительность. Напротив, она изначально создавалась с прицелом на масштабируемость и высочайший уровень производительности именно с крупными объёмами данных.

В системах DAOS Intel использует только твердотельную память, отказавшись от гибридных схем с использованием традиционных механических накопителей и SSD, причём, поддерживается и Optane в обеих инкарнациях: как накопители, так и PMem-модули. Intel сделала DAOS доступной в качестве решения уровня L3 для своих партнёров. В их число входят такие гиганты, как HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta, а также российская РСК, которая поддержала инициативу DAOS ещё в конце прошлого года.

Наконец, ещё один важный компонент HPC-систем — интерконнект. Intel, напомним, отказалась от Omni-Path, сосредоточившись на Ethernet. А на ISC 2021 компания объявила о платформе High Performance Networking (HPN), которая включает 100/200GbE-адаптеры серии E800/E810, коммутаторы c контроллерами Tofino™ и ПО Intel Ethernet Fabric. Этого достаточно для построения малых кластеров, причём, как обещает компания, производительность будет на уровне InfiniBand-решений, а стоимость будет ниже, чем у них.

В целом Intel придерживается целостного подхода. Если при построении HPC-системы на базе решений других производителей всё равно придётся воспользоваться аппаратными или программными составляющими «со стороны», то Intel готова предложить всё в комплексе, от процессоров и вычислительных ускорителей до сетевых адаптеров, коммутаторов и программного обеспечения. В рамках развития Intel модели oneAPI особенный интерес представляет последний пункт.

Постоянный URL: http://servernews.ru/1042961
12.06.2021 [00:03], Игорь Осколков

Серверные процессоры Intel Xeon Sapphire Rapids будут оснащены HBM-памятью

То, что грядущие серверные процессоры Intel Xeon Sapphire Rapids помимо контроллера DDR5 получат ещё и поддержку памяти HBM, уже давно не секрет. Соответствующие изменения в документации для разработчиков были опубликованы ещё в конце прошлого года.

Эти процессоры будут трудиться вместе с укорителями Intel Xe HPC (Ponte Vecchio), причём объединять блоки ускорителей, HBM-память и CPU будет отдельная шина XEMF (XE Memory Fabric) с поддержкой когерентности. AMD тоже воспользуется когерентностью шины Infinity Fabric для связи EPYC и Radeon Instinct. В обоих случаях речь идёт о суперкомпьютерных системах.

И, надо полагать, именно для таких систем будут подготовлены процессоры Xeon Sapphire Rapids с набортной HBM-памятью. На это прямо указывают свежие патчи Intel для ядра Linux, на которые обратил внимание ресурс Phoronix. Патчи относятся к драйверу EDAC (Error Detection And Correction, выявление и коррекция ошибок). В них же содержится упоминание SoC Ice Lake Neural Network Processor for Deep Learning Inference (ICL-NNPI) — Intel Nervana NNP-I (Spring Hill).

Постоянный URL: http://servernews.ru/1041828
06.05.2021 [18:22], Андрей Галадей

Суперкомпьютер SuperMUC-NG получит процессоры Intel Xeon Sapphire Rapids и ускорители Intel Xe Ponte Vecchio

Специалисты суперкомпьютерного центра им. Лейбница (LRZ) в Мюнхене (Германия) сообщили, что улучшат свою систему SuperMUC-NG для расширения возможностей искусственного интеллекта суперкомпьютера в рамках партнёрства с Intel и Lenovo. Сейчас данная система имеет производительность 19,5 Пфлопс и занимает 15 место в списке TOP500.

В настоящее время суперкомпьютер SuperMUC-NG включает в себя 6 336 «тонких» узлов на базе серверов Lenovo ThinkSysten SD650 с прямым жидкостным охлаждением, каждый с двумя 24-ядерными процессорами Intel Xeon Platinum 8174 (Skylake-SP) и 96 Гбайт памяти, 144 «толстых» узла c теми же процессорами и 768 Гбайт памяти, а также хранилище суммарной ёмкостью 70 Пбайт. Облачный сегмент SuperMUC-NG включает 82 40-ядерных узла с 192 Гбайт RAM, ещё 32 таких же узла, но с двумя ускорителями NVIDIA Tesla V100 и 768 Гбайт RAM, а также один «суперузел»: 192 ядра и 6 Тбайт RAM.

В рамках второго этапа развития SuperMUC-NG получит новые узлы Lenovo ThinkSystem SD650-I v3 на базе грядущих процессоров Intel Xeon Sapphire Rapids и ускорителей Intel Xe HPC (Ponte Vecchio), тоже с прямым жидкостным охлаждением «горячей» водой. А новое хранилище на базе Intel DAOS будет использовать узлы с Intel Xeon Ice Lake-SP, Intel Optane PMem 200 и Optane SSD. Основой для программной платформы станет oneAPI. Новая система будет использовать как для классических HPC-задач, так и для ИИ.

«Мы очень рады, что LRZ выбрала партнерство с Intel для вывода на рынок их системы SuperMUC на основе продуктового портфеля Intel XPU, передовых технологий упаковки и памяти, а также унифицированного программного стека oneAPI для обеспечения следующего поколения высокопроизводительных вычислений», — заявил Раджа Кодури (Raja Koduri), старший вице-президент, главный архитектор и генеральный менеджер по архитектуре, графике и программному обеспечению Intel.

Отметим, что обновлённый SuperMUC-NG — это вторая после Aurora система, которая будет одновременно использовать ускорители Ponte Vecchio и процессоры Sapphire Rapids. Запус первой, экзафлопсного суперкомпьютера Aurora в Аргоннской национальной лаборатории, ранее пришлось отложить из-за проблем Intel в освоении 7-нм техпроцесса.

Постоянный URL: http://servernews.ru/1039008
16.12.2020 [23:00], Илья Коваль

Из-за ошибки в чипах выход серверных процессоров Intel Xeon Ice Lake-SP будет отложен как минимум до середины II квартала 2021 года

Часть тезисов, изложенных индустриальными аналитиками в ходе доклада для частной трейдинговой фирмы Susquehanna International Group, стала доступна широкой публике. Из них следует, что у Intel есть проблемы с серверным CPU поколения Ice Lake-SP, которые должны составить конкуренцию AMD EPYC Milan.

В частности, релиз Ice Lake-SP снова перенесён на более поздний срок из-за ошибки в чипах, о чём сообщают сразу несколько источников. Сейчас говорится о выпуске новинок в середине-конце второго или начале третьего квартала. Также сообщается, что производительность существенным образом не выросла. Кроме того, в релизных версиях максимальное число ядер в чипе сокращено с 38 до 36. Конкурент в лице EPYC Milan на базе Zen 3, анонс которого теперь уже наверняка состоится до выхода Ice Lake-SP, предложит как минимум те же 64 ядра в максимальной конфигурации, что и в поколении Rome.

Более того, предполагается, что Milan сможет составить конкуренцию и Sapphire Rapids, следующему поколению серверных процессоров Intel, релиз которых был перенесён со второго квартала 2021 года на второй квартал 2022-го. К этому моменту, если всё пойдёт по плану, AMD успеет подготовить следующее поколение CPU, EPYC Genoa. На него Intel сможет ответить в 2023 году процессорами Granite Rapids. В целом, если у обеих компаний не будет каких-то существенных изменений в реализации их планов, Intel сможет догнать AMD только в 2024-2025 годах, утверждают аналитики.

Постоянный URL: http://servernews.ru/1028038
01.10.2020 [14:27], Владимир Мироненко

165-Пфлопс cуперкомпьютер Crossroads будет полагаться только на Intel Xeon Sapphire Rapids

Hewlett Packard Enterprise (HPE) объявила о подписании контракта с правительством США на создание нового суперкомпьютера для Национального управления по ядерной безопасности (NNSA) Министерства энергетики США. Новая компьютерная система будет обеспечивать моделирование и симуляцию ядерного оружия с высоким 3D-разрешением, чтобы гарантировать надёжность и безопасность ядерных запасов. Стоимость контракта составляет $105 млн.

HPE также является предпочтительным поставщиком дополнительных систем для поддержки других задач Министерства энергетики, включая предстоящие эксафлопсные системы: Aurora в Аргоннской национальной лаборатории, Frontier в Национальной лаборатории Ок-Ридж и El Capitan в Ливерморской национальной лаборатории им. Э. Лоуренса.

Новый суперкомпьютерная система NNSA, получившая название Crossroads, превосходит существующую систему Trinity компании Cray по производительности в четыре раза — примерно 165 Пфлос FP64. Новая компьютерная система будет поставлена весной 2022 года и размещена в Национальной лаборатории Лос-Аламоса. Она будет использоваться тремя национальными лабораториями NNSA: Ливерморской национальной лабораторией Лоуренса, Национальной лабораторией Лос-Аламоса и Сандийскими национальными лабораториями в течение 2022–2026 гг.

Суперкомпьютер HPE Cray EX, который станет основой Crossroads, будет оснащен следующими решениями HPC нового поколения:

  • Intel Xeon под кодовым названием Sapphire Rapids с технологией Intel Deep Learning Boost нового поколения (с Advanced Matrix Extensions) и усовершенствованной архитектурой памяти.
  • Усовершенствованное жидкостное охлаждение для повышения общей эффективности использования электроэнергии и воды, применяемых для работы системы.
  • Полностью интегрированный набор программного обеспечения, предназначенный для высокопроизводительных вычислений с использованием среды программирования HPE Cray, для повышения производительности программистов, масштабируемости приложений и производительности.
  • HPE Slingshot — интерконнект для суперкомпьютеров HPE Cray, предназначенный специально для высокопроизводительных вычислений и позволяющий выполнять различные задачи, связанные с симуляцией, моделированием, ИИ и проведением анализа в одной системе.

Любопытно, что машина Crossroads будет использовать только CPU и не будет дополнена какими-либо ускорителями. Aurora будет включать Intel Xeon Sapphire Rapids и ускорители Xe, а El Capitan и Frontier будут базироваться на AMD EPYC и Radeon Instinct следующего поколения. Наконец, ещё одна, пятая по счёту крупная машина HPE Cray Ex Perlmutter будет включать ускорители NVIDIA A100 и процессоры AMD EPYC Milan. Правда, её поставка будет разбита на две части. К концу этого года будут установлены узлы с 6 тыс. ускорителями NVIDIA, а 3 тыс. узлов с новыми CPU будут поставлены уже в середине 2021 года.

Постоянный URL: http://servernews.ru/1021965
Система Orphus