Материалы по тегу: ids

02.12.2021 [21:22], Алексей Степин

Суперкомпьютер NREL Kestrel получит неанонсированные ускорители NVIDIA A100NEXT

Заметная часть недавно анонсированных проектов HPC-систем c заявленной производительностью от десятков петафлопс базируется на использовании процессоров AMD EPYC и ускорителей Instinct, однако NREL остановила свой выбор на Intel Xeon Sapphire Rapids и грядущих ускорителях NVIDIA A100NEXT. Последние ещё не анонсированы, но и 44-Пфлопс машина под названием Kestrel должна вступить в строй лишь в 2023 году.

Вероятнее всего, новые ускорители будут представлены NVIDIA в следующем году, что неплохо согласуется с планами компании по выпуску новых решений каждые два года. К сожалению, точных технических данных, относящихся к NVIDIA A100NEXT пока нет. Можно лишь осторожно предположить, что следующая итерация ускорителей получит более тонкий техпроцесс 5-нм класса, и удвоит число вычислительных блоков благодаря переходу на чиплетную компоновку, например, из четырёх кристаллов по 25 млрд транзисторов.

Cуперкомпьютер Eagle. Фото: NREL

Cуперкомпьютер Eagle. Фото: NREL

Причины, по которым NREL решила использовать процессоры Sapphire Rapids не совсем ясны. И хотя это заведение исторически тяготело к CPU Intel — текущий суперкомпьютер Eagle производительностью 8 Пфлопс построен на базе Intel Xeon Skylake-SP и почти лишён ускорителей, — у NVIDIA будут собственные процессоры Grace, выход которых намечен на 2023 год. Возможно, такое решение принято, чтобы избежать проблем с поставками CPU NVIDIA. К тому же процессоры Intel поддерживают AVX-512, причём в Sapphire Rapids есть поддержка новых форматов (AVX-512 FP16) и расширения для матричных вычислений Intel AMX.

Основой же новой системы Kestrel станет платформа HPE Cray EX с интерконнектом HPE Slingshot и СХД Cray ClusterStor E1000 общей ёмкостью более 75 Пбайт. Что касается охлаждения, то Kestrel, как и его предшественники, будет использовать СЖО с «горячим» теплоносителем. Это позволит достигнуть высокой энергоэффективности — средний коэффициент PUE нового суперкомпьютера составит примерно 1,036. Для организации, занимающейся поиском эффективных и чистых источников энергии такой подход выглядит более чем обоснованно.

Постоянный URL: http://servernews.ru/1055055
10.11.2021 [22:50], Сергей Карасёв

Samsung Poseidon V2 — первая СХД на базе Intel Xeon Sapphire Rapids с DDR5, PCIe 5.0 и CXL

Южнокорейский гигант Samsung представил первый образец системы хранения данных на аппаратной платформе Intel Xeon следующего поколения — Sapphire Rapids. Устройство продемонстрировано в рамках мероприятия OCP Global Summit 2021, которое посвящено открытым проектам в сферах программного и аппаратного обеспечения для центров обработки данных. Новинка разработана совместно с Inspur и Naver Cloud.

Poseidon V2 имеет два процессора Sapphire Rapids, 32 слота для модулей DDR5, а также вмещает до 24 устройств E3.S 1T (в отличие от E1 в Poseidon V1), но корзина совместима и с E3.S 2T. Собственно говоря, хранилищем в традиционно смысле слова эта система не является. Да, она подходит для NVMe SSD с интерфейсом PCIe 5.0 (как PM1743) — обычных NAND и SCM вроде Z-SSD, XL-Flash или Intel Optane — и предлагает быструю реализацию NVMe-oF, в том числе NVMe/TCP.

Poseidon V2 (Здесь и далее изображения Samsung)

Poseidon V2 (Здесь и далее изображения Samsung)

Для 200GbE-подключением к системе Samsung уже удалось достичь скорости последовательных чтения и записи в 24,5 и 18,6 Гбайт/с, а для случайных — 19,4 и 8,7 Гбайт/с соответственно. Однако в форм-факторе E3.S также будут выпускаться и SmartSSD с возможностью самостоятельной обработки данных, и различные ускорители, и DRAM-экспандеры. Последнее возможно благодаря поддержке Сompute Express Link (CXL).

Однако наличие аппаратной поддержки — это полдела. Поэтому Samsung развивает фирменную Poseidon Storage OS. ОС будет отвечать за управлением томами, формирование программных RAID-массивов, мониторинг и профилирование производительности и так далее. Кроме того, она предложит функцию высокой доступности (2 узла), многопутевое (multi-path) подключение и будет принимать во внимание неравномерность доступа к памяти (NUMA). Разработчикам будут доступны открытые API.

Старт массового производства Poseidon V2 намечен на III квартал 2022 года, а в IV квартале Samsung планирует передать OCP все наработки по проекту. Строго говоря, большая часть компонентов новинки уже сделана в соотвествии со стандартами OCP, так что этот процесс вряд ли затянется.

Постоянный URL: http://servernews.ru/1053369
28.09.2021 [00:41], Андрей Галадей

Кремний по запросу: Intel предложит активировать функции в чипах Xeon за дополнительную плату

Долгое время ходили слухи о том, что Intel добавит возможность лицензирования расширенных функций своих процессоров. Проще говоря, за отдельную плату можно будет получить больше возможностей конкретного «камня». И, похоже, процесс в этом направлении идёт.

Сообщается, что в Linux готовится поддержка драйвера Intel Software Defined Silicon (SDSi). На соответствующие патчи обратил внимание ресурс Phoronix. На текущем этапе трудно сказать, какие именно возможности будут лицензированы и потребуют отдельной оплаты. Но надо полагать, что данная функция пока предназначена только для серверных процессоров Xeon, а не для Core, поскольку она относится к подсистеме, связанной с Sapphire Rapids.

SDSi используется по отдельности для каждого процессорного сокета, работая с ключами и токенами, проверяющими и активирующими конкретные функции. Ключ записывается во внутреннюю память NVRAM, после чего считывается оттуда по мере необходимости. SDSi предоставляет общий интерфейс, так что определить конкретные активируемые функции не представляется возможным. На GitHub уже появился соответствующий репозиторий, но на текущий момент он пуст.

Для текущего поколения Intel Xeon доступна функция Silicon-on-Demand, реализованная в HPE GreenLake и Lenovo TruScale. Она работает на уровне ПО и BIOS/UEFI и позволяет при необходимости активировать процессорные ядра и PMem-модули Optane. Аналогичную функциональность довольно давно предлагает и IBM, в серверах которой можно временно задействовать «лишние» ядра и память с поминутной оплатой.

Напомним, что ровно десять лет назад корпорация уже пыталась внедрить функции «программного апгрейда» некоторых младших CPU в рамках программы Intel Upgrade Service. Приобретя карточку с PIN-кодом, можно было разблокировать Hyper-Threading, а также повысить частоты и увеличить объём кеша. Правда, успехом эта затея не увенчалась.

Постоянный URL: http://servernews.ru/1050019
22.09.2021 [13:26], Сергей Карасёв

В основу новых суперкомпьютеров NNSA лягут процессоры Intel Xeon Scalable Sapphire Rapids

Национальное управление по ядерной безопасности (NNSA) Министерства энергетики США выбрало процессоры Intel Xeon Scalable следующего поколения с кодовым именем Sapphire Rapids для высокопроизводительных вычислительных комплексов, создаваемых по проекту Life Extension.

Речь идёт о поддержании критических задач в рамках программы управления ядерным арсеналом (Stockpile Stewardship). Она, в частности, предусматривает проверку тактико-технических характеристик и надёжности ядерных боевых частей ракет. Оцениваются химическая стабильность материалов, состояние электронных компонентов и пр.

Intel

Intel

Сообщается, что Ливерморская национальная лаборатория им. Э. Лоуренса, входящая в состав NNSA, заключила контракт с Dell Technologies на поставку новых серверов Dell EMC PowerEdge для будущих суперкомпьютеров. В основу этих систем лягут чипы Sapphire Rapids.

Отгрузки первого оборудования в рамках договора запланировано на середину следующего года. В целом, контракт охватывает период до 2025-го. Новые комплексы высокопроизводительных вычислений будут развёрнуты в Ливерморской национальной лаборатории им. Э. Лоуренса, а также в Лос-Аламосской национальной лаборатории и в Национальных лабораториях Сандия.

Постоянный URL: http://servernews.ru/1049608
24.08.2021 [01:45], Игорь Осколков

Intel Xeon Sapphire Rapids получат UMA-режим, динамический балансировщик нагрузки DLB и поддержку CXL на всех линиях PCIe

На мероприятии Architecture Day Intel, наконец, поделилась некоторыми подробностями о будущих серверных процессорах Xeon Sapphire Rapids, которые станут доступны в первой половине 2022 года. Правда, презентация оставила больше вопросов, чем ответов. Но на HotChips 33 представители компании дали некоторые пояснения и чуть более подробно рассказали о части нововведений.

Например, компания назвала типичный уровень задержек между отдельными тайлами, соединёнными между собой десятью EMIB-мостиками — в среднем от 4 до 8 нс (но не более 10 нс) за один переход по мостику. Причём этот показатель может чуть плавать в зависимости от обращения к соседу слева/справа или снизу/сверху (подключений по диагонали нет). Поскольку все ресурсы для всех тайлов и ядер/потоков общие, наихудшая ситуация наступает тогда, когда запрос и ответ к памяти соседнего тайла пойдут в обход по всем тайлам. То есть на пути туда-обратно запрос совершит четыре перехода по мостикам.

Избавиться от такой ситуации можно как формированием NUMA-кластеров, так и новым UMA-режимом (квадрант в терминологии Intel), в котором  системный агент каждого тайла «привязывается» к контроллеру памяти на том же самом тайле. Это требует симметричного размещения памяти на всех контроллерах, зато снижает задержки (как при использовании NUMA), сохраняя при этом «цельность» процессора при взгляде со стороны, то есть не требует модификации ПО. Вероятно, именно этот режим работы будет рекомендовано использовать по умолчанию.

Число линий PCIe так и не было названо, однако было сказано, что все они будут поддерживать CXL (блоками по x16) — у AMD EPYC Genoa, если верить утечкам, это не так. Режим работы будет автоматически выбираться в зависимости от типа устройства при загрузке. Интересно, что ускорители Ponte Vecchio, вероятно, будут поддерживать только PCIe-режим. Это, правда, не помешает реализовать обещанную когда-то поддержку общей когерентной памяти в связке CPU-GPU.

Кроме того, текущая реализация CXL не поддерживает режим Type 3, который, в частности, позволяет наращивать объём доступной CPU памяти путём подключения внешних блоков DRAM/SCM. Дополнительно отмечено, что HBM-память, тоже подключаемая посредством EMIB, будет иметь собственные контроллеры, так что все 8 каналов DRAM никуда не денутся. Любопытно, что SKU с малым числом ядер будут иметь то же число каналов памяти, линий PCIe/UPI и т.д., но при этом могут оказаться вовсе не состоящими из тайлов.

Помимо прочего, докладчик поделился некоторыми сведениями о новых или расширенных возможностях Sapphire Rapids. В частности, они получат поддержку Virtual Shared Memory, позволяющую ПО, использующему CPU и ускорители (интегрированные или дискретные), иметь для удобства работы единое адресное пространство с поддержкой целостности и когерентности памяти. В том числе для виртуальных машин. Для них же (и для контейнеров) пригодится технология Intel Scalable IO Virtualization (S-IOV), расширяющая возможности SR-IOV.

Про акселераторы DSA и QAT уже говорилось в прошлый раз. Сейчас же было немного рассказано про DLB (Dynamic Load Balancer), динамический балансировщик нагрузки, который распределяет её между ядрами, принимая решения 400 млн раз в секунду, и ускоряет операции, связанные с этим процессом. Он отслеживает потребление ресурсов и позволяет задать приоритеты для различных нагрузок. Для работы со всеми этими ускорителями и нужен новый набор инструкций AiA (Accelerator Interfacing Architecture), который позволяет управлять ими из режима пользователя.

Постоянный URL: http://servernews.ru/1047385
19.08.2021 [16:00], Игорь Осколков

Intel представила Xeon Sapphire Rapids: четырёхкристалльная SoC, HBM-память, новые инструкции и ускорители

В рамках Architecture Day компания Intel рассказала о грядущих серверных процессорах Sapphire Rapids, подтвердив большую часть опубликованной ранее информации и дополнив её некоторыми деталями. Intel позиционирует новинки как решение для более широкого круга задач и рабочих нагрузок, чем прежде, включая и популярные ныне микросервисы, контейнеризацию и виртуализацию. Компания обещает, что CPU будут сбалансированы с точки зрения вычислений, работой с памятью и I/O.

Новые процессоры, наконец, получили чиплетную, или тайловую в терминологии Intel, компоновку — в состав SoC входят четыре «ядерных» тайла на техпроцессе Intel 7 (10 нм Enhanced SuperFIN). Каждый тайл объединён с соседом посредством EMIB. Их системные агенты, включающие общий на всех L3-кеш объём до 100+ Мбайт, образуют быструю mesh-сеть с задержкой порядка 4-8 нс в одну сторону. Со стороны процессор будет «казаться» монолитным.

Каждые ядро или поток будут иметь свободный доступ ко всем ресурсам соседних тайлов, включая кеш, память, ускорители и IO-блоки. Потенциально такой подход более выгоден с точки зрения внутреннего обмена данными, чем в случае AMD с общим IO-блоком для всех чиплетов, которых в будущих EPYC будет уже 12. Но как оно будет на самом деле, мы узнаем только в следующем году — выход Sapphire Rapids запланирован на первый квартал 2022-го, а массовое производство будет уже во втором квартале.

Ядра Sapphire Rapids базируются на микроархитектуре Golden Cove, которая стала шире, глубже и «умнее». Она же будет использована в высокопроизводительных ядрах Alder Lake, но в случае серверных процессоров есть некоторые отличия. Например, увеличенный до 2 Мбайт на ядро объём L2-кеша или новый набор инструкций AMX (Advanced Matrix Extension). Последний расширяет ИИ-функциональность CPU и позволяет проводить MAC-операции над матрицами, что характерно для такого рода нагрузок.

Для AMX заведено восемь выделенных 2D-регистров объёмом по 1 Кбайт каждый (шестнадцать 64-байт строк). Отдельный аппаратный блок выполняет MAC-операции над тремя регистрами, причём делаться это может параллельно с исполнением других инструкций в остальной части ядра. Настройкой параметров и содержимого регистров, а также перемещением данных занимается ОС. Пока что в процессорах представлен только MAC-блок, но в будущем могут появиться блоки и для других, более сложных операций.

В пике производительность AMX на INT8 составляет 2048 операций на цикл на ядро, что в восемь раз больше, чем при использовании традиционных инструкций AVX-512 (на двух FMA-портах). На BF16 производительность AMX вдвое ниже, но это всё равно существенный прирост по сравнению с прошлым поколением Xeon — Intel всё так же пытается создать универсальные ядра, которые справлялись бы не только с инференсом, но и с обучением ИИ-моделей. Тем не менее, компания говорит, что возможности AMX в CPU будут дополнять GPU, а не напрямую конкурировать с ними.

К слову, именно Sapphire Rapids должен, наконец, сделать BF16 более массовым, поскольку Cooper Lake, где поддержка этого формата данных впервые появилась в CPU Intel, имеет довольно узкую нишу применения. Из прочих архитектурных обновлений можно отметить поддержку FP16 для AVX-512, инструкции для быстрого сложения (FADD) и более эффективного управления данными в иерархии кешей (CLDEMOTE), целый ряд новых инструкций и прерываний для работы с памятью и TLB для виртуальных машин (ВМ), расширенную телеметрию с микросекундными отсчётами и так далее.

Последние пункты, в целом, нужны для более эффективного и интеллектуального управления ресурсами и QoS для процессов, контейнеров и ВМ — все они так или иначе снижают накладные расходы. Ещё больше ускоряют работу выделенные акселераторы. Пока упомянуты только два. Первый, DSA (Data Streaming Accelerator), ускоряет перемещение и передачу данных как в рамках одного хоста, так и между несколькими хостами. Это полезно при работе с памятью, хранилищем, сетевым трафиком и виртуализацией.

Второй упомянутый ускоритель — это движок QAT (Quick Assist Engine), на который можно возложить операции или сразу цепочки операций (де-)компрессии (до 160 Гбит/с в обе стороны одновременно), хеширования и шифрования (до 400 Гбитс/с) в популярных алгоритмах: AES GCM/XTS, ChaChaPoly, DH, ECC и т.д. Теперь блок QAT стал частью самого процессора, тогда как прежде он был доступен в составе некоторых чипсетов или в виде отдельной карты расширения. Это позволило снизить задержки и увеличить производительность блока.

Кроме того, QAT можно будет задействовать, например, для виртуализации или Intel Accelerator Interfacing Architecture (AiA). AiA — это ещё один новый набор инструкций, предназначенный для более эффективной работы с интегрированными и дискретными ускорителями. AiA помогает с управлением, синхронизацией и сигнализацией, что опять таки позволит снизить часть накладных расходов при взаимодействии с ускорителями из пространства пользователя.

Подсистема памяти включает четыре двухканальных контроллера DDR5, по одному на каждый тайл. Надо полагать, что будут доступные четыре же NUMA-домена. Больше деталей, если не считать упомянутой поддержки следующего поколения Intel Optane PMem 300 (Crow Pass), предоставлено не было. Зато было официально подтверждено наличие моделей с набортной HBM, тоже по одному модулю на тайл. HBM может использоваться как в качестве кеша для DRAM, так и независимо. В некоторых случаях можно будет обойтись вообще без DRAM.

Про PCIe 5.0 и CXL 1.1 (CXL.io, CXL.cache, CXL.memory) добавить нечего, хотя в рамках другого доклада Intel ясно дала понять, что делает ставку на CXL в качестве интерконнекта не только внутри одного узла, но и в перспективе на уровне стойки. Для объединения CPU (бесшовно вплоть до 8S) всё так же будет использоваться шина UPI, но уже второго поколения (16 ГТ/с на линию) — по 24 линии на каждый тайл.

Конкретно для Sapphire Rapids Intel пока не приводит точные данные о росте IPC в сравнении с Ice Lake-SP, ограничиваясь лишь отдельными цифрами в некоторых задачах и областях. Также не был указан и ряд других важных параметров. Однако AMD EPYC Genoa, если верить последним утечкам, даже по чисто количественным характеристикам заметно опережает Sapphire Rapids.

Постоянный URL: http://servernews.ru/1047107
05.07.2021 [15:37], Андрей Галадей

Intel Xeon Sapphire Rapids получат инструкции AVX-512 FP16

Разработчики из компании Intel готовят патчи для ПО с поддержкой будущих процессоров Xeon семейства Sapphire Rapids, которые, как теперь выяснилось, будут включать инструкции AVX-512 FP16. Соответствующая документация была выложена в публичный доступ в самом конце июня. А вслед за этим появились патчи для GCC и LLVM, на которые обратил внимание ресурс Phoronix.

Поддержка FP16-вычислений с помощью AVX-512 будет актуальна, в первую очередь, для приложений машинного обучения. При этом не следует путать их с BF16 (Bfloat16), которая появилась ещё в семействе Cooper Lake в прошлом году. Для GCC Intel подготовила набор из 62 патчей для поддержки всех новых функций AVX512 FP16, а также автоматической векторизации _Float16 и связаных задач. Для LLVM добавлены патчи, «знакомящие» Clang с новым форматом и инструкциями.

Судя по всему, полноценная поддержка появится только в GCC 12, то есть, как теперь понятно, ближе к релизу самих процессоров в первой половине 2022 года. И очередные релизы крупных дистрибутивов её не получат. Что касается Clang, то есть все шансы, что поддержка будет добавлена уже в LLVM 13 — релиз намечен на осень.

Постоянный URL: http://servernews.ru/1043516
29.06.2021 [20:30], Игорь Осколков

Intel снова подтвердила перенос выхода серверных процессоров Xeon Sapphire Rapids на первое полугодие 2022-го

В небольшой заметке вице-президент Intel Лиза Спелман (Lisa Spelman), отвечающая за разработку Xeon и памяти, в очередной раз упомянула, что производство следующего поколения серверных процессоров под кодовым именем Sapphire Rapids начнётся в первом квартале 2022 года, а массовый выпуск будет налажен уже во втором.

Утверждается, что это необходимо в связи с выделением дополнительного времени на валидацию новых систем, что впоследствии упростит для партнёров и заказчиков использование и интеграцию продуктов с новыми Xeon. Связано ли это с каким-либо техническими сложностями, не сообщается, но компания говорит о повышении спроса на эти решения.

Таким образом, срок выхода новых CPU, включая уже выпущенные Ice Lake-SP, фактически сдвинулся на год, несмотря на более ранние заявления компании. Наиболее близкие партнёры Intel из числа гиперскейлеров и поставщиков HPC-решений уже имеют доступ к инженерным образцам и первыми получат новинки. Подготовка программной экосистемы тоже уже давно ведётся. Среди заметных HPC-проектов, которые должны вовремя получить Sapphire Rapids, есть неоднократно перенесённая Aurora, Crossroads, а также SuperMUC-NG.

Sapphire Rapids будут заметно отличаться от всех Xeon предыдущих поколений. CPU вслед за решениями AMD получат чиплетную компоновку, обзаведутся поддержкой PCIe 5.0 (с CXL 1.1.) и DDR5. AMD EPYC Genoa на базе Zen4, релиз которых тоже ожидается в следующем году, также получат эти интерфейсы. Пока что Intel говорит о нескольких преимуществах грядущих Xeon (во всяком случае для HPC-сегмента и в какой-то мере СХД). Они получат набортную HBM-память, технологию DSA (Data Streaming Accelerator) для ускорения операций ввода-вывода и новый набор инструкций для работы с матрицами AMX (Advanced Matrix Extension), которые дополнят ИИ-расширения DL Boost.

Постоянный URL: http://servernews.ru/1043145
28.06.2021 [19:00], Алексей Степин

Intel на ISC 2021: от Xeon Ice Lake-SP и Sapphire Rapids до Ponte Vecchio и DAOS

Партнёрский материал

В рамках суперкомпьютерной выставки-конференции компания ISC 2021 Intel рассказала о своих последних решениях в области высокопроизводительных вычислений (HPC), а также коротко упомянула о будущих продуктах. Сочетание новых процессорных платформ Xeon Scalable, ускорителей Ponte Vecchio на базе Intel Xe и сетевых адаптеров Ethernet 800/810 Series должно обеспечить компании уверенную позицию в мире HPC.

В последние пару лет в секторе HPC появились решения на базе 64-ядерных EPYC, а затем и разработки на базе архитектуры ARM, показавшие высокие удельную производительность и энергоэффективность. В то же время платформа Intel® Xeon® хоть и была в ряде отношений прогрессивной — достаточно вспомнить уникальную поддержку памяти Optane™ и инструкций AVX-512, — однако количество ядер на процессор до уровня конкурентов нарастить не удавалось, а гибридная платформа Xeon 9200 популярности не снискала по ряду причин.

Но сейчас ситуация начинает меняться в пользу Intel. Хотя третье поколение Xeon Scalable (Ice Lake-SP) и задержалось, но получилось достаточно интересным: у новых процессоров появилась поддержка действительно серьёзных по объёму защищённых вычислительных анклавов, шины PCIe 4.0, дальнейшее развитие AVX-512 и VNNI, восьмиканальный контроллер памяти DDR4-3200, а максимальное количество ядер при этом выросло с 28 до 40, что уже хоть как-то сопоставимо с EPYС второго и третьего поколений.

Несмотря на некоторое отставание по «сырому» количеству ядер, процессоры Xeon Scalable третьего поколения, согласно данным Intel, хорошо показывают себя в ряде HPC-приложений благодаря усовершенствованной микроархитектуре и поддержке расширений и VNNI. Как сообщила Intel, процессор Xeon Platinum 8358 (10 нм, 32C/64T, 2,6 ‒ 3,4 ГГц, 48 Мбайт кеша, 250 Ватт TDP) серьёзно опережает AMD EPYC 7543 (7 нм, 32С/64T, 2,8 ‒ 3,7 ГГц, 256 Мбайт кеша, 225 Ватт TDP) именно в сфере HPC: в тестах NAMD преимущество составило 62%, пакеты LAMMPS и RELION показали превосходство на 57% и 68%, соответственно, а в тесте Binominal Options выигрыш составил 37%.

Кроме того, симуляции с использованием метода Монте-Карло, часто использующегося в финансовых приложениях, работают на Xeon Scalable третьего поколения более чем вдвое быстрее. Отлично выступил и Xeon Platinum 8380 (10 нм, 40C/80T, 2,3 ‒ 3,4 ГГц, 60 Мбайт кеша, 270 Ватт TDP): в 20 наиболее популярных ИИ-тестах он опередил EPYC 7763 (7 нм, 64С/128T, 2,45 ‒ 3,5 ГГц, 256 Мбайт кеша, 280 Ватт TDP) на 50%. Этот пример хорошо доказывает тот факт, что количество ядер и «сырая» вычислительная мощность не гарантируют победы, а наличие аппаратных и программных оптимизаций может быть решающим в ряде задач.

Вычислительные нагрузки в области моделирования и симуляции, такие, как моделирование поведения жидкостей или квантовая хромодинамика, задачи машинного обучения, базы данных класса in-memory весьма зависят от производительности подсистем памяти. И здесь Intel тоже есть, что сказать. Ранее опробовав технологию встроенной высокоскоростной памяти на платформе Xeon Phi™ 7200 (до 16 Гбайт 3D MCDRAM), компания собирается вернуться к этой идее на новом уровне: процессоры под кодовым названием Sapphire Rapids получат не только поддержку DDR5, но и набортную HBM2 (до 64 Гбайт).

В сочетании с поддержкой PCI Express 5.0 и новых инструкций ускорения матричных вычислений (Advanced Matrix Extensions) это делает Xeon (Sapphire Rapids) весьма привлекательной платформой именно для сегмента HPC. И будущей новинкой уже заинтересовались крупные заказчики: эти процессоры планируется использовать в суперкомпьютерах Aurora, Crossroads и SuperMUC-NG. Представители этих и ряда других научно-исследовательских организаций настроены весьма оптимистично в отношении платформы Sapphire Rapids.

В ряде машин компанию им составит ускорители Intel Xe Ponte Vecchio, который уже проходит процесс валидации в составе новых систем. Напомним, каждый узел вышеупомянутого суперкомпьютера Aurora должен получить по два процессора Sapphire Rapids и по шесть ускорителей Ponte Vecchio. Появление нового игрока на рынке откроет дополнительные возможности для производителей систем в HPC-сегменте.

Сами ускорители Ponte Vecchio уникальны: чиплет являет собой довольно замысловатую многокомпонентную структуру, состоящую из 47 элементов и соединённую воедино с помощью технологий Foveros 3D и EMIB. Неудивительно, ведь общее число транзисторов у этого монстра превышает 100 млрд, что позволяет Intel рассчитывать на уровень производительности более 1 Пфлопс. Доступен этот ускоритель будет в формате OCP Accelerator Module (OAM). Известно также, что он получит жидкостное охлаждение.

Наконец, третий важный компонент любой HPC-платформы: хранилище данных. В этой области Intel делает ставку на открытые решения, и на ISC 2021 компания представила коммерческий вариант объектного распределённого хранилища DAOS (Distributed Application Object Storage). Платформа DAOS является программно-определяемой, но это не указание на её невысокую производительность. Напротив, она изначально создавалась с прицелом на масштабируемость и высочайший уровень производительности именно с крупными объёмами данных.

В системах DAOS Intel использует только твердотельную память, отказавшись от гибридных схем с использованием традиционных механических накопителей и SSD, причём, поддерживается и Optane в обеих инкарнациях: как накопители, так и PMem-модули. Intel сделала DAOS доступной в качестве решения уровня L3 для своих партнёров. В их число входят такие гиганты, как HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta, а также российская РСК, которая поддержала инициативу DAOS ещё в конце прошлого года.

Наконец, ещё один важный компонент HPC-систем — интерконнект. Intel, напомним, отказалась от Omni-Path, сосредоточившись на Ethernet. А на ISC 2021 компания объявила о платформе High Performance Networking (HPN), которая включает 100/200GbE-адаптеры серии E800/E810, коммутаторы c контроллерами Tofino™ и ПО Intel Ethernet Fabric. Этого достаточно для построения малых кластеров, причём, как обещает компания, производительность будет на уровне InfiniBand-решений, а стоимость будет ниже, чем у них.

В целом Intel придерживается целостного подхода. Если при построении HPC-системы на базе решений других производителей всё равно придётся воспользоваться аппаратными или программными составляющими «со стороны», то Intel готова предложить всё в комплексе, от процессоров и вычислительных ускорителей до сетевых адаптеров, коммутаторов и программного обеспечения. В рамках развития Intel модели oneAPI особенный интерес представляет последний пункт.

Постоянный URL: http://servernews.ru/1042961
12.06.2021 [00:03], Игорь Осколков

Серверные процессоры Intel Xeon Sapphire Rapids будут оснащены HBM-памятью

То, что грядущие серверные процессоры Intel Xeon Sapphire Rapids помимо контроллера DDR5 получат ещё и поддержку памяти HBM, уже давно не секрет. Соответствующие изменения в документации для разработчиков были опубликованы ещё в конце прошлого года.

Эти процессоры будут трудиться вместе с укорителями Intel Xe HPC (Ponte Vecchio), причём объединять блоки ускорителей, HBM-память и CPU будет отдельная шина XEMF (XE Memory Fabric) с поддержкой когерентности. AMD тоже воспользуется когерентностью шины Infinity Fabric для связи EPYC и Radeon Instinct. В обоих случаях речь идёт о суперкомпьютерных системах.

И, надо полагать, именно для таких систем будут подготовлены процессоры Xeon Sapphire Rapids с набортной HBM-памятью. На это прямо указывают свежие патчи Intel для ядра Linux, на которые обратил внимание ресурс Phoronix. Патчи относятся к драйверу EDAC (Error Detection And Correction, выявление и коррекция ошибок). В них же содержится упоминание SoC Ice Lake Neural Network Processor for Deep Learning Inference (ICL-NNPI) — Intel Nervana NNP-I (Spring Hill).

Постоянный URL: http://servernews.ru/1041828
Система Orphus