Материалы по тегу: xeon

22.09.2021 [13:26], Сергей Карасёв

В основу новых суперкомпьютеров NNSA лягут процессоры Intel Xeon Scalable Sapphire Rapids

Национальное управление по ядерной безопасности (NNSA) Министерства энергетики США выбрало процессоры Intel Xeon Scalable следующего поколения с кодовым именем Sapphire Rapids для высокопроизводительных вычислительных комплексов, создаваемых по проекту Life Extension.

Речь идёт о поддержании критических задач в рамках программы управления ядерным арсеналом (Stockpile Stewardship). Она, в частности, предусматривает проверку тактико-технических характеристик и надёжности ядерных боевых частей ракет. Оцениваются химическая стабильность материалов, состояние электронных компонентов и пр.

Intel

Intel

Сообщается, что Ливерморская национальная лаборатория им. Э. Лоуренса, входящая в состав NNSA, заключила контракт с Dell Technologies на поставку новых серверов Dell EMC PowerEdge для будущих суперкомпьютеров. В основу этих систем лягут чипы Sapphire Rapids.

Отгрузки первого оборудования в рамках договора запланировано на середину следующего года. В целом, контракт охватывает период до 2025-го. Новые комплексы высокопроизводительных вычислений будут развёрнуты в Ливерморской национальной лаборатории им. Э. Лоуренса, а также в Лос-Аламосской национальной лаборатории и в Национальных лабораториях Сандия.

Постоянный URL: http://servernews.ru/1049608
10.09.2021 [23:15], Алексей Степин

Ведущие производители материнских плат представили решения для Intel Xeon E-2300

Несколько дней назад корпорация Intel анонсировала обновление процессоров серии Xeon-E, предназначенной для недорогих серверов начального уровня. В новом поколении Xeon E-2300 применяется более совершенная архитектура и графическое ядро, а также есть поддержка PCIe 4.0.

Но процессоры не имеют смысла без сопутствующей инфраструктуры, и все ведущие производители аппаратного обеспечения поддержали новинки Intel выпуском соответствующих материнских плат.

ASUS P12R-E/10G-2T

ASUS P12R-E/10G-2T

Процессоры Intel Xeon E-2300 используют ядра Rocket Lake-E и выполнены под процессорный разъём LGA1200, который, в числе прочего, изначально создавался с прицелом на поддержку PCI Express 4.0. Новые процессоры Xeon, по традиции, не совместимы с потребительскими платами на чипсетах Intel 500-й серии, для них предназначена системная логика серии C250, в которую на данный момент входят две модели, C252 и C256.

Между собой новые чипсеты Intel отличаются количеством поддерживаемых вторичных линий PCIe 3.0 (10 против 24), количеством доступных портов USB (12 против 14), а также поддержкой SATA — у более дорогой версии C256 возможно подключение 8 дисков, в то время, как у бюджетной C252 только 6.

ASUS P12R-M/10G-2T

ASUS P12R-M/10G-2T

ASUS реализовала поддержку новой платформы сразу в четырёх моделях, по две в форм-факторах ATX и micro-ATX, причём, в зависимости от модели, использовала оба варианта C250. Открывает серию плата ASUS P12R-E/10G-2T, интересная не только использованием C256, но и наличием двухпортового 10-гигабитного сетевого контроллера Intel X710 вместо предлагаемого остальными Intel X550. Любопытно, что разъём VGA на этой плате работает от чипа BMC, но также имеется порт HDMI 1.4, подключенный к процессорному разъёму и активный только при установке Xeon E-2300 с суффиксом G.

Для начального уровня плата имеет очень развитую подсистему PCIe — помимо основного слота х16 и классического х8, есть также пара слотов х4, правда последние поддерживают только версию PCIe 3.0. Имеется также пара разъёмов M.2. Версия ASUS P12R-E отличается от вышеописанной модели только отсутствием 10-гигабитного сетевого контроллера, вместо этого, на ней установлена пара классических гигабитных Intel i210.

Плата ASUS P12R-M/10G-2T практически аналогична P12R-E/10G-2T, но имеет форм-фактор micro-ATX и, соответственно, на ней помимо слота PCIe x16 есть только слот х8. Здесь использован чипсет C252, поэтому дисков SATA можно подключить только 6, а слот M.2 единственный. Однако сетевой контроллер установлен столь же высокого класса, и эта плата отлично подойдёт для компактного сервера на базе Xeon E-2300, готового для интеграции в среду 10GbE.

Как и варианты для ATX, плата имеет младшую сестру — ASUS P12R-M, на которой просто не распаян сетевой чип X710, и это единственное ограничение. Все четыре платы имеют по четыре слота DIMM с поддержкой DDR4-3200 с коррекцией ошибок. Существует пятая плата, ASUS P12R-I, она должна иметь форм-фактор mini-ITX, но о ней пока ничего неизвестно. Новые платы P12R-M используются в серверах ASUS RS300-E11-RS4 и RS300-E11-PS4.

ASRock Rack E3C256D4I-2T

ASRock Rack E3C256D4I-2T

ASRock Rack представила ещё более богатый ассортимент плат для новой платформы. В нём представлены модели формата micro-ATX и mini-ITX. Список открывает флагманская E3C256D4U-2L2T, как и старшие модели ASUS, оснащённая сетевым контроллером X710-AT2, но несущая также и пару i210. Следующая модель, E3C252D4U-2T, лишена гигабитных портов Ethernet и имеет только один разъём M.2, а ещё более дешёвая E3C252D4U не имеет чипа X710.

Но наибольший интерес, как это часто бывает у продуктов ASRock Rack, вызывают именно наиболее компактные модели. Конечно, уместить плату для Xeon E-2300 в формат mini-ITX, куда проще, чем для Xeon Scalable, но всё равно функциональность модели E3C256D4I-2T представляет интерес. Здесь имеется полноценный 10GbE контроллер X550, порты SATA заменены на более компактные OCuLInk, поддерживающие также PCIe 3.0 х4. Вместо полноразмерных DIMM использованы слоты SO-DIMM, но их количество не уменьшилось и плата поддерживает 4 модуля памяти. Другая модель, E3C256D2I, рассчитана на классические DDR4 DIMM, но разъёмов имеет только два.

ASRock Rack E3C256D4U-2L2T

ASRock Rack E3C256D4U-2L2T

Интересно, что подсистема питания у новых плат mini-ITX изначально рассчитана на подключение 12-вольтовых блоков питания и полноразмерной колодки ATX не предусмотрено. По-своему уникальна модель ASRock Rack E3C256D4ID-2T. Она выполнена в так называемом «глубоком» варианте mini-ITX. Это позволило разработчикам разместить на ней четыре полноразмерных разъёма DIMM, три порта OCuLInk и найти место для пары слотов M.2 и контроллера X710.

GIGABYTE MX33-BS0

GIGABYTE MX33-BS0

GIGABYTE пока отметилась одной моделью, платой MX33-BS0 формата micro-ATX, довольно обычной и во многом напоминающей аналогичные по формату решения ASUS. Отметим использование слота PCIe x16 4.0 с металлической «рубашкой». Такой разъём отличается повышенной надёжностью, также он может оказаться более помехозащищённым, что в некоторых случаях критично для работы PCIe в самых скоростных режимах.

Tyan S5560GM2NRE-2T-HE

Tyan S5560GM2NRE-2T-HE

Компания Tyan анонсировала новую платформу Tempest CX S5560 формата micro-ATX в двух вариациях. Старшая модель, S5560GM2NRE-2T-HE базируется на чипе C256, имеет три слота PCIe, но самый нижний слот не только работает от PCH, но и имеет лишь конфигурацию x2, так что подходит он только для самых нетребовательных плат расширения. Вариант S5560GM2NRE-2T использует C252, имеет на один слот M.2 и пару SATA-портов меньше. Но обе платы поддерживают 10-гигабитную сеть за счёт наличия контроллера Intel X550.

В целом, новая платформа Intel Xeon E-2300 стартовала уверенно, все крупные игроки представили свои платы для новых процессоров, однако отметим, что ни одна из новинок не имеет интегрированного звука, а значит, и не позиционируется в качестве основы для недорогой рабочей станции на базе E-2300.

Постоянный URL: http://servernews.ru/1048789
08.09.2021 [19:00], Алексей Степин

Intel представила процессоры Xeon E-2300: Rocket Lake-E для серверов и рабочих станций начального уровня

В современном мире нагрузки на процессор год от года становятся всё сложнее и объёмнее, и не только крупные ЦОД нуждаются в архитектурных новшествах и новых наборах инструкций — малому бизнесу также требуются чипы нового поколения. Корпорация Intel ответила на это выпуском новых процессоров Xeon серии E-2300 и соответствующей платформы для них. Новинки стали быстрее и получили долгожданную поддержку PCI Express 4.0.

Платформа Xeon E-2x00 не обновлялась достаточно давно: процессоры серии E-2200 были представлены ещё в 2019 году. На тот момент это был действительно прорыв в сегменте чипов Intel начального уровня — они впервые получили до 8 ядер Coffee Lake-S, а поддерживаемый объём памяти вырос с 64 до 128 Гбайт. Однако на сегодня таких возможностей уже может оказаться недостаточно: у E-2200 нет AVX-512 с VNNI, шина PCIe ограничена версией 3.0, а графическое ядро HD Graphics P630 и по меркам 2019 года быстрым назвать было нельзя.

10 новых процессоров Xeon E-2300, анонсированных Intel сегодня, должны заполнить пустующую нишу младших бизнес-решений. Нововведений в новой платформе не так уж мало, как может показаться на первый взгляд, ведь максимальное количество процессорных ядер у Xeon E-2300 по-прежнему восемь. Однако их максимальная частота выросла до 5,1 ГГц. Изменился процессорный разъём, теперь это LGA1200.

Ядра 11-го поколения Rocket Lake-E (Cypress Cove) по-прежнему используют 14-нм техпроцесс, но оптимизированная микроархитектура позволила Xeon E-2300 быть быстрее соответствующих моделей предыдущего поколения на 17%, и это без учёта качественных нововведений — теперь у них есть AVX-512 с поддержкой инструкций VNNI, ускоряющих работу нейросетей.

Нововведения касаются и вопросов информационной безопасности, в которой малый бизнес нуждается не меньше крупного. Как и «большие» Xeon на базе Ice Lake-SP, процессоры Xeon E-2300 получили «взрослую» поддержку защищённых анклавов SGX объёмом до 512 Мбайт, что существенно выше максимально доступных для прошлого поколения Xeon E 64 Мбайт. Максимальный объём памяти остался прежним, но скорость подросла — до 128 Гбайт DDR4-3200 ECC UDIMM в двух каналах (2DPC).

Весьма важно также появление нового графического ядра с архитектурой Xe-LP. Конечно, высокой 3D-производительности от него ждать не стоит, но даже в этом оно на шаг впереди устаревшей архитектуры. К этому стоит добавить поддержку HDMI 2.0b и DP 1.4a, аппаратное декодирование 12-бит HEVC и VP9 и 10-бит AV1, а также кодирование в 8-бит AVC и 10-бит HEVC и VP9.

Поддержка PCIe 4.0 пришла и на платформу Xeon E — новые процессоры могут предложить 20 линий PCIe 4.0, причём с поддержкой бифуркации. Ещё 24 линии PCIe 3.0 включает чипсет серии C250. В нём же имеется поддержка 8 портов SATA-3 и USB 3.2 Gen 2x2 — до трёх портов со скоростью 20 Гбит/с. Сетевая часть может быть реализована как на базе недорогих чипов i210, так и более производительных i225 (2,5 Гбит/с) или x550 (10 Гбит/с).

В новой серии, как уже было сказано, представлено 10 процессоров, стоимостью от $182 до $539 и теплопакетами от 65 до 95 Вт. Лишь две младшие модели в списке не имеют поддержки Hyper-Threading. Все Xeon E-2300 располагают встроенным движком Manageability Engine 15 и поддержкой Intel Server Platform Services 6, облегчающей развёртывание и удалённое управление. Свои решения на базе новой платформы представят все ведущие производители серверного оборудования.

Постоянный URL: http://servernews.ru/1048355
01.09.2021 [15:42], Сергей Карасёв

Chenbro выпустила серверы RB151 и RB251 на базе Intel Xeon Scalable Ice Lake-SP

Компания Chenbro представила стоечные barebone-серверы серий RB151 и RB251. Новинки будут доступны в вариантах с различной конфигурацией подсистемы хранения данных. При этом все версии допускают установку двух процессоров Intel Xeon Scalable третьего поколения (Ice Lake-SP).

Модель RB151 выполнена в формате 1U и наделена двумя блоками питания на 1600 Вт с сертификатом 80 Plus Platinum. Доступны следующие версии организации подсистемы хранения данных: 8 × 2,5 ", 10 × 2,5 ", 4 × 3,5 " и 4 × 3,5 + 4 × 2,5 ". Во всех случаях возможна «горячая» замена накопителей.

Здесь и ниже изображения Chenbro

Здесь и ниже изображения Chenbro

Модификация RB251 имеет типоразмер 2U и несёт на борту два блока питания мощностью 2000 Вт с сертификатом 80 Plus Platinum. Заказчики смогут выбирать между четырьмя вариантами исполнения: 8 × 2,5 ", 24 × 2,5 ", 8 × 3,5 " и 12 × 3,5 ". Внутри есть место для двух дополнительных 2,5" накопителей.

Все новинки располагают 32 слотами для модулей оперативной памяти DDR4-3200 RDIMM/LRDIMM или 3DS-RDIMM/LRDIMM суммарным объёмом до 12 Тбайт. Поддерживаются накопители SAS/SATA/NVMe (PCIe 4.0). На фронтальную панель выведено по одному порту USB 3.0 и USB 2.0, а сзади находятся три разъёма USB 3.0.

Младшая модель получила два слота расширения PCIe 4.0 x16 и разъём PCIe 4.0 x8 для низкопрофильных карт половинной длины, старшая — шесть слотов PCIe 4.0 x16 для полноразмерных ускорителей и два разъёма PCIe 4.0 x8 для низкопрофильных карт. В обоих случаях имеется поддержка модуля OCP 3.0 (PCIe 4.0 x16).

Постоянный URL: http://servernews.ru/1048071
27.08.2021 [17:21], Сергей Карасёв

Supermicro представила сервер Hyper-E SYS-220HE-FTNRD для edge-приложений и 5G

Компания Supermicro анонсировала сервер SuperServer SYS-220HE-FTNRD серии Hyper-E. Новинка предназначена для использования в системах 5G, сетях телекоммуникационных операторов и корпоративных инфраструктурах. Кроме того, новинка подходит для периферийных вычислений общего назначения, в том числе со средствами ИИ и машинного обучения.

Устройство выполнено в укороченном 2U-шаcии. Допускается установка двух процессоров Intel Xeon Scalable Ice Lake-SP в исполнении Socket P+ (LGA-4189) с TDP до 270 Вт. В общей сложности доступны 32 слота для модулей оперативной памяти ECC DDR4-3200/2933/2666 суммарным объёмом до 8 Тбайт. Сервер поддерживает до шести накопителей NVMe/SATA в форм-факторе 2,5 дюйма с возможностью «горячей» замены, а также два M.2-модуля. Возможно формирование массивов RAID 0/1/5/10.

Здесь и ниже изображения Supermicro

Здесь и ниже изображения Supermicro

Для ускорителей и адаптеров длиной до 26,7 см (10.5") есть восемь слотов (четыре для двухслотовых карт), а также два слота AIOM/OCP 3.0. Архитектура новинки предполагает достаточно гибкие возможности в плане сетевых подключений. К примеру, могут быть задействованы до четырёх портов 25GbE RJ45/SFP28 или до двух портов 100GbE QSFP28.

Устройство наделено выделенным сетевым портом управления, двумя разъёмами USB 3.0 и аналоговым интерфейсом D-Sub. Общие габариты составляют 574 × 436,88 × 88,9 мм. Применены два блока питания мощностью 1300 Вт (48 В DC). За охлаждение отвечают шесть вентиляторов в задней части.

Постоянный URL: http://servernews.ru/1047756
26.08.2021 [16:20], Владимир Мироненко

Yandex.Cloud первой среди публичных облачных платформ в России предложила инстансы с Intel Xeon Ice Lake-SP

Yandex.Cloud первой среди российских публичных облачных платформ предложила инстансы Yandex Compute Cloud на базе CPU Intel Xeon Ice Lake-SP. Новые виртуальные машины доступны в Yandex Managed Service for Kubernetes, а в сентябре они появятся и в сервисах Платформы данных. Используются процессоры Xeon Gold 6338 (32С/64T, от 2,0 ГГц до 3,2 ГГц, 48 Мбайт L3-кеш).

По данным Intel, производительность на распространенных рабочих нагрузках для ЦОД выросла по сравнению с предыдущим поколением в среднем на 46%. А в Yandex.Cloud стоимость в пересчёте на 1 ядро снизилась приблизительно на 10 %. Пользователи могут создавать инстансы на платформе standard-v3, имеющие от 2 до 96 vCPU и от 1 до 640 Гбайт RAM. Правда, есть один нюанс — нельзя одновременно получить и максимум памяти, и максимум ядер.

В документации сказано следующее: «Для платформы Intel Ice Lake недоступна конфигурация с максимальным количеством vCPU (96) и максимальным объемом RAM (640 ГБ) одновременно. Если у ВМ 96 vCPU, максимальный объем RAM — 576 ГБ. Если у ВМ 640 ГБ RAM, максимальное количество vCPU — 80». При этом инстансы, имеющие до 32 vCPU, «живут» в пределах одного NUMA-домена, что положительно сказывается на производительности и работе с памятью и подходит для большинства развёртываний.

Постоянный URL: http://servernews.ru/1047648
24.08.2021 [01:45], Игорь Осколков

Intel Xeon Sapphire Rapids получат UMA-режим, динамический балансировщик нагрузки DLB и поддержку CXL на всех линиях PCIe

На мероприятии Architecture Day Intel, наконец, поделилась некоторыми подробностями о будущих серверных процессорах Xeon Sapphire Rapids, которые станут доступны в первой половине 2022 года. Правда, презентация оставила больше вопросов, чем ответов. Но на HotChips 33 представители компании дали некоторые пояснения и чуть более подробно рассказали о части нововведений.

Например, компания назвала типичный уровень задержек между отдельными тайлами, соединёнными между собой десятью EMIB-мостиками — в среднем от 4 до 8 нс (но не более 10 нс) за один переход по мостику. Причём этот показатель может чуть плавать в зависимости от обращения к соседу слева/справа или снизу/сверху (подключений по диагонали нет). Поскольку все ресурсы для всех тайлов и ядер/потоков общие, наихудшая ситуация наступает тогда, когда запрос и ответ к памяти соседнего тайла пойдут в обход по всем тайлам. То есть на пути туда-обратно запрос совершит четыре перехода по мостикам.

Избавиться от такой ситуации можно как формированием NUMA-кластеров, так и новым UMA-режимом (квадрант в терминологии Intel), в котором  системный агент каждого тайла «привязывается» к контроллеру памяти на том же самом тайле. Это требует симметричного размещения памяти на всех контроллерах, зато снижает задержки (как при использовании NUMA), сохраняя при этом «цельность» процессора при взгляде со стороны, то есть не требует модификации ПО. Вероятно, именно этот режим работы будет рекомендовано использовать по умолчанию.

Число линий PCIe так и не было названо, однако было сказано, что все они будут поддерживать CXL (блоками по x16) — у AMD EPYC Genoa, если верить утечкам, это не так. Режим работы будет автоматически выбираться в зависимости от типа устройства при загрузке. Интересно, что ускорители Ponte Vecchio, вероятно, будут поддерживать только PCIe-режим. Это, правда, не помешает реализовать обещанную когда-то поддержку общей когерентной памяти в связке CPU-GPU.

Кроме того, текущая реализация CXL не поддерживает режим Type 3, который, в частности, позволяет наращивать объём доступной CPU памяти путём подключения внешних блоков DRAM/SCM. Дополнительно отмечено, что HBM-память, тоже подключаемая посредством EMIB, будет иметь собственные контроллеры, так что все 8 каналов DRAM никуда не денутся. Любопытно, что SKU с малым числом ядер будут иметь то же число каналов памяти, линий PCIe/UPI и т.д., но при этом могут оказаться вовсе не состоящими из тайлов.

Помимо прочего, докладчик поделился некоторыми сведениями о новых или расширенных возможностях Sapphire Rapids. В частности, они получат поддержку Virtual Shared Memory, позволяющую ПО, использующему CPU и ускорители (интегрированные или дискретные), иметь для удобства работы единое адресное пространство с поддержкой целостности и когерентности памяти. В том числе для виртуальных машин. Для них же (и для контейнеров) пригодится технология Intel Scalable IO Virtualization (S-IOV), расширяющая возможности SR-IOV.

Про акселераторы DSA и QAT уже говорилось в прошлый раз. Сейчас же было немного рассказано про DLB (Dynamic Load Balancer), динамический балансировщик нагрузки, который распределяет её между ядрами, принимая решения 400 млн раз в секунду, и ускоряет операции, связанные с этим процессом. Он отслеживает потребление ресурсов и позволяет задать приоритеты для различных нагрузок. Для работы со всеми этими ускорителями и нужен новый набор инструкций AiA (Accelerator Interfacing Architecture), который позволяет управлять ими из режима пользователя.

Постоянный URL: http://servernews.ru/1047385
19.08.2021 [16:00], Игорь Осколков

Intel представила Xeon Sapphire Rapids: четырёхкристалльная SoC, HBM-память, новые инструкции и ускорители

В рамках Architecture Day компания Intel рассказала о грядущих серверных процессорах Sapphire Rapids, подтвердив большую часть опубликованной ранее информации и дополнив её некоторыми деталями. Intel позиционирует новинки как решение для более широкого круга задач и рабочих нагрузок, чем прежде, включая и популярные ныне микросервисы, контейнеризацию и виртуализацию. Компания обещает, что CPU будут сбалансированы с точки зрения вычислений, работой с памятью и I/O.

Новые процессоры, наконец, получили чиплетную, или тайловую в терминологии Intel, компоновку — в состав SoC входят четыре «ядерных» тайла на техпроцессе Intel 7 (10 нм Enhanced SuperFIN). Каждый тайл объединён с соседом посредством EMIB. Их системные агенты, включающие общий на всех L3-кеш объём до 100+ Мбайт, образуют быструю mesh-сеть с задержкой порядка 4-8 нс в одну сторону. Со стороны процессор будет «казаться» монолитным.

Каждые ядро или поток будут иметь свободный доступ ко всем ресурсам соседних тайлов, включая кеш, память, ускорители и IO-блоки. Потенциально такой подход более выгоден с точки зрения внутреннего обмена данными, чем в случае AMD с общим IO-блоком для всех чиплетов, которых в будущих EPYC будет уже 12. Но как оно будет на самом деле, мы узнаем только в следующем году — выход Sapphire Rapids запланирован на первый квартал 2022-го, а массовое производство будет уже во втором квартале.

Ядра Sapphire Rapids базируются на микроархитектуре Golden Cove, которая стала шире, глубже и «умнее». Она же будет использована в высокопроизводительных ядрах Alder Lake, но в случае серверных процессоров есть некоторые отличия. Например, увеличенный до 2 Мбайт на ядро объём L2-кеша или новый набор инструкций AMX (Advanced Matrix Extension). Последний расширяет ИИ-функциональность CPU и позволяет проводить MAC-операции над матрицами, что характерно для такого рода нагрузок.

Для AMX заведено восемь выделенных 2D-регистров объёмом по 1 Кбайт каждый (шестнадцать 64-байт строк). Отдельный аппаратный блок выполняет MAC-операции над тремя регистрами, причём делаться это может параллельно с исполнением других инструкций в остальной части ядра. Настройкой параметров и содержимого регистров, а также перемещением данных занимается ОС. Пока что в процессорах представлен только MAC-блок, но в будущем могут появиться блоки и для других, более сложных операций.

В пике производительность AMX на INT8 составляет 2048 операций на цикл на ядро, что в восемь раз больше, чем при использовании традиционных инструкций AVX-512 (на двух FMA-портах). На BF16 производительность AMX вдвое ниже, но это всё равно существенный прирост по сравнению с прошлым поколением Xeon — Intel всё так же пытается создать универсальные ядра, которые справлялись бы не только с инференсом, но и с обучением ИИ-моделей. Тем не менее, компания говорит, что возможности AMX в CPU будут дополнять GPU, а не напрямую конкурировать с ними.

К слову, именно Sapphire Rapids должен, наконец, сделать BF16 более массовым, поскольку Cooper Lake, где поддержка этого формата данных впервые появилась в CPU Intel, имеет довольно узкую нишу применения. Из прочих архитектурных обновлений можно отметить поддержку FP16 для AVX-512, инструкции для быстрого сложения (FADD) и более эффективного управления данными в иерархии кешей (CLDEMOTE), целый ряд новых инструкций и прерываний для работы с памятью и TLB для виртуальных машин (ВМ), расширенную телеметрию с микросекундными отсчётами и так далее.

Последние пункты, в целом, нужны для более эффективного и интеллектуального управления ресурсами и QoS для процессов, контейнеров и ВМ — все они так или иначе снижают накладные расходы. Ещё больше ускоряют работу выделенные акселераторы. Пока упомянуты только два. Первый, DSA (Data Streaming Accelerator), ускоряет перемещение и передачу данных как в рамках одного хоста, так и между несколькими хостами. Это полезно при работе с памятью, хранилищем, сетевым трафиком и виртуализацией.

Второй упомянутый ускоритель — это движок QAT (Quick Assist Engine), на который можно возложить операции или сразу цепочки операций (де-)компрессии (до 160 Гбит/с в обе стороны одновременно), хеширования и шифрования (до 400 Гбитс/с) в популярных алгоритмах: AES GCM/XTS, ChaChaPoly, DH, ECC и т.д. Теперь блок QAT стал частью самого процессора, тогда как прежде он был доступен в составе некоторых чипсетов или в виде отдельной карты расширения. Это позволило снизить задержки и увеличить производительность блока.

Кроме того, QAT можно будет задействовать, например, для виртуализации или Intel Accelerator Interfacing Architecture (AiA). AiA — это ещё один новый набор инструкций, предназначенный для более эффективной работы с интегрированными и дискретными ускорителями. AiA помогает с управлением, синхронизацией и сигнализацией, что опять таки позволит снизить часть накладных расходов при взаимодействии с ускорителями из пространства пользователя.

Подсистема памяти включает четыре двухканальных контроллера DDR5, по одному на каждый тайл. Надо полагать, что будут доступные четыре же NUMA-домена. Больше деталей, если не считать упомянутой поддержки следующего поколения Intel Optane PMem 300 (Crow Pass), предоставлено не было. Зато было официально подтверждено наличие моделей с набортной HBM, тоже по одному модулю на тайл. HBM может использоваться как в качестве кеша для DRAM, так и независимо. В некоторых случаях можно будет обойтись вообще без DRAM.

Про PCIe 5.0 и CXL 1.1 (CXL.io, CXL.cache, CXL.memory) добавить нечего, хотя в рамках другого доклада Intel ясно дала понять, что делает ставку на CXL в качестве интерконнекта не только внутри одного узла, но и в перспективе на уровне стойки. Для объединения CPU (бесшовно вплоть до 8S) всё так же будет использоваться шина UPI, но уже второго поколения (16 ГТ/с на линию) — по 24 линии на каждый тайл.

Конкретно для Sapphire Rapids Intel пока не приводит точные данные о росте IPC в сравнении с Ice Lake-SP, ограничиваясь лишь отдельными цифрами в некоторых задачах и областях. Также не был указан и ряд других важных параметров. Однако AMD EPYC Genoa, если верить последним утечкам, даже по чисто количественным характеристикам заметно опережает Sapphire Rapids.

Постоянный URL: http://servernews.ru/1047107
17.08.2021 [17:56], Алексей Степин

В AWS появились инстансы M6i на базе Intel Xeon Ice Lake-SP

10-нм архитектура Intel Ice Lake пришла в серверный сегмент довольно поздно. Инстансы на базе новых процессоров анонсировали практически все крупные облачные провайдеры, но доступными для конечных пользователей они становятся не сразу. Вчера были представлены инстансы Amazon EC2 M6i.

Пожалуй, первое, что стоит отметить — обязательное шифрование содержимого оперативной памяти во всех инстансах M6i. Сама компания позиционирует M6i как шестое поколение, по соотношению цена/производительность опережающее пятое поколение инстансов минимум на 15%. Во всех случаях в аппаратной части используются Xeon c турборежимом 3.5 ГГц.

Основные особенности Xeon Ice Lake-SP

Основные особенности Xeon Ice Lake-SP

Заказчикам предлагаются различные варианты, с количеством vCPU от 2 до 128 и пулами оперативной памяти объёмом от 8 до 128 Гбайт (4 Гбайт на vCPU). Производительность сетевой подсистемы и хранилища Amazon Elastic Block Store варьируется в зависимости от размера инстанса, в предельном случае составляя 50 и 40 Гбит/с соответственно. Также отмечается возросшая на 20% производительность подсистемы памяти (напомним, новые Xeon имеют 8 каналов памяти и поддерживают DDR4-3200).

Сочетание характеристик делает M6i подходящими практически для любой задачи — в качестве веб-серверов, серверов приложений, систем контейнеризации и т.д. Компания отдельно отмечает наличие для них сертификации SAP. Подойдут новые инстансы и для некоторых HPC-нагрузок, например, для расчётов в области вычислительной гидродинамики (CFD).

Пока шестое поколение инстансов не имеет bare metal версии с выделенными серверами и гарантированно низкой латентностью сети, но такой вариант запланирован на ближайшее будущее. Стоит отметить, что теперь AWS несколько изменила схему наименований инстансов. После номера поколения теперь идёт литера, обозначающая тип процессора — «i» для решений Intel, «a» для AMD EPYC и «g» для систем на базе процессоров AWS Graviton.

Постоянный URL: http://servernews.ru/1046903
12.08.2021 [19:03], Владимир Мироненко

TrendForce: Intel продолжит доминировать на серверном рынке, а к концу года доля Xeon Ice Lake-SP превысит 30 %

Весной началось массовое производство серверных x86-процессоров Intel Xeon Ice Lake-SP и AMD EPYC Milan. Согласно данным TrendForce, изначально небольшие объёмы новых чипов поставлялись лишь некоторым североамериканским клиентам в сегменте облаков и телекоммуникаций. Ожидается, что эти процессоры получат более широкое распространение на рынке в третьем квартале этого года.

Исследователи отмечают, что новые условия работы в постпандемическую эпоху побудят клиентов частично перейти на платформу Ice Lake-SP, доля которой на рынке серверов, согласно прогнозу TrendForce, в четвёртом квартале этого года превысит в 30 %. Что касается AMD, то ожидается, что AMD EPYC Milan обгонят предшественников по поставкам уже в третьем квартале этого года.

TrendForce ожидает, что увеличение объёмов производства процессоров для платформы Eagle Stream, скорее всего, произойдёт во втором квартале 2022 года. Новые Xeon Sapphire Rapids получат набортную память HBM и предложат гораздо более разнообразную линейку продуктов по сравнению с прошлым поколением. Предыдущие ожидания рынка относительно наращивания производства уже в 4 квартале 2021 года не оправдались — процессоры для Eagle Stream в это время лишь войдут в финальную стадию квалификации продукта, после чего Intel начнёт предоставлять некоторым ведущим клиентам небольшие партии.

То есть график производства Sapphire Rapids, вероятно, будет похож на график выпуска Ice Lake-SP. Что касается AMD, то процессоры Genoa, видимо, будут следовать тому же графику производства, поскольку чипы с использованием 5-нм техпроцесса пока имеют относительно небольшие объёмы. Однако серверные процессоры AMD имеют конкурентное преимущество с точки зрения соотношения цены и производительности, количества ядер и интерфейсов. Кроме того, в этом году постепенно увеличивалось использование AMD EPYC публичными облачными провайдерами, включая Google Cloud Platform, Microsoft Azure и Tencent.

В настоящее время уровень проникновения процессоров AMD у этих трёх провайдеров превысил 10%. Переход на 5-нм техпроцесс в конце 2021 года позволит компании ещё больше оптимизировать стоимость, энергопотребление и производительность своих процессоров. Поэтому TrendForce ожидает, что в 2022 году доля процессоров AMD на мировом рынке серверов составит 15 %.

Также TrendForce отмечает, что хотя архитектура Arm начинает набирать популярность, чипы в основном изготавливаются на заказ из-за относительно небольшого спроса. Arm-процессоры в этом году начали набирать обороты на рынке, но наибольшую долю заняли чипы Graviton, которые доступны только в облаке AWS. Ampere и Marvell предлагают более гибкие Arm-платформы, валидация которых, как ожидается, также начнётся в 4 квартале 2021 года.

Однако на рынке серверов по-прежнему преобладают x86-процессоры x86, на которые в настоящее время приходится 97 % общего объёма поставок. И оба ключевых производителя продолжают развивать свои продукты. Поэтому TrendForce считает, что процессоры ARM не будут конкурировать с процессорами x86 на рынке серверов до 2023 года.

Одним из преимуществ новых x86-платформ станет поддержка DDR5, а также PCIe 5.0 и CXL (Compute Express Link). Удвоение пропускной способности PCIe положительно отразится на приложениях ИИ и Big Data, а CXL в Eagle Stream сможет предложить значительные улучшения для «тяжёлых» рабочих нагрузок и гетерогенных вычислений. CXL позволит преодолеть ограничения, накладываемые на текущую аппаратную архитектуру в отношении передачи данных, и тем самым обеспечит более эффективные интегрированные вычислительные возможности.

Что касается памяти, то и Eagle Stream, и Genoa получат поддержку DDR5 нового поколения, которая обеспечивает более высокую скорость передачи данных, что сделает эти новые серверные процессоры более привлекательными в сравнении с прошлым поколением. Поставщики NAND и DRAM планируют начать массовое производство PCIe 5.0 SSD и DDR5 RDIMM в конце 2 квартала 2022 года в ожидании спроса, вызванного выпуском платформ Eagle Stream и Genoa.

Постоянный URL: http://servernews.ru/1046546
Система Orphus