Материалы по тегу: pci express 5.0

05.07.2021 [17:47], Сергей Карасёв

Samsung готовит SSD PM1743 с интерфейсом PCIe 5.0 в форм-факторе E3.S

В распоряжении ServeTheHome оказалась информация о твердотельных накопителях Samsung с кодовым обозначением PM1743. Официальная презентация этих устройств, как ожидается, состоится в следующем году. Изделия получат форм-фактор E3.S 1T и будут ориентированы на применение в корпоративном секторе.

Говорится об использовании интерфейса PCIe 5.0: x4 для однопортового варианта или два x2 для двухпортового. В основу лягут микрочипы флеш-памяти TLC V-NAND. Энергопотребление составит от 20 до 25 Вт. Кроме того, указан показатель DWPD — накопители будут рассчитаны на одну полную перезапись в сутки. Более подробная информация о готовящихся изделиях пока отсутствует. Но известно, что доступны устройства будут только во втором квартале следующего года.

Постоянный URL: http://servernews.ru/1043550
28.05.2021 [15:28], Сергей Карасёв

Marvell Bravera SC5 — первый в мире SSD-контроллер с поддержкой PCIe 5.0

Компания Marvell анонсировала контроллеры Bravera SC5, предназначенные для построения серверных SSD нового поколения с интерфейсом PCIe 5.0. Представлены изделия MV-SS1331 и MV-SS1333 с восемью и шестнадцатью каналами доступа к NAND-памяти (до 1600 МТ/с) соответственно. В семейство Bravera впоследствии войдут и другие продукты.

Здесь и ниже изображения Marvell

Заявленная скорость последовательного чтения информации может достигать 14 Гбайт/с, скорость последовательной записи — 9 Гбайт/с. Производительность случайного чтения достигает 2 млн IOPS, записи — 1 млн IOPS. Задержка составляет менее 6 мкс, а функция Elastic SLA Enforcer позволит более тонко управлять приоритетами и очередями, а также собирать телеметрию на аппаратном уровне.

В составе изделий задействованы наборы ядер ARM Cortex-R8, Cortex-M7 и Cortex-M3. Есть аппаратные движки для шифрования и обеспечения безопасности. Контроллер поддерживает ECC-память DDR4-3200 и LPDDR4x-4266, а также NAND-чипы SLC/MLC/TLC/QLC от крупнейших производителей: Kioxia, Micron, Samsung, SK hynix, Western Digital и YMTC. Партнёрами в рамках запуска названы AMD, Intel и Renesas.

Контроллер поддерживает спецификации NVMe 1.4b и предлагает четыре линии PCIe 5.0 (x4 или два порта x2). Компания постаралась сделать его как можно более универсальным и подходящим как для нужд гиперскейлеров, так и для корпоративных решений. Он поддерживает стандарты ZNS, >Open Channel SSD, Kioxia SEF.

Пробные поставки образцов контроллеров уже начались. Первыми заказчиками стали Facebook и Microsoft, развивающие стандарт OCP Cloud SSD, который несколько шире спецификаций NVMe. Именно на них ориентирована старшая, 16-канальная версия контроллера, которая благодаря своим габаритам (20 × 20 мм) позволяет создавать накопители в форм-факторе EDSFF E1.S. Правда, энергопотребление у неё выше, чем у 8-канальной — 9,8 Вт против 8,7 Вт.

Постоянный URL: http://servernews.ru/1040669
14.05.2021 [00:05], Алексей Степин

Samsung открывает эру CXL-памяти DDR5

Современная индустрия серверов и HPC нуждается в универсальном высокоскоростном интерфейсе, и таким интерфейсом должен стать Compute Express Link, базирующийся на возможностях протокола PCI Express 5.0. Мы рассказывали читателям об этой технологии ещё в начале года — тогда речь шла лишь о демонстрационной платформе, но сейчас разработчики аппаратного обеспечения анонсируют первые продукты, использующие CXL.

Как известно, современные вычислительные системы используют для шину PCI Express на коротких дистанциях; на длинных это, как правило, Ethernet или InfiniBand. Но остаётся один участок, который традиционно не охвачен каким-либо унифицированным интерфейсом, и это участок, связывающий процессоры с оперативной памятью. CXL позволяет унифицировать и этот момент, и компания Samsung уже анонсировала первые модули памяти в новом формате.

В эпоху популярности систем машинной аналитики, обучения и вычислений in-memory объёмы DRAM (и PMem) в серверных системах серьёзно выросли, но традиционный подход к расширению оперативной памяти содержит ряд проблем: это и большое количество контактов, и ограниченное число модулей памяти на канал. Производителям приходится искать баланс между скоростью, объёмом и физическими размерами памяти.

Стандарт CXL шире, нежели PCI Express, с его помощью возможна реализация различных топологий, а не только подключений «точка-точка». Причём дезагрегация ресурсов возможно не только в пределах шасси, но и в пределах стойки и далее (при наличии CXL-коммутатора с «оптикой»). Впрочем, главное в данном случае — поддержка протокола CXL.memory, причём с версии 2.0 с полным шифрованием.

Новые модули Samsung работают по третьему сценарию использования CXL

В режиме CXL.memory подключённый к шине пул DRAM может объединяться с системным пулом оперативной памяти в единое пространство или делиться между другими устройствами (FPGA). При этом целью может ставиться как увеличение пропускной способности, так и наращивание объёмов до нескольких терабайт и более. Этот режим и реализован Samsung в новых модулях. Внешне они напоминают SSD, но в основе новинки лежит новый стандарт DDR5.

Такой модуль подключается к системе с помощью 16 линий PCIe 5.0, которые имеют суммарную пропускную способность 63 Гбайт/с. Более детальной информации о новых модулях Samsung CXL DDR5 пока мало, но очевидно, что при серьёзных объёмах DRAM такие модули потребуют и достаточно серьёзного охлаждения. Ожидается, что тепловыделение модуля объёмом 2 Тбайт может достигать 70-80 Вт, хотя выбранный форм-фактор (E3.S 2T) предполагает TDP на уровне 40 Вт.

Такой форм-фактор позволит свободно комбинировать DRAM, SCM и SSD в 2U-шасси, что позволит выбрать необходимое для конкретной нагрузки сочетание ёмкости и производительности. Интересно, появятся ли аналогичные DRAM-модули и в формате E1, который актуален для 1U-шасси, edge-систем, а также для высокоплотных HPC-решений.

Согласно официальному заявлению, новые модули успешно прошли квалификационное тестирование на некоей «серверной платформе Intel следующего поколения», однако больше никаких деталей Samsung пока не сообщает. Также известно, что компания сотрудничает и с AMD. О каких платформах идёт речь, сказать сейчас сложно, ведь даже Intel Sapphire Rapids будет поддерживать лишь CXL 1.1.

Отметим, что похожий подход предлагают и CCIX, и Gen-Z. Причём для Gen-Z ещё в 2019 году SMART Modular представила первый DRAM-модуль с DDR4, и тоже в форм-факторе E3. Впрочем, с тех пор CXL и Gen-Z успели «подружиться», да и Synopsys в своих IP-решениях позволяется совмещать CCIX и CXL. Альтернативный подход к наращиванию ёмкости памяти предлагает IBM — DDIMM-модули с интерфейсом OMI (Open Memory Interface).

Постоянный URL: http://servernews.ru/1039504
12.04.2021 [19:21], Алексей Степин

NVIDIA анонсировала DPU BlueField-3: 400 Гбит/с, 16 ядер Cortex-A78 и PCIe 5.0

Идея «сопроцессора данных», озвученная всерьёз в 2020 году компанией Fungible, продолжает активно развиваться и прокладывать себе дорогу в жизнь. На конференции GTC 2021 корпорация NVIDIA анонсировала новое поколение «умных» сетевых карт BlueField-3, способное работать на скорости 400 Гбит/с.

Изначально серия ускорителей BlueField разрабатывалась компанией Mellanox, и одной из целей создания столь продвинутых сетевых адаптеров стала реализация концепции «нулевого доверия» (zero trust) для сетевой инфраструктуры ЦОД нового поколения. Адаптеры BlueField-2 были анонсированы в начале прошлого года. Они поддерживали два 100GbE-порта, микросегментацию, и могли осуществлять глубокую инспекцию пакетов полностью автономно, без нагрузки на серверные ЦП. Шифрование TLS/IPSEC такие карты могли выполнять на полной скорости, не создавая узких мест в сети.

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП — 22 млрд транзисторов

Но на сегодня 100 и даже 200 Гбит/с уже не является пределом мечтаний — провайдеры и разработчики ЦОД активно осваивают скорости 400 и 800 Гбит/с. Столь скоростные сети требуют нового уровня производительности от DPU, и NVIDIA вскоре сможет предложить такой уровень: на конференции GTC 2021 анонсировано новое, третье поколение карт BlueField.

Если BlueField-2 могла похвастаться массивом из восьми ядер ARM Cortex-A72, объединённых когерентной сетью, то BlueField-3 располагает уже шестнадцатью ядрами Cortex-A78 и в четыре раза более мощными блоками криптографии и DPI. Совокупно речь идёт о росте производительности на порядок, что позволяет новинке работать без задержек на скорости 400 Гбит/с — и это первый в индустрии адаптер класса 400GbE со столь продвинутыми возможностями, поддерживающий, к тому же, стандарт PCI Express 5.0. Известно, что столь быстрым сетевым решениям PCIe 5.0 действительно необходим.

С точки зрения поддерживаемых возможностей BlueField-3 обратно совместим с BlueField-2, что позволит использовать уже имеющиеся наработки в области программного обеспечения для DPU. Одновременно с анонсом нового DPU компания представила и открытую программную платформу DOCA, упрощающую разработку ПО для таких сопроцессоров, поскольку они теперь занимаются не просто обработкой сетевого трафика, а оркестрацией работы серверов, приложений и микросервисов в рамках всего дата-центра.

В настоящее время NVIDIA сотрудничает с такими крупными поставщиками серверных решений, как Dell EMC, Inspur, Lenovo и Supermicro, со стороны разработчиков ПО интерес к BlueField проявляют Canonical, VMWare, Red Hat, Fortinet, NetApp и ряд других компаний. О массовом производстве BlueField-3 речи пока не идёт, поставка малыми партиями ожидается в первом квартале 2022 года, но карты BlueField-2 доступны уже сейчас. А в 2024 году появятся BlueField-4 с портами 800 Гбит/с.

Постоянный URL: http://servernews.ru/1037156
03.02.2021 [23:26], Алексей Степин

Microchip продолжает осваивать PCIe 5.0: представлены новые коммутаторы Switchtec PFX

На данный момент вокруг стандарта PCI Express 4.0 сложилась устойчивая экосистема: для него существуют все необходимые компоненты. Со следующей версией, PCIe 5.0, дела обстоят пока не настолько хорошо, но прогресс есть и здесь. Компания Microchip продолжает осваивать новую версию стандарта: в дополнение к анонсированным ранее ретаймерам XpressConnect она представила и новые микросхемы коммутаторов Switchtec PFX.

Высокоскоростные последовательные шины, такие как PCI Express, требуют очень точного соблюдения массы параметров, иначе заявленные характеристики могут оказаться недостижимыми. Даже в довольно старой версии PCIe 2.0 небрежная реализация могла привести к откату до скорости PCIe 1.0 или к полной неработоспособности той или иной связки компонентов. Ещё в большей степени это актуально для более новых и производительных версий PCI Express.

В версии 5.0, как известно, пропускная способность одной линии интерфейса должна достичь 32 ГТ/с (около 4 Гбайт/с), и здесь, естественно, потребуются не только новые системные платы и процессоры. Сложные распределённые системы, в составе которых может работать множество ускорителей и даже отдельных серверных узлов, обязательно потребуют дополнительных чипов: ретаймеров для коррекции параметров сигнала, а также коммутаторов, способных работать со скоростями PCIe 5.0.

Ретаймеры PCIe 5.0 компания Microchip уже представила, работоспособность при взаимодействии двух устройств на новых скоростях также успешно продемонстрирована Intel и Synopsys. Пришла пора коммутаторов и здесь пионером также стала Microchip, представившая новую серию микросхем Switchtec PFX PCIe 5.0, удачно дополняющую семейство XpressConnect. Компания заявила, что это идеальное сочетание, позволяющее удвоить пропускную способность в условиях «высокоплотных систем».

Новые чипы весьма продвинуты: они могут обеспечивать работу до 100 линий PCIe 5.0, обслуживающих до 52 портов, либо до 48 непрозрачных мостов (bridges). При этом поддерживается организация виртуальных групп коммутации, их может быть до 26. В состав нового кремния входят средства обеспечения надёжности, включая коррекцию ECC и распознавание «горячего подключения» устройств; также в Switchtec PFX PCIe 5.0 реализованы продвинутые средства мониторинга и диагностики, дополнительно поддерживается аутентификация загрузочных образов.

Новые коммутаторы найдут активное применение в самых различных областях, от систем хранения данных до кластерных систем, связанных сетью нового поколения на основе стандарта CXL. Массовые поставки новых коммутаторов намечены на 2022 год, но заказать комплекты разработчика можно будет и раньше.

Постоянный URL: http://servernews.ru/1031808
11.01.2021 [20:24], Алексей Степин

Экосистема PCI Express 5.0 и CXL расширяется: PLDA продемонстрировала работу XpressLINK с Intel Xeon Sapphire Rapids

Потребность в более скоростных интерфейсах существовала в мире ИТ всегда, но за последние годы она обострилась: третья версия PCI Express пробыла с нами почти десятилетие, и лишь сейчас, проводив 2020 год, можно сказать о сколько-нибудь заметном распространении PCI Express 4.0.

Урок усвоен и с PCIe 5.0 аналогичной истории не повторится: практически все разработчики процессоров и прочих компонентов изначально закладывают поддержку пятой версии в свои новые решения. Среди лидеров в этой области — компания PLDA, продемонстрировавшая работоспособность своих компонентов PCI Express 5.0 и CXL.

Говоря о CXL, мы неизбежно подразумеваем PCIe 5.0 — именно PCI Express пятой версии является физической основой нового протокола скоростных межсоединений Compute Express Link. CXL дополняет PCIe 5.0 рядом интересных и востребованных в мире HPC возможностей, но речь сейчас не об этом, а о том, что родственность стандартов упрощает разработку IP-блоков с их поддержкой.

Компания PLDA является активным разработчиком IP-модулей, причём, специализируется она именно на высокоскоростных интерфейсах, участвуя в разработке стандарта PCI Express c 2001 года.  Стандарты, сколь угодно совершенные в теории, мертвы без реального работоспособного «кремния», и здесь PLDA оказалась в числе лидеров, успешно продемонстрировав работу своего контроллера PCI Express 5.0 и доказав работоспособность CXL в системах на базе инженерных образцов Intel Sapphire Rapids.

Один из демонстрационных стендов CXL 2.0

Один из демонстрационных стендов CXL 2.0

Следует отметить, что контроллер PLDA XpressRICH не монолитен, за физическую часть (PHY) в демонстрационной системе отвечал блок, разработанный Broadcom. Несмотря на это, IP-модули продемонстрировали слаженную работу и целостность сигнала в различных тестовых сценариях. PLDA утверждает, что данную связку разработчики новых SoC могут использовать смело — качество работы гарантируется.

Две тестовые платы успешно устанавливали стабильную связь на скорости 32 ГТ/с, для тестирования были использованы компоненты Xilinx Vivado ILA и анализатор PCIe Viavi. Также контроллер PLDA без проблем работал в режиме совместимости с предыдущими версиями PCIe на скоростях 16, 8, 5 и 2,5 ГТ/с.

Архитектура контроллера CXL 2.0, созданного PLDA

Архитектура контроллера CXL 2.0, созданного PLDA

Демонстрация CXL использовала другой набор компонентов. В этом сценарии разработка PLDA под названием XpressLINK была воплощена в ПЛИС на PCIe-платах. Новый контроллер поддерживает все основные суб-протоколы CXL, описанные в версии 2.0: CXL.io, CXL.cache и CXL.mem. Платформой здесь послужили системы, оснащённые прототипами процессоров Intel Xeon Sapphire Rapids.

Демонстрация, проведённая в рамках давнего сотрудничества PLDA и подразделения Intel Industry Enabling Labs, показала полную работоспособность новинок, а также доказала, что контроллер CXL обеспечивает самую низкую латентность в своём классе. Последнее крайне важно, поскольку CXL пророчат в качестве основы для суперкомпьютеров и кластерных систем нового поколения.

Контроллер PLDA XpressLINK может быть реализован в качестве строительного блока для SoC, как отдельный ASIC-чип, а также в виде ПЛИС. Он доступен для лицензирования, чем уже воспользовались некоторые крупные разработчики микроэлектроники.

Постоянный URL: http://servernews.ru/1029751
24.12.2020 [20:11], Алексей Степин

Synopsys предлагает полный спектр IP-решений для CXL

Новый стандарт шины CXL (Compute Express Link) хорош тем, что базируется на уже давно устоявшемся и общепринятом стандарте PCI Express, который способен обеспечить высокие скорости обмена данными и минимальную латентность. Версия 2.0 стандарта CXL была финализирована совсем недавно, в ноябре этого года, и мы опубликовали посвящённую этому событию заметку.

Напомним основные тезисы CXL 2.0. В основе новой версии по-прежнему лежит PCI Express 5.0, однако в ней реализована более сложная, многоуровневая структура взаимодействия узлов сети. Появилась поддержка коммутирования и шифрования, а также возможность работы с устройствами «постоянной памяти» (persistent memory), такими как, например, Optane DCPMM. Предусмотрена возможность управляемого горячего подключения, что немаловажно, поскольку позволяет минимизировать время простоя и ввода в строй новых вычислительных узлов в системе.

На сегодняшний момент CXL имеет самую большую армию сторонников: в разработке участвуют более 120 компаний. Для сравнения, потенциально конкурирующий стандарт CCIX может похвастаться примерно 50 участниками, Gen-Z насчитывает около 70 участников, а OpenCAPI — лишь 38. Впрочем, между CXL и Gen-Z в настоящее время подписан «меморандум взаимопонимания». Также называется возможность совместного использования CCIX и CXL, подобно тому, как Ethernet может работать поверх InfiniBand.

Конечно, всё это не гарантия того, что CXL обязательно победит, но шансы на победу достаточно высокие, особенно если учесть, что в составе совета директоров CXL принимают участие AMD, ARM, Intel и IBM. Помогает в продвижении стандарта компания Synopsys, весьма известный и солидный разработчик IP-решений. Из достижений компании 2020 года можно назвать набор инструментов для создания аналоговых чипов машинного обучения (совместно с IBM), новые 64-битные ядра ARC и интерфейс для памяти HBM2E.

Для CXL компания создала первую законченную реализацию стандарта ещё в 2019 году. Сейчас Synopsys объявила о новых IP-блоках CXL DesignWare, поддерживающих протокол AMBA CXS и позволяющих бесшовно интегрировать шины CXL и ARM Neoverse Coherent Mesh Network. С растущей популярностью серверных процессоров на базе ARM это даёт CXL ещё одно важное преимущество.

Отметим, что новые IP-блоки способны работать на скорости 32 ГТ/с при 512-битной ширине шины. Поддерживаются конфигурации от x1 до x16, включая варианты с бифуркацией линий PCIe 5.0. Реализация физического уровня (PHY) уже сейчас описывается для широкого круга техпроцессов FinFET. Страницы, посвящённые новому контроллеру CXL, DesignWare CXL IP и верификация IP для AMBA CXS доступны по соответствующим ссылкам.

Постоянный URL: http://servernews.ru/1028711
14.11.2020 [16:44], Алексей Степин

CXL обретает «плоть»: Microchip выпустила первые компоненты PCI Express 5.0

Стандарт CXL, разработка второй версии которого была недавно закончена, обещает решить большую часть проблем, связанных с системами межсоединений в крупных кластерных системах и суперкомпьютерах. Теория мертва без практики: CXL даже первых версий базируется на возможностях PCI Express 5.0, интерфейса, ещё не реализованного в коммерчески доступных продуктах. Однако с помощью компании Microchip PCIe 5.0, а, значит, и CXL, начинают понемногу обретать «плоть».

Проектирование и реализация высокоскоростных шин обмена данными, таких как PCI Express, является почти искусством. Данные по линиям PCIe передаются на очень высоких частотах, составляющих уже 8 ГГц для версии 4.0. Речь скорее идёт о микроволновой СВЧ-электронике, имеющей свои законы.

При таких частотах исходный импульс сигнала быстро «портится»: помимо обычного затухания, происходит и размытие формы самого импульса. Искажения нарастают по мере увеличения длины линий связи, дополнительные искажения и переотражения сигнала вносит любая неоднородность: места пайки, контакты разъёмов и прочие элементы, а также соседние линии.

Пока речь идёт о платах расширения, бороться с такими проблемами не так сложно, расстояние от процессора до приёмников на борту PCIe-платы измеряется в самом худшем случае десятками сантиметров. Однако CXL провозглашается в качестве стандарта межсоединений в HPC-системах, а значит, длина линий связи будет существенно выше. В простых случаях обычно используются редрайверы — простые аналоговые усилители сигнала, но для целей CXL их недостаточно. Нужны ретаймеры.

Ретаймер же является устройством достаточно сложным, поскольку он должен принимать сигнал входной линии, декодировать его согласно протоколу, а затем, восстановив идеальную форму и длительность, передавать дальше. При этом ретаймер постоянно управляет своими приёмопередающими контроллерами в зависимости от характеристик канала и параметров сигнала. До ноября этого года ретаймеров, способных работать на скоростях PCI Express 5.0, толком и не было, но недавно компания Microchip официально анонсировала новую серию ретаймеров XpressConnect.

Основные размерности каналов PCIe в серверной и HPC-инфраструктуре обычно составляют 8 и 16 линий, поэтому в новой серии ретаймеров представлены чипы PM8658 и PM8659 соответственно. Microchip заявляет, что новинки способны увеличить длину работоспособного канала PCIe 5.0 (32 Гт/с) в три раза и, кроме того, могут выступать и в качестве сплиттеров, разделяя один канал на несколько с меньшим количеством линий.

Устройства отличаются пониженной латентностью, вносимые ими задержки на 80% меньше, нежели предусматривается спецификациями PCI Express. Кроме того, они содержат встроенные средства аппаратной диагностики и анализа целостности сигнала, а поддержка функций безопасности позволяет реализовывать системы на базе CXL 2.0 в наиболее полном варианте.

Новинки уже доступны производителям в небольших пробных партиях, однако информации о ценах Microchip пока не предоставила. Таким образом, инфраструктура PCI Express 5.0, а вместе с ней CXL, начинает обретать «плоть», пусть пока и небыстрыми темпами. Настоящая волна внедрения новых стандартов ожидается в 2023-2025 годах. Напомним также, что Microchip готова и к пришествию нового стандарта оперативной памяти, OMI — она уже поставляет разработчикам и производителям соответствующие контроллеры.

Постоянный URL: http://servernews.ru/1025391
11.11.2020 [00:09], Алексей Степин

Стандарт Compute Express Link 2.0 финализирован

Проблема эффективной организации многоядерных и многоузловых вычислительных систем известна давно. Даже специально разработанные для этой цели интерконнекты и шины вроде InfiniBand не всегда справляются в достаточной мере. Консорциум CXL видит решение проблемы в развитии одноимённого стандарта, Compute Express Link, использующего PCI Express в качестве основы. Его первая версия увидела свет в марте 2019 года, и всё это время он активно развивался. Теперь официально опубликованы спецификации версии CXL за номером 2.0.

Изначально шина PCI Express — довольно простая система, обычно предусматривающая соединение хост-устройства и клиента по типу «точка-точка». Но для сложных многоузловых вычислительных комплексов таких возможностей явно недостаточно и в CXL реализованы различные протоколы «общения», оптимизированные с учётом трёх видов задач: ввода-вывода (IO), кеширования (Cache) и доступа к памяти (Memory).

Вернее, эта тройственная специализация была описана ещё в старых версиях стандарта CXL, но в версии 2.0 стандарт был существенно доработан. В основе CXL 2.0 по-прежнему лежит PCI Express 5.0 и изменений в скоростных показателях и латентности нет, но протокол получил поддержку коммутирования и шифрования. Также он теперь может работать с устройствами класса persistent memory, такими как память 3D XPoint.

Коммутаторы — важная часть экосистемы PCI Express, такие чипы позволяют искусственно расширять количество доступных линий шины. Конечно, ограничителем пропускной способности всё равно является «восходящий» канал, но, к примеру, ускорители в такой системе благодаря коммутатору могут общаться и между собой, минуя головное устройство.

В CXL 2.0 реализована полная поддержка коммутации, включая возможность расширения системы за счёт подключения дополнительных коммутаторов, допустима работа клиентских и хост-устройств как в режиме 1:1, так и с несколькими хостами сразу, вплоть до 16. При этом поддерживаются средства обеспечения качества обслуживания (QoS). Пока реализована лишь плоская модель коммутации, однако в планах разработчиков CXL присутствует и внедрение многоуровневой модели.

За последние несколько лет популярность устройств класса persistent memory (PMEM) сильно возросла, поскольку энергонезависимая память стала по-настоящему массовой, а кроме того, появились такие решения, как Intel Optane DC Persistent Memory, не слишком уступающие в производительности классической DRAM, но при этом обладающие всеми преимуществами NAND.

Поддержка устройств типа PMEM стала интегральной частью CXL 2.0, и теперь ресурсы такого типа могут объединяться в пулы, доступные в рамках логики CXL.memory. Подобные пулы в CXL-комплексах займут промежуточное место между пулами DRAM и массивами SSD-накопителей, доступ к ним полностью стандартизирован и не зависит от производителя конечных устройств.

Ранние версии CXL не поддерживали какого-либо единого стандарта шифрования, а значит, такая система межсоединений не была по-настоящему безопасной. В версии 2.0 такая поддержка появилась. Она является опциональной, но теперь силами интегрированных в контроллеры CXL 2.0 криптоускорителей шифроваться может любой канал передачи данных в рамках CXL-комплекса.

Использование шифрования может влиять на показатели латентности, однако величина такого «пенальти» зависит от конкретного сценария использования и возможностей контроллеров CXL. При необходимости минимизации задержек поддержку шифрования в системе CXL 2.0 можно будет отключить.

Нововведения, представленные в CXL 2.0, соответствуют современным тенденциям в мире высокопроизводительных вычислений. В частности, реализация поддержки коммутации CXL говорит о том, что разработчики стандарта хорошо знакомы с концепцией дезагрегации серверных ресурсов. Что касается физической модели, то здесь отклонений от PCI Express 5.0 не планируется. Все устройства с поддержкой CXL смогут работать и в «чистом» режиме PCIe, хотя, возможно, с утратой некоторых возможностей.

PLDA уже предлагает IP-блоки с поддержкой CXL 2.0 и PCIe 5.0

PLDA уже предлагает IP-блоки с поддержкой CXL 2.0 и PCIe 5.0

Говорить о рыночных перспективах CXL пока рано, хотя бы потому, что даже реализация 1.0/1.1 требует поддержки PCI Express 5.0, а таких систем на рынке пока нет. Процессоры Intel Sapphire Rapids должны получить такую поддержку, но ожидать их стоит не ранее 2021 года. Ознакомиться подробнее со спецификациями CXL 2.0 можно, отправив запрос по этой ссылке.

Постоянный URL: http://servernews.ru/1025054
10.04.2020 [11:24], Алексей Разин

Процессоры Intel Sapphire Rapids предложат не менее 80 линий PCI Express 5.0

AMD первой предложила массовую поддержку PCI Express 4.0 в серверном сегменте, но Intel будет вводить её поэтапно только с анонсом 10-нм процессоров Ice Lake-SP в конце текущего года. Зато уже в 2021 году, если верить новой информации, процессоры Sapphire Rapids будут иметь до 80 линий PCI Express 5.0 на сокет.

Канал AdoredTV поделился свежей информацией о планах Intel в серверном сегменте, которую источник рекомендует считать исключительной.

Во-первых, подтверждается наличие среди 10-нм процессоров Ice Lake-SP моделей с количеством ядер до 38 штук и поддержкой 64 линий PCI Express 4.0. Об этом говорилось ранее в других источниках, но следует помнить, что в семействе Ice Lake-SP поддержка PCI Express 4.0 может быть не реализована для младших моделей.

Источник изображения: Intel

Источник изображения: Intel

Во-вторых, первоисточник рассказывает о продвигающейся разработке процессоров с условным обозначением Thunder Bay. По всей видимости, это какая-то побочная ветвь эволюции 10-нм процессоров Xeon, которая подразумевает соседство на одной подложке с вычислительными ядрами кристалла с ускорителем нейронных сетей Movidius. Поскольку одноимённая компания была куплена Intel осенью 2016 года, её производственные циклы пока не до конца синхронизированы с материнской компанией.

Допускается вариант, что кристалл ускорителя Movidius, интегрируемый в процессоры Thunder Bay, будет выпускаться компанией TSMC по 7-нм технологии. Подобная инициатива не является первой в истории компании — ранее она имела опыт работы над интеграцией в процессоры Xeon программируемых матриц FPGA.

Наконец, если говорить о платформе Eagle Stream, которая выйдет в 2021 году, то Intel рассчитывает наделить 10-нм процессоры Xeon семейства Sapphire Rapids поддержкой восьмиканальной памяти типа DDR5 и 80 линий PCI Express 5.0 в расчёте на каждый процессорный разъём. Одновременно будет реализована поддержка интерфейса CXL и памяти типа HBM2 актуального для 2021 года поколения.

В однопроцессорных серверных системах могут применяться модели Sapphire Rapids, состоящие из двух идентичных кристаллов. Они предложат до 112 линий PCI Express 5.0. Очевидно, что Intel рассчитывает быстро наверстать тот застой в функциональных возможностях серверных процессоров, который наблюдается сейчас на фоне изделий конкурента.

Постоянный URL: http://servernews.ru/1008082
Система Orphus