Материалы по тегу: cxl

21.11.2021 [01:54], Игорь Осколков

Meta (Facebook) и Intel показали прототип сервера с CXL-памятью: DDR4 поверх PCIe 5.0

На SC21 консорциум CXL не только объявил о поглощении всех наработок Gen-Z, но и представил несколько демо от разных участников консорциума. Одним из самых интересных стал показ прототипа сервера с CXL-памятью от Meta (бывшая Facebook). Доклад о нём был сделан ещё на OCP Global Summit, но вот видеодемонстрация стала публичной только на этой неделе.

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

Перед Meta давно встала проблема увеличения ёмкости и плотности размещения DRAM. Причём у компании, как и других гиперскейлеров, очень жёсткие ограничения на физические размеры, энергопотребление и стоимость систем — создание и содержание парка в миллионы серверов выливается в круглые суммы. Представитель Meta в ходе доклада отметил несколько важных факторов, учитываемых при создании новых платформ.

Здесь и ниже изображения Meta

Здесь и ниже изображения Meta

Так, в последние годы цена за 1 Гбит DRAM перестала существенно падать, поэтому память становится всё более дорогим компонентом в составе сервера. И не только с точки зрения финансов, но и по энергопотреблению, что отрицательно влияет на совокупную стоимость владения (TCO). Кроме того, производительность процессоров заметно выросла, в основном благодаря увеличению числа ядер (в три с лишним раза). Однако пропускная способность памяти в пересчёте на канал в среднем лишь удвоилась, а в пересчёте на ядро — и вовсе упала почти вдвое.

Тем не менее, ядра CPU всё равно надо как-то «прокормить», поэтому приходится искать новые пути масштабирования пула DRAM. Простым увеличением числа DIMM-слотов не обойтись — каждый «лишний» канал памяти обходится в дополнительные пару сотен дорожек в разводке платы, что при росте числа каналов приводит к увеличению числа слоёв материнской платы (и буквально её толщины). А попутное увеличение скорости памяти ведёт к необходимости использования более дорогих материалов и всё тем же проблемам.

Как отмечают некоторые аналитики, платформы следующего поколения с поддержкой DDR5 будут дороже нынешних, но дело не в самой памяти, динамика удешевления которой будет примерно той же, что у DDR4, а именно в необходимости увеличения числа слоёв в материнских платах где-то на треть. Решением мог бы стать переход на последовательные интерфейсы — буферизованная DDIM-память (OMI) уже используется в серверах IBM E1080, но компактной её не назовёшь.

Однако у нас и так уже есть другой, универсальный и широко распространённый последовательный интерфейс — это шина PCI Express 4.0, а в ближайшем будущем и 5.0. Она обеспечивает приемлемую скорость передачи данных, но требует где-то на три четверти меньше сигнальных линий, которые могут иметь бо́льшую протяжённость по сравнению с DDR. Строго говоря, попытки создать PCIe-фабрики для дезагрегации ресурсов уже предприняты, к примеру, GigaIO и Liqid. С приходом CXL это станет ещё проще.

CXL позволит задействовать разные типы памяти с разными характеристиками, используя единый интерфейс. Например, можно с одной и той же платформой использовать и DDR5, и DDR4, и SCM (PMem). Чем-то похожим занимался и консорциум Gen-Z, куда, как ни странно, не входила Intel, которая и стала одним из основателей и апологетов Compute Express Link. С ней-то Meta и работает около года над прототипом нового сервера и платы расширения с DRAM для него.

Прототип использует сервер с инженерным образцом Intel Xeon Sapphire Rapids и стандартную карту расширения для платформы Yosemite v3. Карта с x16-подключением PCIe 5.0 несёт на борту инженерную версию FPGA (вероятно, что-то из серии Agilex) с двумя контроллерами памяти и двумя же слотами DIMM для обычной регистровой DDR4 суммарным объёмом 64 Гбайт. На базе FPGA реализован интерфейс CXL 2.0, который имеет поддержку протокола CXL.memory и даёт расширенные возможности мониторинга и отладки.

При старте системы происходит опрос доступных PCIe-устройств и согласование с ними скоростей и возможностей, после чего становится доступна оперативная память, физически размещённая на карте расширения, а не только локальная DDR5, «привязанная» к процессору. В этом случае система «видит» несколько NUMA-доменов — два от самого CPU и ещё один «безпроцессорный». Прототип успешно проходит все базовые тесты, так что программно-аппаратный стек уже достаточно хорошо проработан.

Постоянный URL: http://servernews.ru/1054197
18.11.2021 [23:45], Алексей Степин

GigaIO FabreX с CXL позволит вынести пулы оперативной памяти за пределы серверов

Компания GigaIO, один из пионеров в области разработки современных компонуемых сред для ЦОД, кластеров и облачных систем, показала на конференции SC21 свои последние разработки и решения. Компания намерена всего через два года создать универсальную компонуемую платформу, которая позволит на лету собирать сервер любой конфигурации из удалённых SSD, GPU, DPU, FPGA и даже DRAM.

Коммутатор GigaIO FabreX

Коммутатор GigaIO FabreX

Использовать в качестве основы такой платформы PCIe-фабрику — идея заманчивая, поскольку эта универсальная, стандартная и используемая сегодня в любых ИТ-системах шина обеспечивает высокую производительность при минимальном уровне задержек. У GigaIO уже есть коммутаторы FabreX с поддержкой PCIe 4.0. А CXL позволит добиться практически идеальной дезагрегации ресурсов. Отдельные стойки будут содержать различные массивы DRAM и SCM, флеш-массивы, ускорители самых разных типов и т.д.

Такие стойки-массивы войдут в общую фабрику FabreX, а уже из неё нужные ресурсы смогут получать как традиционные серверы, так и целые кластеры — технологии GigaIO позволяют крайне гибко разграничивать ресурсы, черпаемые из единого пула и раздавать их разным клиентам в нужных пропорциях. Такой подход напоминает современные облачные системы, к которым может подключиться кто угодно и использовать столько ресурсов нужного типа, сколько надо для данной задачи.

Всё управление траифком берёт на себя FabreX, а в клиентские системы остаётся только установить соответствующие HBA-адаптеры, также разработанные GigaIO. Модули Hydra, показанные компанией в конце 2020 года, обеспечивает пропускную способность до 32 Гбайт/с на слот PCIe 4.0 x16. Для кабельной инфраструктуры FabreX использует стандартные кабели с коннекторами SFF-8644 (возможны как чисто медные варианты, так и активные, с оптическими трансиверами).

К тому же FabreX обеспечивает беспроблемную переброску практически любых протоколов и приложений между любыми узлами, включёнными в сеть — будь то TCP/IP, MPI, NVMe-oF и другие виды трафика. Последним барьером, мешающим достигнуть полной дезагрегации ресурсов GigaIO справедливо считает оперативную память, которая в большинстве систем пока ещё находится на стороне процессоров общего назначения в клиентских серверах. Но в партнёрстве с AMD компания уже работает над этой проблемой.

Попытки вынести оперативную память за пределы серверов снижают производительность даже при использовании RDMA. Однако последние разработки GigaIO для FabreX и интеграция в эту систему стандарта CXL должны позволить использовать истинный прямой NUMA-доступ к памяти, даже если она вынесена за пределы клиентской системы и находится в общем пуле-массиве. Последний барьер к полной дезагрезации ресурсов практически пал.

Таким образом, любой сервер в сети FabreX сможет получить полноценный доступ к любой памяти — соседнего сервера или стойки пула, с минимальным ростом латентности и максимально возможной в рамках PCIe пропускной способностью. Пулинг оперативной памяти с сохранением когерентности кешей, по словам GigaIO, будет реализован в 3 квартале следующего года на базе CXL 1.0. В четвёртом квартале должна появиться поддержка CXL 2.0 с возможностью систем делиться ресурсами памяти между собой, а в начале 2023 года компания планирует внедрить весь спектр возможностей CXL 2.0.

В числе преимуществ FabreX GigaIO также называет использование открытых стандартов, даже собственное ПО GigaIO будет находиться в открытом доступе. Клиенты, уже использующие FabreX, без проблем перейдут на новую версию с CXL, поскольку этот стандарт базируется на PCIe 5.0. Им не потребуется вносить изменения в уже работающие контейнеры, ВМ и прочее ПО, зато они смогут использовать все преимущества FabreX в области дезагрегации ресурсам, включая удалённые пулы DRAM.

Постоянный URL: http://servernews.ru/1054061
10.11.2021 [22:50], Сергей Карасёв

Samsung Poseidon V2 — первая СХД на базе Intel Xeon Sapphire Rapids с DDR5, PCIe 5.0 и CXL

Южнокорейский гигант Samsung представил первый образец системы хранения данных на аппаратной платформе Intel Xeon следующего поколения — Sapphire Rapids. Устройство продемонстрировано в рамках мероприятия OCP Global Summit 2021, которое посвящено открытым проектам в сферах программного и аппаратного обеспечения для центров обработки данных. Новинка разработана совместно с Inspur и Naver Cloud.

Poseidon V2 имеет два процессора Sapphire Rapids, 32 слота для модулей DDR5, а также вмещает до 24 устройств E3.S 1T (в отличие от E1 в Poseidon V1), но корзина совместима и с E3.S 2T. Собственно говоря, хранилищем в традиционно смысле слова эта система не является. Да, она подходит для NVMe SSD с интерфейсом PCIe 5.0 (как PM1743) — обычных NAND и SCM вроде Z-SSD, XL-Flash или Intel Optane — и предлагает быструю реализацию NVMe-oF, в том числе NVMe/TCP.

Poseidon V2 (Здесь и далее изображения Samsung)

Poseidon V2 (Здесь и далее изображения Samsung)

Для 200GbE-подключением к системе Samsung уже удалось достичь скорости последовательных чтения и записи в 24,5 и 18,6 Гбайт/с, а для случайных — 19,4 и 8,7 Гбайт/с соответственно. Однако в форм-факторе E3.S также будут выпускаться и SmartSSD с возможностью самостоятельной обработки данных, и различные ускорители, и DRAM-экспандеры. Последнее возможно благодаря поддержке Сompute Express Link (CXL).

Однако наличие аппаратной поддержки — это полдела. Поэтому Samsung развивает фирменную Poseidon Storage OS. ОС будет отвечать за управлением томами, формирование программных RAID-массивов, мониторинг и профилирование производительности и так далее. Кроме того, она предложит функцию высокой доступности (2 узла), многопутевое (multi-path) подключение и будет принимать во внимание неравномерность доступа к памяти (NUMA). Разработчикам будут доступны открытые API.

Старт массового производства Poseidon V2 намечен на III квартал 2022 года, а в IV квартале Samsung планирует передать OCP все наработки по проекту. Строго говоря, большая часть компонентов новинки уже сделана в соотвествии со стандартами OCP, так что этот процесс вряд ли затянется.

Постоянный URL: http://servernews.ru/1053369
08.10.2021 [23:39], Алексей Степин

Samsung Scalable Memory Development Kit —  первая открытая платформа для CXL-памяти

CXL (Сompute Express Link) позволит создавать единые пулы памяти огромного объёма, и один из первых шагов к разработке таких решений сделала Samsung, представившая сначала память DDR5 в новом форм-факторе, а теперь и Scalable Memory Development Kit, набор разработчика для работы с такой памятью.

В основе CXL электрически и логически лежит PCI Expresss 5.0, однако Сompute Express Link идёт дальше. Это не просто шина «точка-точка» для подключения периферийных устройств, таких как ускорители или сетевые сопроцессоры, но полноценный универсальный интерфейс, способный, в частности, стереть различия между «накопителями» и «оперативной памятью» в их классическом понимании.

При этом массив памяти не обязательно должен располагаться в пределах корпуса системы: CXL поддерживает кеширование и имеет развитые средства шифрования, так что «шкаф памяти» может быть расположен и отдельно. Это открывает дорогу к созданию систем с невиданными ранее, петабайтными объёмами пулов памяти. И не последнюю роль в этом сыграла компания Samsung.

CXL открывает дорогу к созданию высокопроизводительных универсальных пулов памяти

CXL открывает дорогу к созданию высокопроизводительных универсальных пулов памяти

Ещё в мае этого года Samsung представила первый экспандер, совместимый со стандартом CXL 2.0 — устройство, позволяющее расширять объём оперативной памяти сервера за счёт специальных CXL-модулей DDR5. А сейчас эта платформа стала ещё ближе к воплощению: компания объявила о доступности комплекта разработки Scalable Memory Development Kit (SMDK), позволяющего бесшовно состыковать основной пул оперативной памяти и CXL-модули.

Архитектура Samsung SMDK

Архитектура Samsung SMDK

SMDK включает два набора API, один из которых позволяет использовать CXL-память без модификации ОС и ПО. Но это временное решение, в состав также входит и набор оптимизированных API, позволяющий извлечь из новой технологии максимум. Платформа поддерживает виртуализацию массивов памяти и имеет продвинутые механизмы многоуровневой иерархии (tiering), реализованные с помощью фирменного движка Intelligent Tiering Engine (ITE), который учитывает тип памяти, её ёмкость, пропускную способность и уровень задержки доступа.

Само ПО SMDK базируется на открытом коде, причём компания планирует открыть и код ITE. Полностью поддерживаются устройства других производителей, при условии, что они отвечают спецификациям PCIe/CXL. Пока новые средства разработки доступны для предварительного тестирования, полностью открытыми они должны стать в первой половине следующего года. Над похожими технологиями работают и другие компании, например, VMware, представившая на днях Project Capitola, технологию программно определяемых массивов памяти.

Постоянный URL: http://servernews.ru/1050908
06.10.2021 [16:07], Алексей Степин

VMware представила Project Capitola, технологию программно определяемых массивов памяти

Интерес к программно определяемым решениям в наши дни высок, как никогда, поскольку такой подход обеспечивает максимальную гибкость и требует минимум затрат на поддержание инфраструктуры. Вслед за Kioxia с её программно-определяемыми SSD своё видение представила компания VMware с фирменной технологией Project Capitola.

VMware является одним из крупнейших игроков на рынке виртуализации и вполне естественно, что компания заинтересована в продвижении своей платформы vSphere. Для этого она должна соответствовать современным требованиям и обеспечивать как можно меньшую стоимость владения, чего можно добиться унификацией программной и аппаратной инфраструктуры.

Project Capitola был анонсирован на мероприятии VMworld 2021. В двух словах его суть заключается в агрегации всех ресурсов памяти, будь то DRAM, SCM (Optane, Z-SSD или, например, XL-Flash), CXL-модули, NVMe или даже СХД с RoCE в единый пул, с которым виртуальные машины смогут работать прозрачно. Отдельно отметим, что в качестве аппаратной инфраструктуры предполагается использовать в первую очередь именно CXL.

VMware Capitola объединит под одной крышей самые разные типы памяти

VMware Capitola объединит под одной крышей самые разные типы памяти

Разумеется, разные виды памяти в этом списке имеют существенно различающиеся линейные скорости, времена отклика и производительность на случайных операциях. Но разработчики подумали об этом, и в Project Capitola предусмотрен механизм многоуровневой иерархии (tiering) таких неоднородных массивов.

В настоящий момент VMware продвигает Project Capitola, сотрудничая с множеством компаний. В этот список входят производители памяти и накопителей (Intel, Samsung и Micron), крупные поставщики серверного оборудования (Dell, HPE, Cisco и Lenovo), а также провайдеры ЦОД-услуг, например, Equinix. Отзывы партнёров весьма положительны и, вероятно, Project Capitola сможет стать новым стандартом в индустрии.

Постоянный URL: http://servernews.ru/1050662
27.09.2021 [15:40], Сергей Карасёв

Консорциум CXL и PCI-SIG подписали меморандум о взаимопонимании

CXL Consortium и PCI-SIG объявили о подписании меморандума о взаимопонимании (MOU), целью которого является формирование связи между двумя организациями. Предполагается, что соглашение поможет наладить обмен информационными сообщениями и реализовать маркетинговые инициативы в сферах совместного интереса.

Некоммерческая организация PCI-SIG (PCI Special Interest Group) отвечает за развитие и управление стандартами передачи данных, использующими шину PCI (Peripheral Component Interconnect) Express. В эту ассоциацию входят более 800 компаний, в том числе такие гиганты, как AMD, Intel, НР, NVIDIA и др.

PCI-SIG

PCI-SIG

Консорциум CXL, в свою очередь, продвигает технологию Compute Express Link (CXL). Это высокоскоростной интерконнект, обеспечивающий взаимодействие хост-процессора с акселераторами, буферами памяти, умными устройствами ввода/вывода и пр. В основе CXL лежат физический и электрический интерфейсы PCI Express (PCIe).

В рамках меморандума о взаимопонимании CXL Consortium и PCI-SIG будут координировать свои маркетинговые инициативы. Это поможет доносить информацию о самих организациях, их деятельности и новых спецификациях до сообщества разработчиков и компьютерной отрасли. Кроме того, стороны будут взаимодействовать при создании контента для вебинаров, семинаров, различных рабочих встреч и презентаций. Будут также готовиться совместные статьи, пресс-релизы и другие публикации.

Постоянный URL: http://servernews.ru/1049980
20.08.2021 [17:50], Алексей Степин

Intel: CXL откроет путь к дезагрегированным и компонуемым системам с петабайтными пулами памяти

Идея дезагрегации имеет ряд преимуществ, но также выдвигает и определённые требования к реализации, в частности — требуется высокая производительность и низкая латентность среды, объединяющей компоненты стойки или стоек. В роли такой среды компания Intel видит стандарт Сompute Express Link (CXL).

CXL, работающий поверх PCI Express 5.0, представляет собой унифицированный интерфейс, способный работать в различных топологиях и имеющий средства шифрования. Он подходит для реализации Load/Store-нагрузок, причём в сравнении с традиционными сетевыми решения он намного быстрее именно в плане времени отклика, обеспечивая задержки менее 10 нс против типовых 20 – 100+ нс.

CXL и PCIe 5.0: два стандарта, одна инфраструктура

CXL и PCIe 5.0: два стандарта, одна инфраструктура

Это уже позволяет напрямую работать с массивами оперативной памяти, но Intel говорит о том, что с помощью CXL память может быть вынесена и за пределы узла без потери производительности. В частности, обычная шина PCIe не занимается кешированием памяти, подключённой к ней, а не напрямую к CPU. Имеются проблемы с распределением ресурсов в гетерогенных и дезагрегированных системах. И всё это дополняет «зоопарк» из разных, несовместимых между собой типов памяти. Переход на CXL решает все эти проблемы.

CXL не требует DMA, поддерживает кеширование и позволяет использовать быструю модель Memory Load/Store

CXL не требует DMA, поддерживает кеширование и позволяет использовать быструю модель Memory Load/Store

Новый стандарт является открытым, консорциум CXL уже включает в себя более 150 компаний-разработчиков и производителей оборудования; в него входят все игроки на рынке CPU и GPU. Возможности PCIe 5.0, лежащие в основе CXL, достаточны, чтобы вынести пул DRAM-памяти за пределы сервера, причём процессоры серверов в CXL-стойке смогут работать с таким пулом как с локальным благодаря поддержке write-back кеширования.

Архитектура дезагрегированной серверной стойки, использующей CXL

Архитектура дезагрегированной серверной стойки, использующей CXL

Такой подход позволит обойти традиционные ограничения, такие, как количество слотов DIMM на процессор, и, как мы знаем, первые CXL-модули памяти DDR5 уже существуют. И не только модули памяти — CXL предполагает единый стандарт и для подключения сетевых адаптеров, различных ускорителей на базе GPU и FPGA, а также и накопителей, как на базе Optane, так и привычной NAND-памяти. Иными словами, на уровне стойки масштабирование предельно упростится, а значит, и удешевится.

В перспективе речь может идти и о более высоком уровне, едином для всего кластера многоуровневым пуле памяти с объёмом, достигающем петайбайтного порядка, при этом поддерживающем горячую замену модулей. С такими преимуществами CXL может вытеснить из мира серверов традиционную архитектуру CPU-память-сеть, но для этого потребуется широкое внедрение CXL 2.0, а первые устройства, которые появятся в следующем году, пока поддерживают лишь CXL 1.0/1.1.

Пока что на пути в это светлое будущее есть целый ряд препятствий, касающихся инфраструктуры. Так, на рынке уже есть коммутаторы PCIe 4.0 вроде GigaIO FabreX. Но они недшёвы и предлагают относительно небольшое число портов. Помимо того, что для PCIe 5.0 понадобятся новые решения для сохранения целостности сигнала, придётся как-то решать задачу повышения отказоустойчивости, поскольку в такой архитектуре отказ единого пула памяти повлияет на несколько машин сразу.

Постоянный URL: http://servernews.ru/1047144
14.05.2021 [00:05], Алексей Степин

Samsung открывает эру CXL-памяти DDR5

Современная индустрия серверов и HPC нуждается в универсальном высокоскоростном интерфейсе, и таким интерфейсом должен стать Compute Express Link, базирующийся на возможностях протокола PCI Express 5.0. Мы рассказывали читателям об этой технологии ещё в начале года — тогда речь шла лишь о демонстрационной платформе, но сейчас разработчики аппаратного обеспечения анонсируют первые продукты, использующие CXL.

Как известно, современные вычислительные системы используют для шину PCI Express на коротких дистанциях; на длинных это, как правило, Ethernet или InfiniBand. Но остаётся один участок, который традиционно не охвачен каким-либо унифицированным интерфейсом, и это участок, связывающий процессоры с оперативной памятью. CXL позволяет унифицировать и этот момент, и компания Samsung уже анонсировала первые модули памяти в новом формате.

В эпоху популярности систем машинной аналитики, обучения и вычислений in-memory объёмы DRAM (и PMem) в серверных системах серьёзно выросли, но традиционный подход к расширению оперативной памяти содержит ряд проблем: это и большое количество контактов, и ограниченное число модулей памяти на канал. Производителям приходится искать баланс между скоростью, объёмом и физическими размерами памяти.

Стандарт CXL шире, нежели PCI Express, с его помощью возможна реализация различных топологий, а не только подключений «точка-точка». Причём дезагрегация ресурсов возможно не только в пределах шасси, но и в пределах стойки и далее (при наличии CXL-коммутатора с «оптикой»). Впрочем, главное в данном случае — поддержка протокола CXL.memory, причём с версии 2.0 с полным шифрованием.

Новые модули Samsung работают по третьему сценарию использования CXL

В режиме CXL.memory подключённый к шине пул DRAM может объединяться с системным пулом оперативной памяти в единое пространство или делиться между другими устройствами (FPGA). При этом целью может ставиться как увеличение пропускной способности, так и наращивание объёмов до нескольких терабайт и более. Этот режим и реализован Samsung в новых модулях. Внешне они напоминают SSD, но в основе новинки лежит новый стандарт DDR5.

Такой модуль подключается к системе с помощью 16 линий PCIe 5.0, которые имеют суммарную пропускную способность 63 Гбайт/с. Более детальной информации о новых модулях Samsung CXL DDR5 пока мало, но очевидно, что при серьёзных объёмах DRAM такие модули потребуют и достаточно серьёзного охлаждения. Ожидается, что тепловыделение модуля объёмом 2 Тбайт может достигать 70-80 Вт, хотя выбранный форм-фактор (E3.S 2T) предполагает TDP на уровне 40 Вт.

Такой форм-фактор позволит свободно комбинировать DRAM, SCM и SSD в 2U-шасси, что позволит выбрать необходимое для конкретной нагрузки сочетание ёмкости и производительности. Интересно, появятся ли аналогичные DRAM-модули и в формате E1, который актуален для 1U-шасси, edge-систем, а также для высокоплотных HPC-решений.

Согласно официальному заявлению, новые модули успешно прошли квалификационное тестирование на некоей «серверной платформе Intel следующего поколения», однако больше никаких деталей Samsung пока не сообщает. Также известно, что компания сотрудничает и с AMD. О каких платформах идёт речь, сказать сейчас сложно, ведь даже Intel Sapphire Rapids будет поддерживать лишь CXL 1.1.

Отметим, что похожий подход предлагают и CCIX, и Gen-Z. Причём для Gen-Z ещё в 2019 году SMART Modular представила первый DRAM-модуль с DDR4, и тоже в форм-факторе E3. Впрочем, с тех пор CXL и Gen-Z успели «подружиться», да и Synopsys в своих IP-решениях позволяется совмещать CCIX и CXL. Альтернативный подход к наращиванию ёмкости памяти предлагает IBM — DDIMM-модули с интерфейсом OMI (Open Memory Interface).

Постоянный URL: http://servernews.ru/1039504
11.01.2021 [20:24], Алексей Степин

Экосистема PCI Express 5.0 и CXL расширяется: PLDA продемонстрировала работу XpressLINK с Intel Xeon Sapphire Rapids

Потребность в более скоростных интерфейсах существовала в мире ИТ всегда, но за последние годы она обострилась: третья версия PCI Express пробыла с нами почти десятилетие, и лишь сейчас, проводив 2020 год, можно сказать о сколько-нибудь заметном распространении PCI Express 4.0.

Урок усвоен и с PCIe 5.0 аналогичной истории не повторится: практически все разработчики процессоров и прочих компонентов изначально закладывают поддержку пятой версии в свои новые решения. Среди лидеров в этой области — компания PLDA, продемонстрировавшая работоспособность своих компонентов PCI Express 5.0 и CXL.

Говоря о CXL, мы неизбежно подразумеваем PCIe 5.0 — именно PCI Express пятой версии является физической основой нового протокола скоростных межсоединений Compute Express Link. CXL дополняет PCIe 5.0 рядом интересных и востребованных в мире HPC возможностей, но речь сейчас не об этом, а о том, что родственность стандартов упрощает разработку IP-блоков с их поддержкой.

Компания PLDA является активным разработчиком IP-модулей, причём, специализируется она именно на высокоскоростных интерфейсах, участвуя в разработке стандарта PCI Express c 2001 года.  Стандарты, сколь угодно совершенные в теории, мертвы без реального работоспособного «кремния», и здесь PLDA оказалась в числе лидеров, успешно продемонстрировав работу своего контроллера PCI Express 5.0 и доказав работоспособность CXL в системах на базе инженерных образцов Intel Sapphire Rapids.

Один из демонстрационных стендов CXL 2.0

Один из демонстрационных стендов CXL 2.0

Следует отметить, что контроллер PLDA XpressRICH не монолитен, за физическую часть (PHY) в демонстрационной системе отвечал блок, разработанный Broadcom. Несмотря на это, IP-модули продемонстрировали слаженную работу и целостность сигнала в различных тестовых сценариях. PLDA утверждает, что данную связку разработчики новых SoC могут использовать смело — качество работы гарантируется.

Две тестовые платы успешно устанавливали стабильную связь на скорости 32 ГТ/с, для тестирования были использованы компоненты Xilinx Vivado ILA и анализатор PCIe Viavi. Также контроллер PLDA без проблем работал в режиме совместимости с предыдущими версиями PCIe на скоростях 16, 8, 5 и 2,5 ГТ/с.

Архитектура контроллера CXL 2.0, созданного PLDA

Архитектура контроллера CXL 2.0, созданного PLDA

Демонстрация CXL использовала другой набор компонентов. В этом сценарии разработка PLDA под названием XpressLINK была воплощена в ПЛИС на PCIe-платах. Новый контроллер поддерживает все основные суб-протоколы CXL, описанные в версии 2.0: CXL.io, CXL.cache и CXL.mem. Платформой здесь послужили системы, оснащённые прототипами процессоров Intel Xeon Sapphire Rapids.

Демонстрация, проведённая в рамках давнего сотрудничества PLDA и подразделения Intel Industry Enabling Labs, показала полную работоспособность новинок, а также доказала, что контроллер CXL обеспечивает самую низкую латентность в своём классе. Последнее крайне важно, поскольку CXL пророчат в качестве основы для суперкомпьютеров и кластерных систем нового поколения.

Контроллер PLDA XpressLINK может быть реализован в качестве строительного блока для SoC, как отдельный ASIC-чип, а также в виде ПЛИС. Он доступен для лицензирования, чем уже воспользовались некоторые крупные разработчики микроэлектроники.

Постоянный URL: http://servernews.ru/1029751
24.12.2020 [20:11], Алексей Степин

Synopsys предлагает полный спектр IP-решений для CXL

Новый стандарт шины CXL (Compute Express Link) хорош тем, что базируется на уже давно устоявшемся и общепринятом стандарте PCI Express, который способен обеспечить высокие скорости обмена данными и минимальную латентность. Версия 2.0 стандарта CXL была финализирована совсем недавно, в ноябре этого года, и мы опубликовали посвящённую этому событию заметку.

Напомним основные тезисы CXL 2.0. В основе новой версии по-прежнему лежит PCI Express 5.0, однако в ней реализована более сложная, многоуровневая структура взаимодействия узлов сети. Появилась поддержка коммутирования и шифрования, а также возможность работы с устройствами «постоянной памяти» (persistent memory), такими как, например, Optane DCPMM. Предусмотрена возможность управляемого горячего подключения, что немаловажно, поскольку позволяет минимизировать время простоя и ввода в строй новых вычислительных узлов в системе.

На сегодняшний момент CXL имеет самую большую армию сторонников: в разработке участвуют более 120 компаний. Для сравнения, потенциально конкурирующий стандарт CCIX может похвастаться примерно 50 участниками, Gen-Z насчитывает около 70 участников, а OpenCAPI — лишь 38. Впрочем, между CXL и Gen-Z в настоящее время подписан «меморандум взаимопонимания». Также называется возможность совместного использования CCIX и CXL, подобно тому, как Ethernet может работать поверх InfiniBand.

Конечно, всё это не гарантия того, что CXL обязательно победит, но шансы на победу достаточно высокие, особенно если учесть, что в составе совета директоров CXL принимают участие AMD, ARM, Intel и IBM. Помогает в продвижении стандарта компания Synopsys, весьма известный и солидный разработчик IP-решений. Из достижений компании 2020 года можно назвать набор инструментов для создания аналоговых чипов машинного обучения (совместно с IBM), новые 64-битные ядра ARC и интерфейс для памяти HBM2E.

Для CXL компания создала первую законченную реализацию стандарта ещё в 2019 году. Сейчас Synopsys объявила о новых IP-блоках CXL DesignWare, поддерживающих протокол AMBA CXS и позволяющих бесшовно интегрировать шины CXL и ARM Neoverse Coherent Mesh Network. С растущей популярностью серверных процессоров на базе ARM это даёт CXL ещё одно важное преимущество.

Отметим, что новые IP-блоки способны работать на скорости 32 ГТ/с при 512-битной ширине шины. Поддерживаются конфигурации от x1 до x16, включая варианты с бифуркацией линий PCIe 5.0. Реализация физического уровня (PHY) уже сейчас описывается для широкого круга техпроцессов FinFET. Страницы, посвящённые новому контроллеру CXL, DesignWare CXL IP и верификация IP для AMBA CXS доступны по соответствующим ссылкам.

Постоянный URL: http://servernews.ru/1028711
Система Orphus