Материалы по тегу: ram

15.12.2021 [15:01], Сергей Карасёв

Team Group представила модули памяти DDR5 промышленного класса

Компания Team Group анонсировала модули оперативной памяти стандарта DDR5-6400, предназначенные для использования в серверах и другом промышленном оборудовании. Дебютировали изделия DIMM и R-DIMM ёмкостью до 128 Гбайт. Они функционируют при напряжении питания 1,1 В и оснащены чипом с функцией управления энергоснабжением. Этот делает работу модулей более стабильной и эффективной, а также позволяет сократить расход энергии.

Источник изображений: TeamGroup

Источник изображений: TeamGroup

TeamGroup отмечает, что её ассортимент DDR5-модулей уже включает изделия U-DIMM, SO-DIMM и WT-DIMM (Wide Temperature — с широким температурным диапазоном). Они поступили в массовое производство после того, как образцы были разосланы заказчикам в третьем квартале текущего года. Тестирование DDR5 на совместимость с серверными платформами запланировано на первую четверть следующего года.

Постоянный URL: http://servernews.ru/1055971
11.12.2021 [01:16], Илья Коваль

AMD EPYC Genoa получат 12 каналов памяти и поддержку DDR5-5200

Летняя утечка характеристик будущих серверных процессоров AMD EPYC Genoa на базе архитектуры Zen4 получает всё новые подтверждения. Месяц назад AMD официально сообщила, что эти CPU получат до 96 ядер, то есть в полтора раза больше, чем у EPYC Milan/Rome. А выпущенные недавно патчи для ядра Linux показали, что «модели 10h-1Fh и A0h-AFh семейства 19h» будут иметь до 12 CCD. Из них же стало понятно, что и каналов памяти у новых процессоров тоже станет в полтора раза больше — 12.

Ну а сегодня издание ComputerBase поделилось таблицей с возможными конфигурациями модулей памяти. Из неё, в частности, следует, что новые процессоры будут поддерживать DDR5-5200, причём не только в виде одноранговых RDIMM, но и четырёх- или восьмиранговых LRDIMM. Правда, в последнем случае при использовании массовых 128-Гбайт модулей максимальный объём памяти на сокет не превысит 1,5 Тбайт.

Источник: Twitter/HansDeVriesNL

Источник: Twitter/HansDeVriesNL

Однако, если верить таблице, DDR5-5200 будет доступна только в режиме 1DPC (один модуль на канал) и только с более дорогой памятью. А в случае 2DPC пределом будет уже DDR5-4800. Причём сейчас трудно сказать, заработает ли память в этом режиме на более высоких частотах (как это было на практике с Milan), поскольку требования к разводке плат и целостности сигнала стали намного выше, что, к слову, скажется на их цене.

Источник: ComputerBase

Источник: ComputerBase

Если же важна не скорость, а объём, то 16-ранговыми (это уже строго 3DS RDIMM) модулями DDR5-4000 в режиме 2DPC можно набрать аж 12 Тбайт RAM. Для этого понадобятся уже 512-Гбайт модули. Такие, например, готовит Samsung. Впрочем, внедрение поддержки CXL новыми серверными платформами AMD и Intel в будущем потенциально упростит наращивание объёмов доступной серверам памяти в обмен на некоторые снижение её скорости и увеличение задержек. Осталось узнать, сколько на самом деле линий PCIe 5.0 получат EPYC Genoa и сколько из них будут поддерживать CXL.

Постоянный URL: http://servernews.ru/1055728
21.11.2021 [01:54], Игорь Осколков

Meta (Facebook) и Intel показали прототип сервера с CXL-памятью: DDR4 поверх PCIe 5.0

На SC21 консорциум CXL не только объявил о поглощении всех наработок Gen-Z, но и представил несколько демо от разных участников консорциума. Одним из самых интересных стал показ прототипа сервера с CXL-памятью от Meta (бывшая Facebook). Доклад о нём был сделан ещё на OCP Global Summit, но вот видеодемонстрация стала публичной только на этой неделе.

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

Перед Meta давно встала проблема увеличения ёмкости и плотности размещения DRAM. Причём у компании, как и других гиперскейлеров, очень жёсткие ограничения на физические размеры, энергопотребление и стоимость систем — создание и содержание парка в миллионы серверов выливается в круглые суммы. Представитель Meta в ходе доклада отметил несколько важных факторов, учитываемых при создании новых платформ.

Здесь и ниже изображения Meta

Здесь и ниже изображения Meta

Так, в последние годы цена за 1 Гбит DRAM перестала существенно падать, поэтому память становится всё более дорогим компонентом в составе сервера. И не только с точки зрения финансов, но и по энергопотреблению, что отрицательно влияет на совокупную стоимость владения (TCO). Кроме того, производительность процессоров заметно выросла, в основном благодаря увеличению числа ядер (в три с лишним раза). Однако пропускная способность памяти в пересчёте на канал в среднем лишь удвоилась, а в пересчёте на ядро — и вовсе упала почти вдвое.

Тем не менее, ядра CPU всё равно надо как-то «прокормить», поэтому приходится искать новые пути масштабирования пула DRAM. Простым увеличением числа DIMM-слотов не обойтись — каждый «лишний» канал памяти обходится в дополнительные пару сотен дорожек в разводке платы, что при росте числа каналов приводит к увеличению числа слоёв материнской платы (и буквально её толщины). А попутное увеличение скорости памяти ведёт к необходимости использования более дорогих материалов и всё тем же проблемам.

Как отмечают некоторые аналитики, платформы следующего поколения с поддержкой DDR5 будут дороже нынешних, но дело не в самой памяти, динамика удешевления которой будет примерно той же, что у DDR4, а именно в необходимости увеличения числа слоёв в материнских платах где-то на треть. Решением мог бы стать переход на последовательные интерфейсы — буферизованная DDIM-память (OMI) уже используется в серверах IBM E1080, но компактной её не назовёшь.

Однако у нас и так уже есть другой, универсальный и широко распространённый последовательный интерфейс — это шина PCI Express 4.0, а в ближайшем будущем и 5.0. Она обеспечивает приемлемую скорость передачи данных, но требует где-то на три четверти меньше сигнальных линий, которые могут иметь бо́льшую протяжённость по сравнению с DDR. Строго говоря, попытки создать PCIe-фабрики для дезагрегации ресурсов уже предприняты, к примеру, GigaIO и Liqid. С приходом CXL это станет ещё проще.

CXL позволит задействовать разные типы памяти с разными характеристиками, используя единый интерфейс. Например, можно с одной и той же платформой использовать и DDR5, и DDR4, и SCM (PMem). Чем-то похожим занимался и консорциум Gen-Z, куда, как ни странно, не входила Intel, которая и стала одним из основателей и апологетов Compute Express Link. С ней-то Meta и работает около года над прототипом нового сервера и платы расширения с DRAM для него.

Прототип использует сервер с инженерным образцом Intel Xeon Sapphire Rapids и стандартную карту расширения для платформы Yosemite v3. Карта с x16-подключением PCIe 5.0 несёт на борту инженерную версию FPGA (вероятно, что-то из серии Agilex) с двумя контроллерами памяти и двумя же слотами DIMM для обычной регистровой DDR4 суммарным объёмом 64 Гбайт. На базе FPGA реализован интерфейс CXL 2.0, который имеет поддержку протокола CXL.memory и даёт расширенные возможности мониторинга и отладки.

При старте системы происходит опрос доступных PCIe-устройств и согласование с ними скоростей и возможностей, после чего становится доступна оперативная память, физически размещённая на карте расширения, а не только локальная DDR5, «привязанная» к процессору. В этом случае система «видит» несколько NUMA-доменов — два от самого CPU и ещё один «безпроцессорный». Прототип успешно проходит все базовые тесты, так что программно-аппаратный стек уже достаточно хорошо проработан.

Постоянный URL: http://servernews.ru/1054197
18.11.2021 [23:45], Алексей Степин

GigaIO FabreX с CXL позволит вынести пулы оперативной памяти за пределы серверов

Компания GigaIO, один из пионеров в области разработки современных компонуемых сред для ЦОД, кластеров и облачных систем, показала на конференции SC21 свои последние разработки и решения. Компания намерена всего через два года создать универсальную компонуемую платформу, которая позволит на лету собирать сервер любой конфигурации из удалённых SSD, GPU, DPU, FPGA и даже DRAM.

Коммутатор GigaIO FabreX

Коммутатор GigaIO FabreX

Использовать в качестве основы такой платформы PCIe-фабрику — идея заманчивая, поскольку эта универсальная, стандартная и используемая сегодня в любых ИТ-системах шина обеспечивает высокую производительность при минимальном уровне задержек. У GigaIO уже есть коммутаторы FabreX с поддержкой PCIe 4.0. А CXL позволит добиться практически идеальной дезагрегации ресурсов. Отдельные стойки будут содержать различные массивы DRAM и SCM, флеш-массивы, ускорители самых разных типов и т.д.

Такие стойки-массивы войдут в общую фабрику FabreX, а уже из неё нужные ресурсы смогут получать как традиционные серверы, так и целые кластеры — технологии GigaIO позволяют крайне гибко разграничивать ресурсы, черпаемые из единого пула и раздавать их разным клиентам в нужных пропорциях. Такой подход напоминает современные облачные системы, к которым может подключиться кто угодно и использовать столько ресурсов нужного типа, сколько надо для данной задачи.

Всё управление траифком берёт на себя FabreX, а в клиентские системы остаётся только установить соответствующие HBA-адаптеры, также разработанные GigaIO. Модули Hydra, показанные компанией в конце 2020 года, обеспечивает пропускную способность до 32 Гбайт/с на слот PCIe 4.0 x16. Для кабельной инфраструктуры FabreX использует стандартные кабели с коннекторами SFF-8644 (возможны как чисто медные варианты, так и активные, с оптическими трансиверами).

К тому же FabreX обеспечивает беспроблемную переброску практически любых протоколов и приложений между любыми узлами, включёнными в сеть — будь то TCP/IP, MPI, NVMe-oF и другие виды трафика. Последним барьером, мешающим достигнуть полной дезагрегации ресурсов GigaIO справедливо считает оперативную память, которая в большинстве систем пока ещё находится на стороне процессоров общего назначения в клиентских серверах. Но в партнёрстве с AMD компания уже работает над этой проблемой.

Попытки вынести оперативную память за пределы серверов снижают производительность даже при использовании RDMA. Однако последние разработки GigaIO для FabreX и интеграция в эту систему стандарта CXL должны позволить использовать истинный прямой NUMA-доступ к памяти, даже если она вынесена за пределы клиентской системы и находится в общем пуле-массиве. Последний барьер к полной дезагрезации ресурсов практически пал.

Таким образом, любой сервер в сети FabreX сможет получить полноценный доступ к любой памяти — соседнего сервера или стойки пула, с минимальным ростом латентности и максимально возможной в рамках PCIe пропускной способностью. Пулинг оперативной памяти с сохранением когерентности кешей, по словам GigaIO, будет реализован в 3 квартале следующего года на базе CXL 1.0. В четвёртом квартале должна появиться поддержка CXL 2.0 с возможностью систем делиться ресурсами памяти между собой, а в начале 2023 года компания планирует внедрить весь спектр возможностей CXL 2.0.

В числе преимуществ FabreX GigaIO также называет использование открытых стандартов, даже собственное ПО GigaIO будет находиться в открытом доступе. Клиенты, уже использующие FabreX, без проблем перейдут на новую версию с CXL, поскольку этот стандарт базируется на PCIe 5.0. Им не потребуется вносить изменения в уже работающие контейнеры, ВМ и прочее ПО, зато они смогут использовать все преимущества FabreX в области дезагрегации ресурсам, включая удалённые пулы DRAM.

Постоянный URL: http://servernews.ru/1054061
14.10.2021 [12:17], Николай Хижняк

Rambus представила чип RCD 2-го поколения, который позволит создавать серверные модули DDR5-5600

Компания Rambus выпустила второе поколение регистровых драйверов (RCD) для памяти DDR5 — ключевых компонентов, которые позволят производителям памяти выпускать серверные модули регистровой (буферизированной, RDIMM) ОЗУ DDR5 со скоростью передачи данных до 5600 МТ/с (мегатранзакций в секунду).

Компания уже выпускает микросхемы RCD первого поколения для модулей памяти RDIMM DDR5-4800, которые будут использоваться в модулях ОЗУ, предназначенных для систем на базе грядущих серверных процессоров Intel Xeon Scalable 4-го поколения с кодовым именем Sapphire Rapids и других поддерживаемых платформ. Второе поколение RCD ориентировано на использование в составе RDIMM- и LRDIMM-модулей ОЗУ с эффективной частотой до 5600 МГц.

Источник изображений: Rambus

Источник изображений: Rambus

Модуль RCD представляет собой буферный компонент, который располагается между контроллером памяти и чипами памяти DRAM и перераспределяет команды и сигналы адресов внутри модуля для обеспечения целостности этих сигналов, а также позволяя подключать больше запоминающий устройств к одному каналу DRAM. Поскольку RCD является буфером, он естественно увеличивает задержки в работе ОЗУ. Для корректной работы драйвер требует поддержки определённого уровня передачи данных.

В Rambus отмечают, что второе поколение RCD для памяти DDR5 не только на 17 % процентов увеличивает пиковую пропускную способность памяти, но также оптимизирует задержки для повышения реальной производительности RDIMM-модулей памяти и повышает их энергоэффективность.

Компания уже готова поставлять микросхемы регистрового драйвера (RCD) второе поколение для памяти DDR5 производителям ОЗУ. Когда появятся первые модули ОЗУ DDR5-5600 RDIMM и LRDIMM на его основе — пока неизвестно. Весьма вероятно, что произойдёт это вместе с релизом серверных процессоров, поддерживающих скорость передачи данных DDR5 до 5600 МТ/с.

Постоянный URL: http://servernews.ru/1051249
08.10.2021 [23:39], Алексей Степин

Samsung Scalable Memory Development Kit —  первая открытая платформа для CXL-памяти

CXL (Сompute Express Link) позволит создавать единые пулы памяти огромного объёма, и один из первых шагов к разработке таких решений сделала Samsung, представившая сначала память DDR5 в новом форм-факторе, а теперь и Scalable Memory Development Kit, набор разработчика для работы с такой памятью.

В основе CXL электрически и логически лежит PCI Expresss 5.0, однако Сompute Express Link идёт дальше. Это не просто шина «точка-точка» для подключения периферийных устройств, таких как ускорители или сетевые сопроцессоры, но полноценный универсальный интерфейс, способный, в частности, стереть различия между «накопителями» и «оперативной памятью» в их классическом понимании.

При этом массив памяти не обязательно должен располагаться в пределах корпуса системы: CXL поддерживает кеширование и имеет развитые средства шифрования, так что «шкаф памяти» может быть расположен и отдельно. Это открывает дорогу к созданию систем с невиданными ранее, петабайтными объёмами пулов памяти. И не последнюю роль в этом сыграла компания Samsung.

CXL открывает дорогу к созданию высокопроизводительных универсальных пулов памяти

CXL открывает дорогу к созданию высокопроизводительных универсальных пулов памяти

Ещё в мае этого года Samsung представила первый экспандер, совместимый со стандартом CXL 2.0 — устройство, позволяющее расширять объём оперативной памяти сервера за счёт специальных CXL-модулей DDR5. А сейчас эта платформа стала ещё ближе к воплощению: компания объявила о доступности комплекта разработки Scalable Memory Development Kit (SMDK), позволяющего бесшовно состыковать основной пул оперативной памяти и CXL-модули.

Архитектура Samsung SMDK

Архитектура Samsung SMDK

SMDK включает два набора API, один из которых позволяет использовать CXL-память без модификации ОС и ПО. Но это временное решение, в состав также входит и набор оптимизированных API, позволяющий извлечь из новой технологии максимум. Платформа поддерживает виртуализацию массивов памяти и имеет продвинутые механизмы многоуровневой иерархии (tiering), реализованные с помощью фирменного движка Intelligent Tiering Engine (ITE), который учитывает тип памяти, её ёмкость, пропускную способность и уровень задержки доступа.

Само ПО SMDK базируется на открытом коде, причём компания планирует открыть и код ITE. Полностью поддерживаются устройства других производителей, при условии, что они отвечают спецификациям PCIe/CXL. Пока новые средства разработки доступны для предварительного тестирования, полностью открытыми они должны стать в первой половине следующего года. Над похожими технологиями работают и другие компании, например, VMware, представившая на днях Project Capitola, технологию программно определяемых массивов памяти.

Постоянный URL: http://servernews.ru/1050908
06.10.2021 [20:24], Алексей Степин

NeuroBlade представила память XRAM со встроенным ускорителем вычислений

Молодая израильская компания NeuroBlade «вышла из тени», представив свой первый продукт — ускоритель для задач машинной аналитики в памяти (processing in memory, PIM) под названием XRAM. Похожие продукты разрабатывают UPMEM и Samsung, но подход NeuroBlade отличается от их.

Мы уже неоднократно отмечали, что в последнее время вновь стала популярна концепция специализированных ускорителей, способных справляться со специфическими нагрузками вроде сетевых операций или обслуживания устройств хранения данных. И, похоже, в дополнение к CPU, GPU, а в последний год и DPU, может добавиться ещё один класс таких сопроцессоров — вычислительная память (computational memory).

Именно такое устройство представил израильский стартап NeuroBlade, уже собравший во втором раунде финансирования $83 млн. Идея, стоящая за новой технологией, названной создателями XRAM, довольно проста: сделать «умным» массив DRAM, снабдив его собственными вычислительными ядрами. В классической архитектуре данные только хранятся в памяти, а для обработки процессор или сопроцессор вынуждены к этой памяти обращаться, и не всегда каналы, через которое такое обращение осуществляется, достаточно широки.

Но если хотя бы первичная обработка данных будет производиться в месте их хранения, это может существенно ускорить ряд задач, утверждает NeuroBlade. К числу таких задач относится и ряд сценариев машинной аналитики, а с ростом популярности «умной индустрии» требования к скорости реагирования таких систем будут только повышаться. В XRAM массивы DRAM и тысячи вычислительных ядер буквально переплетены. Путь от хранения к вычислениям в этом случае максимально короток.

Глава компании отметил, что XRAM позволяет ускорить задачи машинной аналитики более чем на два порядка в бенчмарках TPC и на задачах клиентов компании. NeuroBlade продемонстрировала систему Xiphos на базе новой технологии. В ней установлено четыре ускорителя на базе PIM XRAM и этот квартет способен обрабатывать данные на скорости порядка терабайт в секунду. В качестве интерконнекта Xiphos использует множественные подключения PCIe x16. В сервере может быть установлено до 32 NVMe-накопителей. x86-процессор тут тоже есть, но нужен он только для служебных задач.

ПО представлено платформой Insights Data Analytics, но есть и API, что упростит интеграцию нового класса ускорителей в существующую инфраструктуру. Подробности о новой технологии можно узнать на сайте NeuroBlade. Разработчики считают, что XRAM принесёт им существенные доходы, поскольку рынок машинной аналитики оценивается в $65 млрд. NeuroBlade, основанная ещё в 2016 году, отмечает, что её продукция уже закупается клиентами и поставляется в ЦОД по всему миру.

В чём-то похожую технологию разрабатывает ещё одна израильская компания, Speedata. Её ускоритель для анализа данных и СУБД называется APU (Analytics Processing Unit) и представляет собой PCIe-карту, которая напрямую общается с локальным и/или удалённым хранилищем и обрабатывает данные. Ускоритель имеет набортный пул DRAM, что позволяет кратно снизить нагрузку на системную память и CPU. Компания была основана всего два года назад и уже получила $70 млн инвестиций.

Постоянный URL: http://servernews.ru/1050715
06.10.2021 [16:07], Алексей Степин

VMware представила Project Capitola, технологию программно определяемых массивов памяти

Интерес к программно определяемым решениям в наши дни высок, как никогда, поскольку такой подход обеспечивает максимальную гибкость и требует минимум затрат на поддержание инфраструктуры. Вслед за Kioxia с её программно-определяемыми SSD своё видение представила компания VMware с фирменной технологией Project Capitola.

VMware является одним из крупнейших игроков на рынке виртуализации и вполне естественно, что компания заинтересована в продвижении своей платформы vSphere. Для этого она должна соответствовать современным требованиям и обеспечивать как можно меньшую стоимость владения, чего можно добиться унификацией программной и аппаратной инфраструктуры.

Project Capitola был анонсирован на мероприятии VMworld 2021. В двух словах его суть заключается в агрегации всех ресурсов памяти, будь то DRAM, SCM (Optane, Z-SSD или, например, XL-Flash), CXL-модули, NVMe или даже СХД с RoCE в единый пул, с которым виртуальные машины смогут работать прозрачно. Отдельно отметим, что в качестве аппаратной инфраструктуры предполагается использовать в первую очередь именно CXL.

VMware Capitola объединит под одной крышей самые разные типы памяти

VMware Capitola объединит под одной крышей самые разные типы памяти

Разумеется, разные виды памяти в этом списке имеют существенно различающиеся линейные скорости, времена отклика и производительность на случайных операциях. Но разработчики подумали об этом, и в Project Capitola предусмотрен механизм многоуровневой иерархии (tiering) таких неоднородных массивов.

В настоящий момент VMware продвигает Project Capitola, сотрудничая с множеством компаний. В этот список входят производители памяти и накопителей (Intel, Samsung и Micron), крупные поставщики серверного оборудования (Dell, HPE, Cisco и Lenovo), а также провайдеры ЦОД-услуг, например, Equinix. Отзывы партнёров весьма положительны и, вероятно, Project Capitola сможет стать новым стандартом в индустрии.

Постоянный URL: http://servernews.ru/1050662
16.09.2021 [12:31], Сергей Карасёв

TeamGroup представила твердотельные накопители и модули ОЗУ промышленного класса

Компания TeamGroup анонсировала твердотельные накопители серий S750-M80 и S750-3A форматов M.2 SATA SSD и mSATA SSD соответственно. Кроме того, представлены модули оперативной памяти DDR4 WT DIMM. Все изделия спроектированы с прицелом на промышленное оборудование, устройства для Интернета вещей, edge-системы и т. п.

Продукты проходят жёсткое тестирование на соответствие стандартам ударопрочности MIL-STD-202G и MIL-STD-883K, а также вибростойкости MIL-STD-810G. Гарантирована стабильная работа в экстремальных условиях.

Здесь и ниже изображения TeamGroup

Здесь и ниже изображения TeamGroup

Твердотельные накопители M.2 SATA SSD S750-M80 и mSATA SSD S750-3A поддерживают TCG Opal 2.0 и шифрование AES с ключом длиной 256 бит. Применены некие специальные микрочипы 3D TLC, которые, как утверждается, обеспечивают более высокую производительность по сравнению с обычными изделиями.

Накопители используют интерфейс SATA. Известно, что вместимость варьируется от 128 Гбайт до 1 Тбайт. Скорость чтения достигает 560 Мбайт/с, скорость записи — 510 Мбайт/с. Применён запатентованный графеновый радиатор охлаждения.

Модули оперативной памяти DDR4 WT DIMM выделяются широким диапазоном рабочих температур: от -40 до 95 °C. Эти изделия также получили тонкий графеновый радиатор. Другие характеристики пока не раскрываются.

Постоянный URL: http://servernews.ru/1049159
02.09.2021 [20:28], Андрей Галадей

С выходом Linux 5.15 скорость загрузки ядра на мейнфреймах и сверхкрупных кластерах IBM вырастет шестикратно

Ресурс Phoronix обратил внимание на любопытный патч для ядра Linux 5.15, который исправляет проблему длительной загрузки Linux на больших мейнфреймах и сверхкрупных кластерах на базе оборудования IBM. На это уходило порядка 30 минут и больше. Теперь такие системы будут загружаться примерно за 5 минут. Правда, без учёта инициализации самого железа, которая в данном случае сама по себе может длиться десятки минут.

Изменения в ядре включают в себя улучшения производительности Kernfs для функций, используемых, в частности, sysfs. Суть в том, что такие системы оснащены сотнями процессоров и десятками терабайт RAM, а память обрабатывается блоками по 256 Мбайт. Из-за этого ранее нужно было очень долго ждать, пока ядро «прожует» всю память. Причём для этого даже требовалось принудительно увеличивать время тайм-аута.

fool.com

После выхода обновления Linux 5.15 операции, которые ранее выполнялись последовательно, будут делаться параллельно + были произведены оптимизации кеширования этих процессов. Всё это позволит увеличить скорость загрузки системы примерно в 6 раз. А поскольку подобные системы обычно используются для выполнения бизнес-критичных задач, для которых даже одна лишняя минута простоя обходится в круглую сумму, ускорение будет совсем нелишним.

Постоянный URL: http://servernews.ru/1048179
Система Orphus