Материалы по тегу: nvme-of

21.10.2021 [16:58], Сергей Карасёв

Gigabyte представила сервер R282-Z9G с ускорителем GRAID SupremeRAID

Компания Gigabyte Technology анонсировала стоечный сервер R282-Z9G — свою первую систему, оснащённую акселератором GRAID SupremeRAID. Это программно-аппаратное решение призвано устранить узкие места в RAID-системах на базе твердотельных накопителей NVMe.

Новинка выполнена в форм-факторе 2U. Допускается установка двух процессоров AMD EPYC 7003, каждый из которых может насчитывать до 64 вычислительных ядер. В общей сложности доступны 32 слота для модулей оперативной памяти DDR4-3200.

Здесь и ниже изображения Gigabyte

Здесь и ниже изображения Gigabyte

Во фронтальной части расположены 20 отсеков для накопителей формата 2,5" с возможностью «горячей» замены. Ещё два 2,5" посадочных места находятся в тыльной части сервера. В системе задействован ускоритель SupremeRAID SR-1000. Он обеспечивает поддержку устройств NVMe SSD (PCIe 4.0) и формирование массивов RAID 0/1/10/5/6. Есть коннектор М.2 с поддержкой твердотельных модулей 2242/2260/2280/22110 c интерфейсом PCIe 4.0 x4.

Новинка оборудована двумя сетевыми портами 1GbE LAN на базе контроллера Intel I350-AM2 и выделенным сетевым портом управления. Габариты сервера составляют 438 × 87 × 730 мм. На фронтальную панель выведены два порта USB 3.0. Сзади находятся ещё два разъёма USB 3.0, гнёзда для сетевых кабелей и интерфейс D-Sub.

Постоянный URL: http://servernews.ru/1051855
01.10.2021 [14:09], Алексей Степин

Fungible представила самое быстрое в мире NVMe/TCP-решение

Fungible, один из пионеров освоения концепции сопроцессоров данных (DPU), не столь давно представившая СХД на базе своих чипов, присоединилась к инициативе NVMe-over-TCP и анонсировала HHHL-адаптер Storage Initiator с поддержкой данного стандарта. Более того, компания утверждает, что её решение является самым быстрым в данном классе.

История развивается по спирали: высокопроизводительные решения в области СХД использовали выделенные контроллеры с собственными процессорами, кешами и оперативной памятью, затем выросла популярность программно определяемых решений, задействующих мощности CPU самого сервера, но теперь, с появлением DPU, мы вновь видим возврат к концепции отдельных ускорителей для специфических нагрузок и задач.

В эту канву NVMe-over-TCP укладывается практически идеально, поскольку использует обычные Ethernet-сети, а именно о стандартизации и унификации СХД нового поколения на базе DPU Fungible и заявляла с самого начала. Компания подтвердила свои намерения, анонсировав новую плату расширения Storage Initiator, поддерживающую NVMe/TCP, которая должна сильно упростить внедрение данной технологии в ЦОД.

Блок-схема Fungible S1 DPU

Блок-схема Fungible S1 DPU

Новинка входит в серию решений Fungible Storage Cluster и, если верить разработчикам, является на сегодня самой производительной реализацией NVMe-over-TCP на рынке. Основой является чип Fungible S1, способный справляться с трафиком 200 Гбит/с и имеющий 32 линии PCIe 4.0. За общие задачи в S1 отвечают 16 ядер MIPS64, для специализированных нагрузок — криптографии, сжатия и дедупликации — имеются выделенные движки.

Fungible Storage Initiator представлена в трёх вариантах: FC50, FC100 и FC200. Старшая модель может обслужить хост-системы со скоростью 2,5 млн IOPS и полностью снимает с неё нагрузку по обслуживанию протокола NVMe/TCP. Это может высвободить до 30% мощности CPU. Платы SI полностью совместимы с уже выпущенными Fungible продуктами, такими, как узел хранения данных FS1600. SI позволяет внедрить поддержку NVMe/TCP и там, где её нет в составе самой ОС, поскольку адаптер «показывает» системе обычные NVMe-устройства.

Постоянный URL: http://servernews.ru/1050366
30.09.2021 [20:20], Алексей Степин

Dell и VMware внедряют поддержку NVMe/TCP

Сама по себе технология NVMe-over-TCP представляет собой промежуточное звено между классическими решениями SAN на базе iSCSI/TCP или NVMe-over-FC, и обеспечивает практически столь же низкий уровень задержек, как RDMA over Converged Ethernet (200 против 100-150 мкс), но в отличие от последнего, не требует прослойки InfiniBand и специализированных адаптеров.

Компания NetApp, как уже сообщалось, собирается внедрить NVMe/TCP в следующем релизе своей ОС ONTAP, но её опередила Dell EMC, которая, похоже, стала первым действительно массовым поставщиком SAN-решений, внедрившим данную технологию в свои продукты — массивы хранения данных PowerStore.

NVMe-over-TCP: прямой путь к скорости

NVMe-over-TCP: прямой путь к скорости

Первично речь идёт о внедрении последнего обновления VMware Update 3 для vSphere и vSAN, а поскольку Dell Technologies является владельцем и крупнейшим партнёром VMware, неудивительно, что NVMe/TCP первой появится в решениях именно этого производителя оборудования. За поддержку нового протокола отвечает программное обеспечение SmartFabric Storage Software (SFSS), которое вместе с Update 3 будет выпущено 29 октября.

Dell EMC SFSS: централизация, автоматизация и поддержка NVMe для любого оборудования

Dell EMC SFSS: централизация, автоматизация и поддержка NVMe для любого оборудования

SFSS автоматизирует процесс использования NVMe IP SAN: как хост-система, так и интерфейсы со стороны хранилища данных будут регистрироваться централизованным контроллером (Centralized Discovery Controller), что позволит хостам сразу видеть новые ресурсы. Но работать NVMe/TCP будет и в режиме без выделенного контроллера (Direct Discovery). Данное ПО будет полностью интегрировано с VMware ESXi 7.0 Update 3, которое можно использовать в серверах Dell EMC PowerEdge.

Со стороны аппаратного обеспечения поддержку NVMe IP SAN получат продукты Dell EMC PowerSwitch и SmartFabric Services, также компания планирует добавить поддержку NVMe/TCP в серию флеш-хранилищ PowerMax и программно-определяемых СХД PowerFlex. Новая технология явно набирает популярность: помимо Dell EMC и NetApp, её поддерживают Lightbits Labs (для LightOS на днях получена сертификация VMware), Toshiba (в Kumoscale), Iinfinidat, NVIDIA/Mellanox и Pavillion Data.

Постоянный URL: http://servernews.ru/1050273
07.09.2021 [19:39], Алексей Степин

NetApp внедрит поддержку NVMe/TCP в ONTAP 10

ONTAP — это фирменная операционная система NetApp, разработанная компанией специально для использования в собственных системах хранения данных, таких как, например, массивы FAS и AFF. На волне роста популярности протокола NVMe и соответствующих накопителей NetApp объявила о внедрении в ONTAP поддержки NVMe-over-TCP (NVMe/TCP).

С технологиями RDMA и NVMe компания экспериментирует давно — ранее поддержка NVMe-oF была реализована посредством RDMA over Converged Ethernet (RoCE), а затем пришла очередь Fibre Channel. Оба этих варианта обладают своими достоинствами, в частности, весьма низкой латентностью, составляющей порядка 100 мкс для RoCE и около 150 мкс для NVMe-over-FC, однако данные технологии нельзя назвать поистине универсальными, в отличие от крайне распространённых Ethernet-сетей со стеком TCP/IP.

Преимущества NVMe-over-TCP перед классическим iSCSI

Преимущества NVMe-over-TCP перед классическим iSCSI

Эта связка хорошо описана, унифицирована и широко поддерживается всеми производителями сетевого оборудования, в то время как RoCE использует инкапсуляцию InfiniBand и требует поддержки со стороны адаптеров. Однако без RDMA латентность СХД на базе Ethernet/TCP может быть достаточно высокой и достигать 0,1 c, что зачастую неприемлемо в современных условиях и не раскрывает в полной мере потенциал SSD. Обойти эти проблемы позволяет технология NVMe-over-TCP — время отклика в этом случае чуть выше, порядка 200 мкс. При этом модернизация существующей инфраструктуры не будет слишком дорогой.

Преимущества NVMe-over-Fabrics на примере Oracle

Преимущества NVMe-over-Fabrics на примере Oracle

NetApp с полным основанием считает данное сочетание основой будущего развития корпоративных СХД. На программном уровне NVMe-over-TCP существенно проще классического iSCSI, поскольку не требует низкоуровневых драйверов и взаимодействует с накопителями напрямую, позволяет избежать ситуаций программной блокировки. К тому же NVMe поддерживает куда больше очередей запросов с максимальной глубиной до 65535 против 128 у классического iSCSI.

NetApp объявила, что полноценная поддержка NVMe-over-TCP будет внедрена в следующем крупном релизе ONTAP 10, включая облачные варианты. Заказчикам компания предложит упрощённую процедуру апгрейда. Хотя над внедрением NVMe-over-TCP работают и другие компании, например, Lightbits Labs и Toshiba, NetApp, вероятно, станет первым действительно крупным поставщиком СХД, внедрившим данную технологию.

Постоянный URL: http://servernews.ru/1048498
14.08.2021 [22:35], Андрей Галадей

Pensando хочет потягаться с NVIDIA BlueField в Project Monterey

В начале августа VMware, Dell и NVIDIA объявили о раннем доступе к Project Monterey. А вслед за этим об аналогичной инициативе заявила и Pensando Systems, которая утверждает, что её решение лучше, чем BlueField-2. И дело не только в том, что её DPU доступны в сертифицированных VMware серверах Dell и HPE или, к примеру, некоторых СХД NetApp.

Ускорители Pensando, по словам создателей, опережают BlueField-2 в Project Monterey на поколение. Как заявил главный маркетолог Pensando Кристофер Рэтклифф (Christopher Ratcliffe), их DPU предлагает лучшие в своем классе возможности и улучшенные на порядок показатели задержки и передачи пакетов. При этом потребляемая мощность составляет 20 Вт при пропускной способности 25 Гбит/с, и порядка 30 Вт при 100 Гбит/с.

Pensando DSC-100

Pensando DSC-100

Старшая версия DPU DSC-100 (Distributed Services Card) способна обрабатывать до десятков миллионов пакетов в секунду с миллионами маршрутов и списков контроля доступа. При этом средняя задержка составляет всего 3 мкс с джиттером на уровне 35 нс. В техническом плане отмечается, что карта Pensando в 4-5 раз производительнее, чем SmartNIC на базе Arm и NVIDIA BlueField-2 от NVIDIA. DPU оснащён ядрами Arm и программируемым (P4) ASIС Capri собственной разработки. Карта обеспечивает виртуализацию NVMe и поддержку NVMe-oF с транспортом RDMA или TCP, дедупликацию и ускорение CRC32/64.

Pensando DSC-25

Pensando DSC-25

Она поддерживает IPSec-туннели, а также шифрование (AES-256) и (де)компрессию вместе с защитой и глубокой телеметрией со скоростью всё те же 100 Гбит/с. При этом доступна не только разгрузка CPU и ускорение работы виртуальных машин, но и их «живая» миграция (VMotion), чего, по словам компании, конкуренты предложить не могут. Рэтклифф отметил, что стартап тесно сотрудничает с VMware, чтобы максимально использовать все возможности аппаратного и программного стека компании.

При этом у стартапа, основанного выходцами из Cisco, дела, судя по всему, идут неплохо. В августе компания завершила раунд финансирования и привлекла $35 млн от Ericsson, Qualcomm и Liberty Global Venture. Ранее в стартап инвестировали HPE и Lightspeed Venture Partners, а общая сумма привлечённых средств сейчас составляет $313 млн.

Постоянный URL: http://servernews.ru/1046682
20.07.2021 [13:07], Алексей Степин

Viking и Kalray совместно создадут NVMe-oF СХД FLASHBOX нового поколения

Компания Kalray активно развивает свою концепцию сопроцессора данных (DPU) и имеет в своём арсенале соответствующие ускорители, о которых мы не так давно рассказывали в одной из предыдущих заметок. На днях Kalray заключила ещё один стратегический союз, на этот раз с Viking Enterprise Solutions, крупным OEM-поставщиком серверного оборудования, включая системы хранения данных.

Сама Viking довольно длительное время концентрирует свои усилия в направлении создания систем хранения данных, особенно с поддержкой популярного стека технологий NVMe over Fabrics. В начале лета она уже анонсировала СХД VDS2249R на 24 накопителя NVMe с портами 100GbE. Системы такого класса создают огромный поток данных, нагружающий центральные процессоры СХД.

СХД Viking VDS2249R имеет модульную конструкцию

СХД Viking VDS2249R имеет модульную конструкцию

И снять с них нагрузку как раз и помогут разработки Kalray, которая располагает уникальным многоядерным DPU Coolidge MPPA, способным «переварить» 12 Гбайт/с при крайне невысоком уровне задержек. Компании заключили договорённость о разработке нового класса решений NVMe-oF на базе вышеупомянутой системы VDS2249R.

Kalray не без оснований считает, что за DPU —  будущее дезагрегированных СХД

Kalray не без оснований считает, что за DPU — будущее дезагрегированных СХД

Напомним, новая СХД Viking компактна, она занимает в высоту всего 2U, но при этом вмещает 24 накопителя в формате U.2. Каждый из двух контроллеров данной системы хранения данных поддерживает платы расширения с интерфейсом PCI Express 3.0 и позволяет производить замену практически всех компонентов в «горячем» режиме.

Ускоритель Kalray K200-LP идеально впишется в состав СХД, поскольку представляет собой низкопрофильную плату. Несмотря на компактность, он обладает внушительными ресурсами, имея на борту 80-ядерный процессор Coolidge MPPA и до 32 Гбайт собственной оперативной памяти DDR4. Сочетание технологий Viking и Kalray приведёт к созданию системы FLASHBOX нового поколения, предназначенной для задач машинного обучения, аналитики, обработки изображений и видео в реальном времени, а также любых других сценариев подобного рода. Официальный анонс FLASHBOX запланирован на конец сентября.

Постоянный URL: http://servernews.ru/1044680
12.07.2021 [20:06], Владимир Агапов

Graid представила RAID-ускоритель SupremeRAID SR-1000 для NVMe SSD и NVMe-oF

Компания Graid Technology  разработала программно-аппаратное решение SupremeRAID, которое поможет устранить узкие места в RAID-системах на базе NVMe-накопителей, подключённых как напрямую, так и по сети (NVMe-oF). Аппаратная часть решения представлена однослотовой (100 × 197,5 мм) картой SupremeRAID SR-1000 с интерфейсом PCIe 3.0 x16, которая потребляет 75 Вт.

Карта оснащена высокопроизводительным «умным» процессором для обработки всех операций RAID и поддерживает различные интерфейсы NVMe (U.2, M.2, AIC) а также SAS и SATA. По заявлению производителя, это первая в мире карта, которая позволяет пользователям добавлять такие функции как сжатие, шифрование и тонкое выделение ресурсов, а также позволяющая организовать NVMe-oF RAID-массив.

Программная часть разработана для Linux (CentOS 8.3, RHEL 8.4, Ubuntu 20.04, openSUSE Leap 15.2, SLES 15 SP2) и состоит из модуля ядра (graid.ko), CLI-инструмента управления (graidctl) и демона управления обработкой запросов (graid_server). Реализована поддержка массивов RAID 0/1/5/6/10 с максимальным числом физических дисков 32 (до 4 групп дисков, по 8 шт. в каждой). Максимальная ёмкость дисковой группы ограничивается только физическими характеристиками накопителей.

Архитектура SupremeRAID, основанная на виртуальном NVMe-контроллере и PCIe-ускорителе, берущем на себя все операции с RAID, высвобождает ресурсы CPU и облегчает интеграцию с современными программно компонуемыми системами (SCI) для получения 100% доступной производительности SSD. При этом возможна реализация облачного подхода при работе с хранилищем.

Вычислительная мощность применённого процессора позволяет отказаться от использования модулей кеширования для достижения удовлетворительной производительности, а также от резервных батарей, обеспечивающих сохранность данных в кеше в случае отключения питания. А поддержка NVMe-oF для организации RAID-массива позволяет дезагрегировать ресурсы хранения, предоставляя пользователям возможности их более полного использования — в независимости от физического местонахождения скорость будет практически такой же, как и при прямом подключении.

Заявленная производительность составляет более 6 млн. IOPS, а скорость работы массива на базе накопителей с интерфейсом PCIe 3.0 и PCIe 4.0 составляет 25 и 100 ГиБ/с соответственно. И это похоже на правду, если верить данным Gigabyte, которая одной из первых применила это решение на практике. Её 2U-сервер R282-Z94, включающий два процессора AMD EPYC 7742, 20 NVMe SSD Kioxia CM6-R и SupremeRAID, позволил провести серию тестов производительности подсистемы хранения данных.

gigabyte.com

gigabyte.com

Массив RAID-5, состоящий из трёх накопителей CM6-R в OLAP-задачах показывает 4,6 млн IOPS на случайном чтении и 765 тыс. IOPS на случайной записи, обеспечивая при этом чрезвычайно низкую задержку. Даже в случае отказа одного из SSD, производительность системы все равно превышает 1 млн IOPS, сохраняя высокую доступность приложения.

Массив RAID-5, состоящий из 20 накопителей CM6-R, обеспечивает очень большую ёмкость с последовательным чтением на уровне 91 ГиБ/с и последовательной записью 7 ГиБ/с. Наконец, массив RAID-10 из те же 20 накопителей может обеспечивать последовательное чтение 104 ГиБ/с и последовательную запись 30 ГиБ/с, что почти в 8 раз выше, чем у традицонных RAID-контроллеров.

gigabyte.com

gigabyte.com

Такой результат делает решение привлекательным для приложений, требующих высокой скорости чтения, таких как машинное обучение, анализ больших данных и т.д. По словам Лиандера Ю (Leander Yu), генерального директора GRAID, сотрудничество с GIGABYTE и Kioxia позволило компании представить технологию хранения и защиты данных, обеспечивающую лучшую в отрасли производительность для рабочих нагрузок ИИ, IoT и 5G в новом поколении All-Flash СХД.

Постоянный URL: http://servernews.ru/1044014
24.06.2021 [14:26], Владимир Мироненко

NVMe-oF: изменятся ли SSD под влиянием сетевых фабрик?

NVMe — Что мы имеем сейчас?

Расширение использования NVMe в инфраструктуре публичных и частных облаков способствовало постепенному переходу от архитектуры ЦОД с вертикальным масштабированием к так называемой коммодизации, то есть к использованию серийных, неспециализированных системам с горизонтальным масштабированием, что позволило реализовать новые парадигмы распределенных вычислений.

Дальнейшее развитие спецификаций и функций СХД с поддержкой NVMe™ подсветило проблемы, связанные с эффективностью, масштабируемостью и уровнем утилизации систем. Поиск решений для обозначенных выше проблем создал предпосылки для появления более новой технологии — NVMe-over-Fabrics или сокращённо NVMe-oF™. Давайте посмотрим на возможные последствия его появления для системных архитектур.

Текущие проблемы системной архитектуры

Наблюдая за миром вокруг нас, мы неизменно отмечаем увеличение объёмов создаваемых и потребляемых данных. Рост объёма данных и сопутствующее ему усложнение приложений ощутимо повышают значимость того, где, когда и как хранится и обрабатывается информация.

blog.westerndigital.com

blog.westerndigital.com

Традиционные IT-инфраструктуры в большинстве своем статичны. Они были разработаны для того, чтобы справляться с возникающими время от времени экстремальными рабочими нагрузками (необязательно возникающими на ежедневной основе). Инфраструктура таких систем всегда должна иметь определённый запас прочности и включать парк оборудования «на вырост». Однако такой подход обычно сводится к наращиванию всей инфраструктуры целиком: увеличение вычислительных мощностей приводит и к увеличению объёма хранилища и памяти, пропускной способности сети и т.д. в независимости от того, действительно ли это необходимо.

При таком подходе системы, разработанные в господствующей ранее парадигме вертикального масштабирования (scale up), часто остаются недозагруженными. Установленное оборудование не используется в полной мере, а некоторые системы и вовсе простаивают большую часть времени.

Эволюция архитектур

Современные системы с горизонтальным масштабированием (scale out) позволяют одновременно наращивать вычислительные мощности, объём памяти и хранилища. Виртуализированные системы позволили реализовать гибкое выделение и разделение ресурсов. Гиперконвергентные системы (HCI) сделали следующий шаг, позволив хранилищам стать общими и разделяемыми в рамках инфраструктуры (см. рис. 1). Впрочем, несмотря на повышение гибкости и адаптивности, этот подход не позволяет независимо масштабировать все ресурсы самой инфраструктуры.

Рис. 1 — Среды: традиционная, гиперконвергентная, на базе сетевой фабрики

Рис. 1 — Среды: традиционная, гиперконвергентная, на базе сетевой фабрики

Поэтому в процессе создания более эффективных архитектур, способных справиться с увеличением и объёма, и сложности данных, возникла потребность в более гибкой и масштабируемой инфраструктуре для данных. Как и ЦОД гиперскейлеров, облачные и корпоративные дата-центры завтрашнего дня должны обеспечивать независимое масштабирование каждого из трёх важных компонентов инфраструктуры: вычислительных мощностей, памяти и хранилища.

В чем важность сетевой фабрики?

Чтобы компоненты можно было масштабировать независимо друг от друга, вычислительные мощности, память и хранилище должны быть изолированы друг от друга и объединены посредством некоторой сети. Однако для обеспечения оптимальной производительности такая сеть, а точнее сетевая фабрика, должна быть как можно более незаметной, то есть не иметь больших накладных расходов, связанных, например, с транзитом данных или задержками на уровне протокола.

Для мира СХД понятие фабрики не является чем-то радикально новым. Давным-давно реализована поддержка работы SCSI поверх Ethernet и Fibre Channel, и такие сети хранения данных завоевали популярность благодаря высокой скорости работы и надёжности передачи данных.

Рис. 2 — Система с горизонтальным масштабированием в сравнении с компонуемой дезагрегированной инфраструктурой

Рис. 2 — Система с горизонтальным масштабированием в сравнении с компонуемой дезагрегированной инфраструктурой

Однако с помощью NVMe-oF новые дезагрегированные инфраструктуры позволяют отделить друг от друга и вычислительные ресурсы, и ресурсы хранения. Причём сохраняется как уровень производительности — скорость работы с хранилищем такая же, как и прямом подключении NVMe-накопителей, — так и совместный доступ к данным с высоким уровнем параллелизма.

Более того, использование сетевых фабрик в дезагрегированных инфраструктурах позволяет расширить возможности компонуемых систем, то есть таких, где можно легко задействовать любые необходимые аппаратные ресурсы посредством программной оркестрации, что упрощает (пере-)конфигурацию систем под конкретные задачи.

NVMe + сетевая фабрика — следующий шаг в эволюции NVMe-oF

Существует целый ряд конфигураций аппаратного оборудования и сетевых ресурсов, позволяющих создать систему на базе адаптируемой и гибкой дезагрегированной архитектуры с поддержкой независимого масштабирования, которая одновременно с этим обеспечивала бы высокую производительность.

Стандарт передачи данных NVMe — это протокол для общения не только между флеш-накопителем и контроллером хранения данных, но и, в сетевых фабриках, между хостом и контроллером хранения данных. Вопрос лишь в том, как это всё реализовать.

Один из способов — добавить возможность сетевого подключения непосредственно в устройства хранения (рис. 3). При прямом подсоединении к сетевой фабрике посредством PCIe, Ethernet или Infiniband NVMe-накопители могут поддерживать протоколы с низким уровнем задержки, что открывает дверь в мир новых, дезагрегированных систем. Впрочем, такой подход порождает несколько интересных технологических вопросов:

  1. Какие сетевые фабрики и протоколы выбрать?
  2. Как в этом случае будет выглядеть внешняя интеграция сетевых структур и SSD?
  3. Приведет ли это к расцвету контроллеров SSD со встроенной поддержкой подключения к сетевым фабрикам?
Рис. 3 — Подключение устройств хранения к сетевой структуре

Рис. 3 — Подключение устройств хранения к сетевой структуре

Рассматривая разные варианты контроллеров, мы должны оценить роль SSD в системе, учесть его возможности и особенности флеш-памяти. Следует ли, например, вывести на рынок SSD со встроенной поддержкой сетевого подключения? Если да, то каким образом будут распределяться обязанности по обработке сетевого трафика между SSD и сетевой фабрикой? Как это повлияет на программное обеспечения хоста, на защиту данных и на управление хранилищем?

Изучая эти вопросы, мы также должны уделить внимание повышению эффективности в рамках новой архитектуры, в частности, перебросу части задач с CPU на другие доступные вычислительные ядра. Наш подход к интеграции различных характеристик сетевых фабрик и ядер с устройствами хранения данных может стать отправной точкой для новой парадигмы вычислений с помощью NVMe-oF.

Примером реализации NVMe-oF является платформа хранения Western Digital OpenFlex Data24, которая позволяет полностью использовать пропускную способность NVMe SSD Ultrastar сразу несколькими вычислительными узлами, объединёнными в Ethernet-фабрику (NVMe-oF 1.0a) с низкими задержками.

Система в форм-факторе 2U включает до 24 NVMe SSD-накопителей Ultrastar DC SN840 ёмкостью до 368 Тбайт. Согласно проведенным Western Digital лабораторным тестам, производительность OpenFlex Data24 при установке шести сетевых адаптеров составляет около 13,2 млн IOPS, пропускная способность — 70,7 Гбайт/с, а задержка записи — всего 42 мкс.

OpenFlex Data24 совместима с Open Composable API и может быть реализована как часть компонуемой дезагрегированной инфраструктуры. Внедрение OpenFlex Data24 не влечёт за собой дополнительные расходы. Наоборот, Western Digital оценивает сокращение расходов на 17 % по сравнению с дисковыми полками с SAS-интерфейсом.

Постоянный URL: http://servernews.ru/1042283
17.06.2021 [01:48], Владимир Мироненко

Kalray представила DPU K200-LP для NVMe-oF СХД: 2 × 100GbE, 12 Гбайт/с и 2 млн IOPS

Kalray представила низкопрофильный адаптер K200-LP для построения систем хранения данных NVMe-oF. K200-LP пополнил семейство полностью программируемых многоцелевых DPU Kalray на базе уникальных процессоров Coolidge MPPA (Massively Parallel Processor Array) собственной разработки.

K200-LP, по словам разработчиков, является идеальным решением для производителей устройств хранения данных и поставщиков облачных услуг для создания устройств хранения следующего поколения, поскольку превосходит аналогичные решения с точки зрения производительности на Ватт и на доллар. K200-LP полностью оптимизирована для растущего рынка решений хранения на базе NVMe и NVMe-oF, от облака до периферии.

Kalray

Kalray

Kalray K200-LP представляет собой низкопрофильную карту с двумя портами 100GbE (QSFP28) и интерфейсом PCIe 4.0 x16. Она оснащена 80-ядерным процессором MPPA, работающим на частоте до 1,2 ГГц, и от 8 до 32 Гбайт DDR4-3200. Карта способна обслуживать до 64 NVMe SSD и обеспечивает пропускную способность на уровне 12 Гбайт/с при последовательном чтении/записи и порядка 2 млн IOPS на случайных операциях. При этом средняя задержка составляет всего 30 мкс.

Новинка совместима со стандартами RoCE v1/v2 и NVMe/TCP, а поддержка MPPA уже есть в Linux 5.x. Для разработки ПО предоставляется фирменный SDK AccessCore. K200-LP производится тайваньской Wistron и уже доступна для приобретения. Ранее компании совместно представили СХД FURIO1200 на базе DPU K200.

Постоянный URL: http://servernews.ru/1042196
07.06.2021 [14:53], Андрей Галадей

В ядре Linux 5.14 появится поддержка разгрузки NVMe/TCP

В сетевой подсистеме будущего ядря Linux 5.14 должна появиться поддержка разгрузки (offload) NVMe/TCP, одного из транспортов для NVMe-oF. Речь идёт о снижении нагрузки на CPU за счёт того, что обработка сетевых данных будет происходить в контроллере сетевого адаптера. Поддерживается как разгрузка TCP, так и собственно NVMe/TCP.

Первые замеры показывают, что такой подход позволил снизить нагрузку на сервере с процессором AMD EPYC 7402 с 15,1% до 4,7%. Для решения на базе Intel Xeon Gold 5122 нагрузка упала с 16,3% до 1,1%. Также уменьшилась задержка при передаче пакетов — в среднем со 105 до 39 мкс. В обоих случаях использовался сетевой контроллер Marvell серии FastLinQ.

Не исключено, что в будущем появятся реализации и для других сетевых контроллеров. В целом, новая подсистема разрабатывается как ещё один универсальный уровень абстракции tcp-offload, с которым могут взаимодействовать уже конкретные драйверы производителей адаптеров.

Постоянный URL: http://servernews.ru/1041351
Система Orphus