Материалы по тегу: nvme-of

25.06.2020 [13:47], Сергей Карасёв

Ёмкость NVMe-oF хранилища Western Digital OpenFlex Data24 может достигать 368 Тбайт

Компания Western Digital анонсировала систему хранения данных корпоративного класса OpenFlex Data24, рассчитанную на монтаж в стойку. Новинка подходит для решения таких задач, как аналитика в режиме реального времени, виртуализация, HPC, а также поддержание работы баз данных, ИИ и машинного обучения.

Устройство OpenFlex Data24 выполнено в форм-факторе 2U. Допускается установка до 24 твердотельных накопителей U.2 NVMe SSD, в частности, недавно представленных изделий семейства Ultrastar DC SN840, которые обладают вместимостью до 15,36 Тбайт. Таким образом, суммарная ёмкость хранилища может достигать 368 Тбайт.

Новинка относится к решениям JBOF — Just a Bunch of Flash. До шести хостов могут быть напрямую подключены к хранилищу с использованием портов 100Gb Ethernet и адаптеров Western Digital RapidFlex NVMe-oF. Новинка совместима c прежними решениями OpenFlex серии F.

Заявленное быстродействие достигает 13 млн операций ввода/вывода в секунду (IOPS), пропускная способность — 70 Гбайт/с. Задержки при этом составляют менее 500 наносекунд.

Система оборудована двумя блоками питания с сертификацией Platinum мощностью 2000 Вт каждый. Габариты составляют 8,75 × 44,80 × 71,12 см, вес — 31,75 кг. 

Постоянный URL: http://servernews.ru/1014240
27.05.2020 [20:54], Алексей Степин

Новая ПЛИС Xilinx Virtex UltraScale+ оптимизирована для сетей и СХД

С момента своего появления программируемые логические схемы проделали большой путь. В конце прошлого года рекорд Xilinx, составивший 9 млн. логических ячеек был побит Intel, представившей Stratix 10 GX 10M с 10 миллионами ячеек.

Сейчас один из самых известных разработчиков ПЛИС в мире подтверждает звание лидера, анонсируя новую микросхему в серии Virtex UltraScale+ — VU23P.

Предыдущая модель, Virtex UltraScale+ VU19P, представляла собой высокопроизводительную ПЛИС общего назначения, предназначенную для разработки и прототипирования однокристальных платформ и чипов ASIC. Новая VU23P более специализирована: компания-разработчик нацелила её на использование в производительных сетевых решениях, а также для ускорения крупных систем хранения данных. Специально оговаривается тот факт, что по соотношению LUT и DSP-ячеек новинка уступает VU19P, но превосходит остальные ПЛИС в серии UltraScale+.

Зато коммуникационные возможности у VU32P развиты великолепно: в ней реализованы новейшие PAM4-трансиверы со скоростью 58 Гбит/с, поддержка шины PCI Express 4.0 и интегрированный MAC-контроллер класса 100G; конфигурация в качестве «умного» сетевого процессора допускает использование скоростей 200 Гбит/с. Всё это довольно компактно упаковано: размер кристалла не превышает 35 × 35 мм.

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Virtex UltraScale+ VU23P ориентирована не только на работу в качестве сетевого ускорителя. Она с тем же успехом может выполнять и роль акселератора в масштабных сетевых системах хранения данных. Для этого в ней реализована полноценная поддержка технологии NVMe over Fabrics, ведь уже очевидно, что протокол NVMe одержал победу в сфере накопителей и именно за ним будущее.

В VU23P поддерживается ряд сценариев ускорения, востребованных в таких системах: сжатие и декомпрессия данных, их дедупликация, выстраивание очередей (sequencer functionality) и других. Также новинка найдёт своё место в конвергентных сетях, поскольку может работать в качестве шлюза, позволяющего объединять все используемые в такой сети службы в едином интерфейсе без потери производительности.

Информацию о новинке можно найти на веб-сайте компании-разработчика. Там же имеется обзор архитектуры UltraScale в целом и руководство по выбору наиболее подходящей под ваши задачи ПЛИС.

Постоянный URL: http://servernews.ru/1012016
15.05.2020 [11:45], Юрий Поздеев

BIGTERA FlashGO SF2224: All-flash СХД с iSCSI и NVMe-oF

На мероприятии OCP Virtual Summit 2020 BIGTERA представила две новые all-flash СХД новой линейки FlashGo. Обе модели построены на безе контроллера Silicon Motion, используют накопители NVMe, что позволяет достигать производительности до 1,2 млн IOPS (при профиле нагрузки чтение/запись 70/30).

Новые модели работают под управлением собственная ОС VirtualStor на базе CentOS и Intel SPDK, которая позволяет масштабировать СХД не только вертикально (за счет полок расширения), но и горизонтально (за счет объединения в кластер контроллерных пар).

VirtualStor поддерживает протоколы iSCSI и NVMe-oF/RoCE, что позволяет подключать дополнительные полки расширения с NVMe-дисками. Поддерживаются и все необходимые функции современных СХД: Snapshot Clone, Disaster Recovery, ThinProvision и Cache Mirroring. При этом управление системой сделано максимально просто для пользователя: как через GUI с HTML5, так и посредством RESTful API.

FlashGo SF2224E представляет собой двухконтроллерную iSCSI СХД начального уровня и имеет форм-фактор 2U. Шасси вмещает 24 накопителя NVMe SSD (базовые конфигурации включают в себя 12 или 24 диска). Каждый контроллер имеет объем памяти 128 Гбайт и дополнительный FlashCache объемом 2 или 4 Тбайта. Интерфейсы, по умолчанию установленные в каждом контроллере: 2х40 Гбит/с QSFP и 2x10 Гбит SFP+. СХД также оснащена встроенным источником бесперебойного питания для защиты от сбоев напряжения.

По информации от BIGTERA в полной конфигурации эта СХД способна выдавать 1 млн IOPS при профиле нагрузки чтение/запись 70/30, при этом задержка доступа не превысит 0,5 мс.

FlashGo SF2224P+SF2224S тоже построена по двухконтроллерной схеме, но имеет форм-фактор 4U и в базовой конфигурации может поставляться с 24 или 48 NVMe SSD накопителями. Объем оперативной памяти каждого контроллера увеличен до 256 Гбайт, а объем дополнительного FlashCache достигает 4 Тбайт. С учетом большего количества дисков, чтобы использовать всю пропускную способность, установлены более производительные интерфейсные платы с двумя портами 100 Гбит QSP28 и двумя портами 10 Гбит SFP+. Есть поддержка RoCEv2.

Общая производительность системы достигает 1,2 млн IOPS (при профиле нагрузки 70/30), что уже является более чем внушительной цифрой даже для all-flash СХД.

В ближайшее время BIGTERA планирует предложить клиентам опциональный кеш-модуль Smart NVMe увеличенного объема 8 Тбайт.

Постоянный URL: http://servernews.ru/1010986
14.05.2020 [23:31], Игорь Осколков

Samsung E-SSD: накопитель с 50 Гбит/с Ethernet и NVMe-oF

Samsung периодически радует нас любопытными разработками. Так, два года назад она совместно с Xilinx представила накопители SmartSSD PM983F со встроенной ПЛИС, которая позволяет накопителю самостоятельно производить вычисления и обрабатывать данные. В прошлом году вышел прототип KV Stacks — Key:Value SSD, реализующего подобие объектного, а не блочного хранилища, которое идеально подходит для одноимённого класса СУБД.

На этот раз в рамках OCP Virtual Summit Samsung поделилась информацией о концептуальном E-SSD — твердотельном накопителе с сетевым интерфейсом 50GbE.

Идея внедрения сетевого адаптера непосредственно в накопитель не нова. Это позволит избавиться от множества промежуточных слоёв типовой системы хранения данных: бэкплейна, контроллера RAID/HBA, контроллера PCIe (часто со свитчом и ретаймерами), собственно сетевого адаптера и всего сопутствующего программного стека.

Такая схема снижает задержки и позволяет повысить плотность размещения оборудования. Одним из самых известных проектов такого рода был Seagate Kinetic — 4-Тбайт HDD, который имел Ethernet-адаптер и предоставлял объектное хранилище. Правда, после совместного анонса с CERN об использовании платформы Kinetic Open Storage практически ничего не было слышно.

Приход RDMA и NVMe(-oF) упростил задачу — между накопителями и сетью находился только PCIe. Проблему объединения одного с другим решают по-разному. Например, Pavilion Data организует PCIe-фабрику со множеством контроллеров. Viking Enterprise Solutions использует большое число PCIe-линий AMD EPYC Rome.

Kazan Networks, которую выкупила Western Digital, предлагает готовые NVMe-мосты, как Marvell. Есть и акселераторы вроде LightField. Все подобные решения позволяют организовать полки JBOF (Just Bunch of Flash), подключённые к коммутаторам Ethernet или InfiniBand. Это намного проще и дешевле, чем, к примеру, организация PCIe-сети вроде FabreX.

Samsung E-SSD доводит идею до логического конца: накопитель оснащается двумя портами 25GbE и поддерживает NVMe-over-TCP и RDMA (iWARP/RoCE). Компания называет такое подход Ethernet Bunch of Flash или просто EBOF. E-SSD обеспечивают 1,5 млн IOPS при случайном чтении 4K-блоками, что, согласно разработчикам, эквивалентно прямому подключению PCIe 4.0 x4.

Производительность с ростом числа накопителей в полке только увеличивается, а разница может быть трёхкратной в сравнении с обычными JBOF. Сам же накопитель выполнен в стандартном 2,5” форм-факторе SFF и должен быть совместим с текущими СХД для U.2-дисков. Речь всё же только о механической совместимости, да и про TDP такого устройства ничего не говорится.

Постоянный URL: http://servernews.ru/1010975
13.05.2020 [23:28], Юрий Поздеев

Gigabyte представила плату MP32-AR0 для ARM-процессоров Ampere и NVMe-oF СХД S260

На мероприятии OCP Virtual Summit 2020 Gigabyte представила несколько новинок — дисковую полку с интерфейсом NVMe-over-fabric и материнскую плату для ARM-процессора Ampere. Но обо всем по порядку.

С точки зрения эффективности использования и энергопотребления стало ясно, что «дезагрегация» является в будущем хорошей альтернативой для центров обработки данных, где вычисления и хранение данных консолидированы в одном месте.

Новое решение Gigabyte использует карты расширения на базе контроллера Western Digital Onyx, который позволяет подключить полки с дисками к серверам через локальныую сеть, используя протокол NVMe-over-Fabric — это разработка стартапа Kazan Networks, который WD купила в прошлом году. 

На данный момент линейка дисковых полок представлена двумя моделями: S260-NF0 и S260-NF1. Обе модели имеют два дисковых контроллера, один порт 100 Гбит/с или два порта по 50 Гбит/с в каждом, 25 отсеков для 2,5 дюймовых SSD накопителей NVMe с возможностью «горячей замены» и двумя блоками питания по 800 Вт.

В дисковую полку можно дополнительно установить до трех карт расширения для дополнительного резервирования сетевых портов, либо расширения пропускной способности. Это решение является вехой в развитии программно-определяемых СХД, которые раньше были ограничены в быстродействии портами PCIe на материнской плате сервера и не могли поддерживать большое количество NVMe накопителей. Теперь это больше не является сдерживающим фактором и через несколько лет мы увидим уже множество решений, построенных на протоколе NMVe over Fabric.

Еще одной новинкой, представленной на виртуальной выставке, стала материнская плата EATX третьего поколения MP32-AR0 для процессоров ARM Ampere. Эти процессоры уже наделали много шуму в ИТ сфере, ранее мы писали про эту модель и ее перспективы, однако теперь это уже законченное готовое к производству решение, а не инженерные образцы и тестовые стенды. Новинка ориентирована на облака и периферийные вычисления.

Примечателен этот процессор тем, что он имеет 80 ядер, работающих на частотах до 3 ГГц. Материнская плата имеет один сокет для процессора и 16 слотов для оперативной памяти DDR4-3200 (8 каналов, 4 Тбайт). В односокетном варианте предоставляется 128 линий PCIe 4.0 и 192 — в двухсокетном. На данной плате есть два слота x16 и восемь слотов x8, коннектор U.2 и два слота M.2, а также посадочное место для адаптера OCP 2.0 (PCIe 3.0). Для BMC используется привычный AST2500. На плате есть два порта 1GbE (Intel i350)

Данное решение будет потреблять меньше энергии, чем аналогичные решения на Intel Xeon, но подойдет не для всех задач, т.к. ПО для ARM нужно либо писать с нуля, либо портировать с платформы x86, что потребует определенных затрат. Пока ARM платформы еще не так распространены и востребованы, чтобы разработчики бизнес приложений по умолчанию включали поддержку ARM в свои продукты.

Постоянный URL: http://servernews.ru/1010863
02.04.2020 [17:39], Алексей Степин

Pavilion Data планирует удвоить показатели NVMe-oF СХД: 2 Пбайт и 120 Гбайт/с

Компания Pavilion Data поведала о планах на ближайшее будущее. В них говорится о разработке нового поколения массивов хранения данных NVMe-oF, которое должно обеспечить удвоенную производительность, равно как и удвоенный же доступный для хранения данных объём, сообщает Blocks&Files.

Pavilion Data Systems сравнительно молода — компания была основана в 2014 году, но уже прославилась тем, что успешно состязается на поле all-flash СХД с такими монстрами, как Hitachi Vantara, NetApp и Pure Storage, а также сотрудничает с Dell EMC, HPE и IBM.

Подход к созданию флеш-массивов у Pavilion Data весьма оригинальный: её первая разработка, массив RF100, архитектурно напоминает сетевой коммутатор и может использовать до 10 контроллеров против традиционных двух у аналогичных решений других разработчиков.

Каждый контроллер при этом выглядит, как сетевой адаптер и имеет четыре порта Ethernet со скоростью 40, либо 100 Гбит/с. С помощью системы интерконнекта на базе PCI Express контроллеры общаются с массивом NVMe-накопителей, а внешнее подключение осуществляется с использованием технологии NVMe-over-Fabrics. Поддерживается как традиционный TCP, так и RoCE (RDMA over Converged Ethernet).

При этом в RF100 можно устанавливать накопители, приобретённые владельцем массива у других поставщиков, так что перестройка цепочки поставок не требуется. Производительность может достигать 60/120 Гбайт/с при записи и чтении, соответственно. На случайных операциях можно получить до 20 миллионов IOPS. В этом свете планы по удвоению производительности выглядят достаточно впечатляюще.

В основу наследника RF100 будет положена новая система интерконнекта с поддержкой PCI Express 4.0, которая сама по себе обладает вдвое более высокой пропускной способностью. Планируется достичь времени отклика порядка 40 микросекунд, объём эффективно хранимых данных возрастет с 1 до 2 Пбайт. Порты со скоростью 100 Гбит/с будут заменены на Ethernet/InfiniBand 200 Гбит/с. Вероятно, компания переедет с Intel Broadwell на платформу AMD. 

Новый NVMe-oF-массив Pavillion Data должен увидеть свет в 2021 году. А в этом году компания представит единую систему мониторинга с поддержкой такого популярного открытого ПО, как Nagios и Zabbix. Также Pavilion Data предоставит своим партнёрам референсный дизайн новых систем и данные для развёртывания систем Kubernetes-Splunk и VMware-Splunk.

Постоянный URL: http://servernews.ru/1007394
25.02.2020 [20:57], Алексей Степин

Сеть GigaIO FabreX Gen4 на базе PCIe 4.0: 512 Гбит/с и полный дуплекс

Компания GigaIO, разработчик сетевых систем для центров обработки данных, анонсировала новую сетевую архитектуру, полностью совместимую со спецификациями PCI Express 4.0.

Обычно при проектировании кластерных систем и суперкомпьютеров, в тех случаях, когда требуется обеспечить минимальные задержки или прямой доступ вычислительных узлов к памяти друг друга, используется InfiniBand, современные Ethernet-решения или проприетарные интерконнекты.

Сетевая карта FabreX Gen4

Сетевая карта FabreX Gen4

Новая разработка GigaIO, архитектура FabreX Gen4, обеспечивает ещё более впечатляющие характеристики в сравнении с привычными решениями — она позволяет реализовывать полнодуплексные соединения со скоростью до 512 Гбит/с и полностью поддерживает доступ узла к памяти всех других узлов в сети. Латентность при этом измеряется долями микросекунды.

Коммутатор FabreX

Коммутатор FabreX

Сети FabreX базируются на унифицированной, программно-определяемой инфраструктуре и полностью поддерживают современные технологии виртуализации и контейнеризации, а также NVMe over Fabrics. Обеспечена совместимость с аппаратными компонентами с поддержкой PCI Express 3.0, разумеется, ценой соответствующей потери в скорости. Допустимо даже смешанное использование компонентов PCIe 3.0 и 4.0 в одной сети. Управление сетью реализовано через набор стандартных API Redfish.

GigaIO FabreX использует кабели SFF-8644 (до трёх метро по меди, до 100 метров по оптике)

GigaIO FabreX использует кабели SFF-8644 (до трёх метро по меди, до 100 метров по оптике)

GigaIO предлагает полный спектр компонентов FabreX: коммутаторы различных уровней, сетевые адаптеры, кабельные компоненты и сопутствующее программное обеспечение. Поставки оборудования FabreX Gen4 должны начаться во втором квартале этого года.

Постоянный URL: http://servernews.ru/1004536
16.10.2019 [20:40], Алексей Степин

Mellanox начала поставки сетевых карт ConnectX-6 Dx 200 Гбит/с

Сетями класса 10G уже никого не удивишь, широкое распространение имеют и более высокие скорости, вплоть до 100 Гбит/с. Но для кластерных систем и суперкомпьютеров и этого может оказаться мало: именно сетевая инфраструктура является самым узким местом таких решений, уступая в скорости передачи данных остальным компонентам.

Поэтому не стоит удивляться решению Mellanox, представившей новые карты ConnectX-6 Dx, способные работать со скоростью 200 Гбит/с. Ранее об этих решениях мы уже упоминали, но теперь поставки этих карт начались официально. Это новейшее пополнение многолетней серии ConnectX, хорошо известной всем, кто когда-либо имел дело с высокоскоростными сетями.

Карты ConnectX-6 Dx будут поставляться на рынок в двух версиях: с одним портом Ethernet 200 Гбит/с, либо с двумя портами 100 Гбит/с. Есть обратная совместимость с сетями 50, 40, 25 и 10 Гбит/с. Поддерживается ускорение Open vSwitch и аппаратное шифрование IPSec и TLS для RoCE и TCP, а также набирающая популярность технология NVMe-over-Fabrics.

Новинка имеет множество форм-факторов и может иметь как низкопрофильный конструктив, так и мезонин типа OCP 2.0 и 3.0. Поддерживается интерфейс PCIe 4.0 x16, но доступны и конфигурации с меньшим числом линий. Заявленный уровень задержек составляет менее 0,8 мкс.

Соответствующие коммутаторы в ассортименте Mellanox уже есть, это решения серий Spectrum-2 и новейшие Advantage.

Постоянный URL: http://servernews.ru/995711
25.09.2019 [12:18], Андрей Созинов

Ядро Linux 5.4 получило поддержку интерфейса NVMe-oF для P2P-подключений

В минувший понедельник в ядро Linux 5.4 были внесены некоторые изменения, влияющие на работу с шиной PCI. А вместе с изменениями появилось и одно весьма интересное дополнение, сообщает ресурс Phoronix.

Согласно коду ядра Linux 5.4 шина PCI поддерживает одноранговое подключение (P2P) с прямым доступом к памяти между корневыми портами. Правда, такая поддержка реализована лишь для «разрешённых» мостов, которые входят в так называемый «белый список». Тем не менее, это позволяет реализовать P2P-подключение с интерфейсом NVMe over Fabrics (NVMe-oF) для передачи данных между устройствами в обход любого переключения корневых комплексов.

Очевидно, что передача данных через NVMe-oF с P2P-подключением потенциально может обеспечить прирост производительности и эффективности, однако на данный момент работает это не на всех системах. «Повезло» системам на процессорах AMD с архитектурой Zen, где подобное подключение работает отлично без каких-либо исключений. А вот системы Intel имеют довольно скромный «белый список» совместимых PCI-мостов в Linux 5.4. В него входят чипсеты Intel с мостами 0x3c00, 0x3c01, 0x2f00 и 0x2f01. Со временем перечень совместимых устройств будет расширяться после всестороннего тестирования того или иного оборудования.

Постоянный URL: http://servernews.ru/994588
12.09.2019 [12:24], Андрей Созинов

Western Digital покупает стартап Kazan Networks для создания JBOF-систем с NVMe-oF

Компания Western Digital приобрела небольшой стартап Kazan Networks, который разрабатывал продукты, предназначенные для подключения накопителей данных посредством NVMe over Fabrics (NVMe-oF).

Финансовая сторона сделки не раскрывается, однако отмечается, что сотрудники Kazan Networks присоединятся к Western Digital.

Стартап Kazan создал адаптер Onyx, который представляет собой сетевой мост, позволяющий напрямую подключить массив накопителей NVMe к сети через интерфейс NVMe-oF. По словам разработчиков, их решение потребляет меньше энергии, обладает наименьшими задержками и наилучшей производительностью среди всех себе подобных.

Также в активе стартапа Kazan имеется ASIC Fuji, который способен выполнять те же задачи, что и адаптер Onyx, но в рамках материнской платы. Данное решение ориентировано на малые системы хранения данных на базе NVMe-накопителей.

Компания Western Digital сможет использовать разработки Kazan в своих СХД IntelliFlash и компонуемой инфраструктуре распределённого хранения данных OpenFlex. По словам самой WD, новое приобретение позволит ей предложить своим клиентам более оптимизированные и быстрые решения в новом поколении хранилищ данных.

Постоянный URL: http://servernews.ru/993931
Система Orphus