Материалы по тегу: nvme-of

14.08.2020 [22:10], Юрий Поздеев

DELL MX7000 становится по-настоящему быстрым с PCIe-шасси Liqid

Dell добавила графические ускорители, FPGA и хранилище NVMe в свою систему MX7000. Такое обновление делает MX7000 хорошим вариантом для приложений с интенсивным использованием данных: искусственный интеллект, машинное обучение и аналитика. Dell упомянула об интеграции с Liqid, производителем программно определяемой компонуемой инфраструктуры.

Blocks & Files

Blocks & Files

NVMe становится доминирующим стандартом для создания хранилищ на базе высокопроизводительных SSD, вне зависимости от реализации — напрямую ли через PCIe или посредством NVMe-oF. MX7000 использует для объединения ресурсов Ethernet и Fibre Channel, но графическим ускорителям обычно требуется NVMe и PCIe для передачи данных к GPU. Тут на помощь и приходит Liqid, которая предоставляет готовое шасси для добавления в систему 20 полноразмерных графических ускорителей или FPGA, а также NVMe-накопителей. Адаптеры PCIe 3.0 x4 связывают платформу MX7000 с модулями расширения Liqid.

Blocks & Files

Blocks & Files

Dell сообщает, что программное обеспечение Liqid Command Center позволяет динамически выделять графические процессоры вычислительным модулям MX, причем поддерживается горячая замена графических ускорителей. Cамо же шасси MX7000 управляется ПО Dell OpenManage Enterprise Modular Edition, и такое «двоевластие» в системе может быть не слишком удобным.

Постоянный URL: http://servernews.ru/1018292
13.08.2020 [18:12], Алексей Степин

Western Digital представила новые SSD-модули OpenFlex F3200

Мы уже рассказывали о СХД WD OpenFlex E3000. Эти системы характеризуются уникальным форм-фактором, в рамках которого каждый твердотельный модуль имеет ёмкость до 61,4 Тбайт и поддержку NVMe-over-Fabrics. А сейчас WD представила пополнение семейства — модуль F3200, пришедший на смену серии F3000.

Шасси WD OpenFlex E3000 и модуль F3200 (сверху)

Шасси WD OpenFlex E3000 и модуль F3200 (сверху)

Составные системы хранения данных WD OpenFlex состоят из шасси E3000 и модулей F3x00; наибольший интерес представляют именно модули. Как правило, в современных флеш-СХД массово используются накопители стандартных форм-факторов: SATA/SAS, U.2 или линеечные EDSFF. Все они достаточно компактны. Но в OpenFlex накопителем является более крупный модуль, который, впрочем, также можно отнести к «линеечным».

В отличие от традиционных SSD, такой модуль сразу оснащается парой портов QSFP28 для 50GbE-подключений к сети. Линейная производительность при этом составляет до 12 Гбайт/с, а ёмкость варьируется от 12,8 до 61,4 Тбайт. В шасси таких «дисков» может устанавливаться до десяти.

Немного позднее модель F3000 сменилась более новой F3100, которая смогла похвастаться скоростями случайных операций до 2,1 млн IOPS при задержке, не превышающей 48 мкс. В ней компания перешла на использование 96-слойной памяти 3D TLC NAND. Новейшая модель F3200, представленная сейчас, не изменилась с точки зрения ёмкости, потолок всё так же составляет 61,4 Тбайт. Однако над скоростными показателями WD поработала: производительность на случайных операциях выросла на 48%, на линейных скорость записи увеличилась на 22%.

Доступные варианты накопителей WD OpenFlex 3200

Доступные варианты накопителей WD OpenFlex 3200

А вот надёжность даже несколько снизилась: если ранее серия делилась на модели с выносливостью 1 DWPD и 3 DWPD, то теперь наиболее ёмкая модель гарантирует всего 0,8 DWPD, хотя есть варианты F3200 и выдерживающие две полные перезаписи в день в течение гарантийного срока.

Интерфейс не изменился, это всё так же пара портов 50GbE с поддержкой NVMe-oF и RoCE (RDMA over Converged Ethernet), но обновилось программное обеспечение: появилась поддержка VLAN tagging, secure erase, расширенного пространства имён NVMe. Поддерживается набор открытых API Open Composable, за счёт чего обеспечивается полноценный мониторинг и удалённое управление системой хранения данных.

Стоимость самого ёмкого модуля F3200 в серии составляет почти $32 тысячи, а младшую, но самую быструю по времени отклика модель объёмом 12,8 Тбайт можно приобрести и за $13,8 тысяч. Подробности можно узнать на сайте Western Digital.

Также напомним, что в рамках обновления ИТ-инфраструктуры платформа WD OpenFlex будет использоваться в Международном центре исследований головного и спинного мозга, который располагается в Париже: объёмы данных в современных нейрофизиологических исследованиях огромны и сочетание скорости и ёмкости WD OpenFlex придётся здесь как нельзя более к месту.

Постоянный URL: http://servernews.ru/1018181
11.08.2020 [22:36], Владимир Мироненко

СХД Western Digital OpenFlex поможет ускорить изучение мозга и разработку лекарств

Стало известно, что Western Digital проведёт модернизацию инфраструктуры хранения данных Международного центра исследования головного и спинного мозга (ICM Brain and Spine Institute), базирующегося в Париже. Для этого будет использована СХД-платформа OpenFlex с открытой компоновкой.

Устаревшая инфраструктура хранения данных центра не соответствует возможностям современного оборудования. Современные микроскопы способны генерировать до 2 Тбайт данных в час, что превышает возможности локальных СХД, привязанных к рабочей станции. Из-за этого возникали длительные задержки в связи с необходимостью ожидания отклика от инфраструктуры хранения данных на каждом этапе анализа.

Выбрав OpenFlex, институт получил сверхбыструю СХД на более производительной и гибкой архитектуре с использованием технологии NVMe over Fabrics (NVMe-oF), и теперь учёные смогут распределять ресурсы хранилища через институтскую сеть Ethernet без потерь в производительности и задержках.

Решение OpenFlex от Western Digital обеспечивает учёным следующие преимущества:

  • Высокая производительность, сопоставимая с параметрами локальной системы хранения. Благодаря этому институтская сеть Ethernet способна обеспечить скорость до 50 Гбит/с, а задержка, по информации института, для большинства операций с СХД не превышает 34 микросекунды.
  • Ускорение темпов исследовательской деятельности за счёт устранения задержек и перебоев при анализе данных.
  • Гибкая архитектура. С помощью OpenFlex IT-специалисты института могут выделять ресурсы общего хранилища под конкретные задачи любого исследователя, изменяя по запросу размер томов хранилища и перераспределяя их. В дальнейшем институт будет закупать новое оборудование, увеличивая разрешение медицинских изображений и размер файлов, поэтому такая гибкость имеет большое значение.
  • Повышение эффективности и сокращение издержек. Поскольку данные хранятся централизованно в сетевом ЦОД, для IT-команды института упростится техническое обслуживание и обновление ПО. Также не будет необходимости в закупке дополнительных локальных накопителей отдельно под каждое новое устройство.
Постоянный URL: http://servernews.ru/1017995
07.08.2020 [21:12], Алексей Степин

Производительность All-Flash СХД OSS StorageBox 2000 достигает 186 Гбайт/с

Стандарту PCI Express 3.0 исполнилось уже 10 лет — его спецификации были впервые утверждены в ноябре 2010 года. С тех пор технологии хранения данных успели существенно продвинуться, набрал популярность протокол NVMe и производительности PCIe 3.0 начинает не хватать. Следующая, вдвое более быстрая версия PCI Express понемногу проникает на рынок. Именно её использует необычная all-flash СХД One Stop Systems StorageBox 2000.

Компания One Stop Systems (OSS) известна на рынке HPC как крупный поставщик различного рода систем расширения, основанных на PCI Express, хотя предлагает она также и решения на базе NVLink, InfiniBand и Ethernet. OSS активно сотрудничает с Intel, Xilinx, NVIDIA и Western Digital HGST, её решения активно используются в медицинской, финансовой, нефтегазовой и оборонной отраслях.

OSS StorageBox 2000

OSS StorageBox 2000

На этот раз речь пойдёт о новой модульной системе хранения данных StorageBox 2000, которая интересна как своими опциями, так и тем, что способна всерьёз реализовать потенциал, заложенный в PCI Express 4.0. Внешне StorageBox 2000 выглядит как ничем не примечательный 2U-корпус 24 дисковыми корзинами «горячей замены». Однако все 24 отсека могут быть заняты накопителями PCIe NVMe с поддержкой PCIe 4.0 в форм-факторах U.2 или U.3.

При использовании SSD объёмом 30 Тбайт общий объём хранимых данных может достигать 720 Тбайт на каждые 2 юнита стойки. Суммарная пропускная способность накопителей может достигать 186 Гбайт/с (7,76 Гбайт/с на каждый порт U.3). Но интересно даже не это, а то, что StorageBox 2000 имеет три разные ипостаси.

Накопители можно заменять на лету блоками по 8

Накопители можно заменять на лету блоками по восемь единиц

В самом простом варианте JBOF (just a bunch of flash) с хост-системой SB2000 общается посредством двух интерфейсов PCIe 4.0 x16 с совокупной пропускной способностью более 512 Гбит/с. За коммутацию отвечает пара чипов Broadcom PEX88096, это 96-портовые интеллектуальные коммутаторы с интегрированными процессорными ядрами ARM Cortex-R4, обеспечивающие задержку не более 105 нс. Для подключения используется 8 разъёмов SFF-8644.

Вариант с OSS Ion Accelerator SAN любопытнее: это уже сетевая СХД, поддерживающая NVMe over Fabrics, SRP, iSCSI или даже InfiniBand. Она обслуживается фирменным ПО Ion Accelerator 5.2 и в зависимости от версии может оснащаться десятью портами Fibre Channel со скоростью 32 Гбит/с, четырьмя портами 100GbE или четырьмя портами InfiniBand со скоростью 200 Гбит/с. Работает в комплексе с однопроцессорным сервером OSS EOS-4, который использует AMD EPYC 7002 и, соответственно, поддерживает PCI Express 4.0.

Архитектура SB2000 в базовом варианте довольно проста

Архитектура SB2000 в базовом варианте довольно проста

Промежуточное положение занимает вариант OSS Zion NAS. Он представляет собой SB2000, оснащённую двумя «умными» сетевыми адаптерами класса SmartNIC с ARM-процессорами на борту. В зависимости от версии, обеспечивает подключение посредством четырех портов 100GbE или двух портов InfiniBand 200 Гбит/с. Поддерживает аппаратное шифрование AES-GCM 126/256 и AES-XTS 256/512, соответствует спецификациям FIPS-140-2 Level 1.

SB2000 может работать с любыми серверами и инициаторами, даже без поддержки PCIe 4.0, с соответствующим снижением производительности. Имеются средства управления и мониторинга IPMI 2.0, доступные через выделенный порт Ethernet. Также интересно то, что диски в системе могут заменяться как по одному, так и сразу блоками по 8 накопителей. Поддержки RAID в аппаратном виде система не предлагает — эта функция целиком возложена на программное обеспечение или серверную часть.

Несмотря на то, что система StorageBox 2000 демонстрировалась на виртуальной конференции ISC 2020, во всемирной сети о ней встречается буквально пара упоминаний. Также известно, что некоторые заказы на неё были сделаны ещё в мае этого года. По всей видимости, выпуск SB2000 развёрнут, и данная модульная система поставляется заказчикам. Она станет хорошим подспорьем для современных систем машинного обучения, требующих больших объёмов данных и быстрого доступа к ним.

Постоянный URL: http://servernews.ru/1017733
01.08.2020 [23:02], Алексей Степин

DPU, «cопроцессоры для данных», набирают популярность, но пока не являются зрелыми

В новости об анонсе сопроцессора для SSD от Pliops, призванного разгрузить от этих задач CPU, упоминалось, что подобного рода решения разрабатывают и другие. Концепция «сопроцессора для данных» (data processing unit, DPU) уже в достаточной степени оформилась, но единства в архитектурном и программном подходе пока нет. Что может предложить современный рынок DPU?

С обработкой данных на стороне сетевого адаптера — самого периферийного устройства в любой серверной системе, активно экспериментировала ещё Mellanox. Сейчас, будучи частью NVIDIA, она продолжает начатую работу. Главной разработкой NVIDIA/Mellanox в этой сфере можно назвать чип BlueField-2, с одной стороны обеспечивающий функциональность типичного SmartNIC (один порт Ethernet класса 200G или два порта класса 100G), а с другой — поддержку NVMe over Fabrics и разгрузку центральных процессоров во всём, что касается задач ввода-вывода.

Это решение содержит как массив ARM-ядер, так и специализированные ASIC-блоки ускорения различных функций. Дополняется это наличием набортных 16 Гбайт оперативной памяти DDR4. NVIDIA видит DPU, такие, как BlueField-2, частью связки «CPU + GPU + DPU». Благодаря использованию архитектуры ARM такой подход универсален и его разделяют, к примеру, аналитики Wells Fargo.

Архитектура AWS Nitro

Архитектура AWS Nitro

Но на рынке существуют и другие игроки, активно внедряющие идеи, заложенные в концепции DPU. К ним можно отнести одного из крупнейших провайдеров облачных услуг — Amazon Web Services. Она разработала собственный DPU-ускоритель, плату Nitro. В общих чертах это решение похоже на NVIDIA/Mellanox BlueField-2, но ASIC там используется другой, собственной разработки AWS.

Инстансы Elastic Compute Cloud запускаются с использованием таких ускорителей, работающих на шине PCI Express. AWS не ограничивает их единственным предложением, а предоставляет различные оптимизированные под задачи заказчика версии — ориентированные на вычисления, машинное обучение, хранение и обработку данных и другие сценарии. AWS Nitro также содержит реализацию NVMe и NVMe-OF; похоже, это станет общим местом всех DPU.

Архитектура Diamanti

Архитектура Diamanti

Над похожим проектом работает компания Diamanti, разрабатывающая линейку выделенных гиперконвергентных серверов, оптимизированных для запуска контейнеров Kubernetes и выполняющих эту задачу лучше стандартных серверов. В серию входят модели D10, D20 и G20, и в общем виде они мало чем отличаются от обычных машин, но машины Diamanti содержат два уникальных компонента — NVMe-контроллер и 40GbE-контроллер Ethernet с поддержкой Kubernetes CNI и SR-IOV.

Решения Diamanti интересы тем, что используют два раздельных ускорителя вместо одного, и это имеет свои преимущества: скажем, скорости сетевого подключения 40 Гбит/с в ближайшее время может оказаться недостаточно, но для соответствия современным требованиям в сервере Diamanti будет достаточно сменить сетевой ускоритель, не трогая плату NVMe-контроллера, отвечающую за общение с дисковой подсистемой.

Fungible предлагает сделать DPU центром всей системы

Fungible предлагает сделать DPU центром всей системы

Также заслуживает упоминания компания Fungible, о которой мы рассказывали читателям в начале этого года. Именно она одной из первых озвучила термин DPU. На момент первого анонса, в феврале 2020 года готового ускорителя на руках у Fungible ещё не было. Но концепция DPU, пожалуй, проработана у Fungible лучше всего: предполагается, что в таких системах весь трафик, от сетевого и содержимого, пересылаемого из памяти в ЦП, до данных, передаваемых графическому процессору, будет проходить через DPU.

«Процессор обработки данных» в представлении Fungible станет звеном, объединяющем все компоненты вычислительной системы, будь то процессоры, GPU, FPGA-ускорители или массивы флеш-памяти. В качестве системы межсоединений компания планирует использовать шину TrueFabric собственной разработки, отличающуюся низким уровнем задержек. Готовое решение Fungible должна представить уже в этом году.

Архитектура Pensando Capri

Наконец, компания Pensando, в конце 2019 года начавшая сотрудничество с известным производителем СХД NetApp, уже поставляет ускорители Distributed Services Card, DSC-100. Они сочетают в едином чипе и одной плате функции, которые Diamanti решает с помощью двух раздельных карт; как уже было сказано, у такого подхода есть и минусы — заменять ускоритель придётся целиком, даже если «ускорительная» часть ещё способна на многое, а ускорить требуется лишь сетевое подключение.

В основе DSC-100 лежит процессор Capri, с сетевой стороны предоставляющий пару портов 100GbE, имеющих общий буфер пакетов. С этим буфером общается полностью программируемый процессор обработки данных, но имеются в составе чипа и классические ARM-ядра, а также «жесткие» ускорители, например, криптографический. Программируемая, «жёсткая» и ARM-части общаются посредством когерентной системы межсоединений, которая подключена к контроллеру PCIe и массиву оперативной памяти. В целом решение напоминает NVIDIA/Mellanox BlueField-2.

К сожалению, ни одно из описанных решений пока не успело стать стандартным для индустрии. Каждое из них имеет свои достоинства и недостатки, а главное — несовместимую между собой программную часть. Это делает внедрение DPU в имеющиеся структуры достаточно сложным процессом: надо не ошибиться в выборе поставщика и разработчика, а кроме того, требуется отдельная покупка, инсталляция и затраты на обслуживание и поддержку.

Лишь такие гиганты, как AWS, могут полностью обеспечить себя идеальным для своих задач DPU. Иными словами, «сопроцессоры данных» пока представляют собой нишевые устройства. Для того, чтобы они стали по-настоящему популярными, нужен единый унифицированный стандарт архитектуры — такой же, какой обеспечил в своё время универсальность и кросс-совместимость графических процессоров.

Постоянный URL: http://servernews.ru/1017218
29.07.2020 [16:34], SN Team

Как компании эффективно управлять лавиной данных?

Во многих отраслях промышленности произошедшее в последние годы развитие перспективных технологий, в частности 5G, интернета вещей (IoT) и искусственного интеллекта (ИИ), было встречено с большим ажиотажем. Столь бурная реакция прежде всего объясняется огромным потенциалом таких технологий, ведь они способны кардинально изменить подход к хранению и использованию информации и данных, сделав их более понятными и повысив уровень безопасности, продуктивности и качество аналитики. Впрочем, широкое внедрение этих технологий также приведет и к значительному увеличению объема генерируемых данных, для работы с которыми так же оперативно и с упором на снижение уровня задержки и увеличение емкости должны модернизироваться СХД.

Хотя будущее предсказывать непросто, кое-что можно сказать с большой долей уверенности: в следующие десять лет объем создаваемых данных продолжит расти по экспоненте. Согласно недавнему прогнозу IDC, в текущем году человечество создаст, сохранит, скопирует и обработает 59 зеттабайт (Збайт) данных. Происходящий на наших глазах взрывной роста объема информации ставит перед компаниями из всех отраслей один и тот же вопрос — как подготовить и оптимизировать СХД?

Лавинообразный рост объемов данных в отраслевом масштабе

Во многих отраслях промышленности компании накопили значительные объемы ценных, но необработанных, сырых данных. Эти данные можно пропустить через мощные современные инструменты аналитики и извлечь из них полезные инсайты, которые помогут компании улучшить свои операционные показатели и открыть для себя новые рыночные возможности. Те участники рынка, которые научатся эффективно оперировать этими инструментами, значительно повысят ценность своего предложения и смогут выделиться из конкурентной массы, а остальные будут постепенно сдавать свои позиции.

Хорошим примером вертикально выстроенной отрасли может служить финансовый сектор. Его постоянно заливает огромными объемами самых разных данных: от информации о банковских транзакциях до проектной аналитики и цен на акции. Стоит упомянуть и отрасль промышленного производства, в которой автоматизация, затрагивая интернет вещей, аналитику и технологические линии, позволяет повысить отдачу производственных систем и масштабировать их, нарастив выпуск с сотен единиц в час до тысяч или даже миллионов.

По мере того как во всех отраслях компании будут сталкиваться с непрекращающимся ростом объемов данных, им придется переосмыслить свой подход к сбору, хранению и преобразованию данных, а также пересмотреть организацию доступа к ним. И неважно, идет ли речь о высокопроизводительном ИИ, гипермасштабируемых круглосуточно доступных системах или всего лишь о домашних компьютерных играх, многие устаревшие СДХ не в состоянии беспроблемно справиться с новыми вызовами, которые перед ними ставят быстрые данные, — их производительность и качество обслуживания ухудшается, а уровень задержки растет.

Новое решение с поддержкой NVMe™ для больших данных

Для преодоления возникающих трудностей многие компании выбирают накопители с поддержкой Non-Volatile Memory Express (NVMe) — единственного протокола, подходящего для ресурсоемких корпоративных экосистем с большими вычислительными мощностями, в которых используются облачные ресурсы и периферийная обработка данных. В NVMe реализован целый ряд передовых характеристик, которые дают компании возможность не только улучшить свои бизнес-показатели, но и более эффективно использовать имеющиеся данные. Ниже приведены некоторые из таких характеристик.

  • 1. Повышенная производительность

Первый SSD-накопитель на флеше вернул часть былого величия устаревшим физическим интерфейсам SATA/SAS и соответствующим протоколам и форм-факторам, но ни один из этих интерфейсов и протоколов не разрабатывался под высокоскоростные СХД. Следующим логическим интерфейсом для хранилищ стал PCI Express (PCIe), но ранние версии PCIe SSD были завязаны на фирменное программно-техническое обеспечение, из-за чего масштабировать систему было весьма проблематично. Протокол NVMe возник как решение этих проблем, поскольку он дает гораздо более высокую производительность и меньшие задержки по сравнению со старыми протоколами SAS и SATA.

  • 2. Простота установки

Реализация СДХ с накопителями со стандартом подключения NVMe не требует специализированной сетевой инфраструктуры, достаточно обычного соединения по Ethernet или Fibre Channel.  Это очень важно, потому что компаниям не приходится вносить изменения в приложение.

  • 3. Экономические преимущества

Доступ к данным для приложений по обычным протоколам потребляет много циклов ЦП, и эти нерачительно использованные циклы вычислений стоят компаниям реальных денег. Бюджеты на IT не растут теми же темпами, что объемы данных, поэтому компании оказываются под огромным давлением — от их инфраструктуры требуется максимальная отдача, как в части емкости, так и вычислительных мощностей. Поскольку NVMe умеет справляться с серьезными рабочими нагрузками от приложений даже в условиях ограниченной инфраструктуры, организации могут снизить общую стоимость владения и ускорить рост валовой выручки.


Анкета загружается...

И нам видна только самая верхушка айсберга революции данных. По мере дальнейшего развития интернета вещей и машинного обучения и появления новых приложений ценность данных также будет меняться, и для эффективного использования новых технологий компаниям следует концептуально поменять свой подход к организации СХД. С помощью NVMe компания может реализовать невиданные доселе функции, открывая для себя совершенно новую парадигму проектирования и построения приложений — с большей эффективностью, более низким значением задержки и за гораздо меньшие деньги. Переход на NVMe станет жизненно необходимым шагом для любой компании, стремящейся во всеоружии встретить революцию больших данных, которая продлится не одно десятилетие.

Для более гладкого перехода на технологию NVMe компания Western Digital предлагает накопители из модельного ряда Ultrastar® с поддержкой NVMe™, характеризующиеся низким значением задержки и максимальной пропускной способностью для рабочих нагрузок с большим количеством транзакций. Вслед за серверным накопителем Ultrastar DC SN640, представленным Western Digital в 2019 г., в июне 2020 г. компания запустила еще одно революционное решение для ЦОД, объединяющее в себе три ключевые технологические новинки: новую платформу OpenFlex™ Data24 NVMe-oF™ и входящие в ее состав новый SSD-накопитель Ultrastar DC SN840 NVMe и контроллеры RapidFlex™.

С появлением NVMe значительно увеличились объемы хранилищ в ЦОД по сравнению с твердотельными накопителями с SATA и SAS, и теперь, благодаря высокоскоростному подключению RapidFlex к СХД OpenFlex, технология NVMe over Fabric (NVMe-oF) позволяет вам создавать дезагрегированные NVMe-хранилища поверх вашей сети с производительностью, сопоставимой с локальной СХД.

Заявления прогнозного характера

В настоящей статье могут содержаться заявления прогнозного характера, в том числе заявления об ожидаемых продуктах Western Digital для хранения данных с поддержкой NVMe, рынке для этих продуктов, а также будущих характеристиках этих продуктов и примененных в них технологиях. Фактические результаты могут значительно отличаться от обозначенных в заявлениях прогнозного характера, поскольку данные заявления прогнозного характера подвержены действию рисков и неопределенности, включая сложности и задержки, связанные с разработкой, проблемы с цепочкой поставок или логистикой, изменения рыночной конъюнктуры, спроса, глобальных экономических условий, а также другие риски и неопределенности, приведенные в переданных в Федеральную комиссию по ценным бумагам и биржам США (Securities and Exchange Commission) последних квартальных и годовых отчетах Western Digital Corporation, на которые следует обратить внимание. Читатели предостерегаются от того, чтобы всецело полагаться на подобные заявления прогнозного характера, и мы не планируем в дальнейшем актуализировать настоящие заявления прогнозного характера, чтобы отразить в них позднее наступившие события или обстоятельства.

Автор: Давид Вилла, директор по развитию бизнеса Western Digital в регионе Европа, Ближний Восток, Африка и Индия (EMEAI)

Если вы хотите получить более детальную информацию о решениях Western Digital, заполните форму выше.

Постоянный URL: http://servernews.ru/1016934
25.06.2020 [13:47], Сергей Карасёв

Ёмкость NVMe-oF хранилища Western Digital OpenFlex Data24 может достигать 368 Тбайт

Компания Western Digital анонсировала систему хранения данных корпоративного класса OpenFlex Data24, рассчитанную на монтаж в стойку. Новинка подходит для решения таких задач, как аналитика в режиме реального времени, виртуализация, HPC, а также поддержание работы баз данных, ИИ и машинного обучения.

Устройство OpenFlex Data24 выполнено в форм-факторе 2U. Допускается установка до 24 твердотельных накопителей U.2 NVMe SSD, в частности, недавно представленных изделий семейства Ultrastar DC SN840, которые обладают вместимостью до 15,36 Тбайт. Таким образом, суммарная ёмкость хранилища может достигать 368 Тбайт.

Новинка относится к решениям JBOF — Just a Bunch of Flash. До шести хостов могут быть напрямую подключены к хранилищу с использованием портов 100Gb Ethernet и адаптеров Western Digital RapidFlex NVMe-oF. Новинка совместима c прежними решениями OpenFlex серии F.

Заявленное быстродействие достигает 13 млн операций ввода/вывода в секунду (IOPS), пропускная способность — 70 Гбайт/с. Задержки при этом составляют менее 500 наносекунд.

Система оборудована двумя блоками питания с сертификацией Platinum мощностью 2000 Вт каждый. Габариты составляют 8,75 × 44,80 × 71,12 см, вес — 31,75 кг. 

Постоянный URL: http://servernews.ru/1014240
27.05.2020 [20:54], Алексей Степин

Новая ПЛИС Xilinx Virtex UltraScale+ оптимизирована для сетей и СХД

С момента своего появления программируемые логические схемы проделали большой путь. В конце прошлого года рекорд Xilinx, составивший 9 млн. логических ячеек был побит Intel, представившей Stratix 10 GX 10M с 10 миллионами ячеек.

Сейчас один из самых известных разработчиков ПЛИС в мире подтверждает звание лидера, анонсируя новую микросхему в серии Virtex UltraScale+ — VU23P.

Предыдущая модель, Virtex UltraScale+ VU19P, представляла собой высокопроизводительную ПЛИС общего назначения, предназначенную для разработки и прототипирования однокристальных платформ и чипов ASIC. Новая VU23P более специализирована: компания-разработчик нацелила её на использование в производительных сетевых решениях, а также для ускорения крупных систем хранения данных. Специально оговаривается тот факт, что по соотношению LUT и DSP-ячеек новинка уступает VU19P, но превосходит остальные ПЛИС в серии UltraScale+.

Зато коммуникационные возможности у VU32P развиты великолепно: в ней реализованы новейшие PAM4-трансиверы со скоростью 58 Гбит/с, поддержка шины PCI Express 4.0 и интегрированный MAC-контроллер класса 100G; конфигурация в качестве «умного» сетевого процессора допускает использование скоростей 200 Гбит/с. Всё это довольно компактно упаковано: размер кристалла не превышает 35 × 35 мм.

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Virtex UltraScale+ VU23P ориентирована не только на работу в качестве сетевого ускорителя. Она с тем же успехом может выполнять и роль акселератора в масштабных сетевых системах хранения данных. Для этого в ней реализована полноценная поддержка технологии NVMe over Fabrics, ведь уже очевидно, что протокол NVMe одержал победу в сфере накопителей и именно за ним будущее.

В VU23P поддерживается ряд сценариев ускорения, востребованных в таких системах: сжатие и декомпрессия данных, их дедупликация, выстраивание очередей (sequencer functionality) и других. Также новинка найдёт своё место в конвергентных сетях, поскольку может работать в качестве шлюза, позволяющего объединять все используемые в такой сети службы в едином интерфейсе без потери производительности.

Информацию о новинке можно найти на веб-сайте компании-разработчика. Там же имеется обзор архитектуры UltraScale в целом и руководство по выбору наиболее подходящей под ваши задачи ПЛИС.

Постоянный URL: http://servernews.ru/1012016
15.05.2020 [11:45], Юрий Поздеев

BIGTERA FlashGO SF2224: All-flash СХД с iSCSI и NVMe-oF

На мероприятии OCP Virtual Summit 2020 BIGTERA представила две новые all-flash СХД новой линейки FlashGo. Обе модели построены на безе контроллера Silicon Motion, используют накопители NVMe, что позволяет достигать производительности до 1,2 млн IOPS (при профиле нагрузки чтение/запись 70/30).

Новые модели работают под управлением собственная ОС VirtualStor на базе CentOS и Intel SPDK, которая позволяет масштабировать СХД не только вертикально (за счет полок расширения), но и горизонтально (за счет объединения в кластер контроллерных пар).

VirtualStor поддерживает протоколы iSCSI и NVMe-oF/RoCE, что позволяет подключать дополнительные полки расширения с NVMe-дисками. Поддерживаются и все необходимые функции современных СХД: Snapshot Clone, Disaster Recovery, ThinProvision и Cache Mirroring. При этом управление системой сделано максимально просто для пользователя: как через GUI с HTML5, так и посредством RESTful API.

FlashGo SF2224E представляет собой двухконтроллерную iSCSI СХД начального уровня и имеет форм-фактор 2U. Шасси вмещает 24 накопителя NVMe SSD (базовые конфигурации включают в себя 12 или 24 диска). Каждый контроллер имеет объем памяти 128 Гбайт и дополнительный FlashCache объемом 2 или 4 Тбайта. Интерфейсы, по умолчанию установленные в каждом контроллере: 2х40 Гбит/с QSFP и 2x10 Гбит SFP+. СХД также оснащена встроенным источником бесперебойного питания для защиты от сбоев напряжения.

По информации от BIGTERA в полной конфигурации эта СХД способна выдавать 1 млн IOPS при профиле нагрузки чтение/запись 70/30, при этом задержка доступа не превысит 0,5 мс.

FlashGo SF2224P+SF2224S тоже построена по двухконтроллерной схеме, но имеет форм-фактор 4U и в базовой конфигурации может поставляться с 24 или 48 NVMe SSD накопителями. Объем оперативной памяти каждого контроллера увеличен до 256 Гбайт, а объем дополнительного FlashCache достигает 4 Тбайт. С учетом большего количества дисков, чтобы использовать всю пропускную способность, установлены более производительные интерфейсные платы с двумя портами 100 Гбит QSP28 и двумя портами 10 Гбит SFP+. Есть поддержка RoCEv2.

Общая производительность системы достигает 1,2 млн IOPS (при профиле нагрузки 70/30), что уже является более чем внушительной цифрой даже для all-flash СХД.

В ближайшее время BIGTERA планирует предложить клиентам опциональный кеш-модуль Smart NVMe увеличенного объема 8 Тбайт.

Постоянный URL: http://servernews.ru/1010986
14.05.2020 [23:31], Игорь Осколков

Samsung E-SSD: накопитель с 50 Гбит/с Ethernet и NVMe-oF

Samsung периодически радует нас любопытными разработками. Так, два года назад она совместно с Xilinx представила накопители SmartSSD PM983F со встроенной ПЛИС, которая позволяет накопителю самостоятельно производить вычисления и обрабатывать данные. В прошлом году вышел прототип KV Stacks — Key:Value SSD, реализующего подобие объектного, а не блочного хранилища, которое идеально подходит для одноимённого класса СУБД.

На этот раз в рамках OCP Virtual Summit Samsung поделилась информацией о концептуальном E-SSD — твердотельном накопителе с сетевым интерфейсом 50GbE.

Идея внедрения сетевого адаптера непосредственно в накопитель не нова. Это позволит избавиться от множества промежуточных слоёв типовой системы хранения данных: бэкплейна, контроллера RAID/HBA, контроллера PCIe (часто со свитчом и ретаймерами), собственно сетевого адаптера и всего сопутствующего программного стека.

Такая схема снижает задержки и позволяет повысить плотность размещения оборудования. Одним из самых известных проектов такого рода был Seagate Kinetic — 4-Тбайт HDD, который имел Ethernet-адаптер и предоставлял объектное хранилище. Правда, после совместного анонса с CERN об использовании платформы Kinetic Open Storage практически ничего не было слышно.

Приход RDMA и NVMe(-oF) упростил задачу — между накопителями и сетью находился только PCIe. Проблему объединения одного с другим решают по-разному. Например, Pavilion Data организует PCIe-фабрику со множеством контроллеров. Viking Enterprise Solutions использует большое число PCIe-линий AMD EPYC Rome.

Kazan Networks, которую выкупила Western Digital, предлагает готовые NVMe-мосты, как Marvell. Есть и акселераторы вроде LightField. Все подобные решения позволяют организовать полки JBOF (Just Bunch of Flash), подключённые к коммутаторам Ethernet или InfiniBand. Это намного проще и дешевле, чем, к примеру, организация PCIe-сети вроде FabreX.

Samsung E-SSD доводит идею до логического конца: накопитель оснащается двумя портами 25GbE и поддерживает NVMe-over-TCP и RDMA (iWARP/RoCE). Компания называет такое подход Ethernet Bunch of Flash или просто EBOF. E-SSD обеспечивают 1,5 млн IOPS при случайном чтении 4K-блоками, что, согласно разработчикам, эквивалентно прямому подключению PCIe 4.0 x4.

Производительность с ростом числа накопителей в полке только увеличивается, а разница может быть трёхкратной в сравнении с обычными JBOF. Сам же накопитель выполнен в стандартном 2,5” форм-факторе SFF и должен быть совместим с текущими СХД для U.2-дисков. Речь всё же только о механической совместимости, да и про TDP такого устройства ничего не говорится.

Постоянный URL: http://servernews.ru/1010975
Система Orphus