Материалы по тегу: схд

07.08.2020 [21:12], Алексей Степин

Производительность All-Flash СХД OSS StorageBox 2000 достигает 186 Гбайт/с

Стандарту PCI Express 3.0 исполнилось уже 10 лет — его спецификации были впервые утверждены в ноябре 2010 года. С тех пор технологии хранения данных успели существенно продвинуться, набрал популярность протокол NVMe и производительности PCIe 3.0 начинает не хватать. Следующая, вдвое более быстрая версия PCI Express понемногу проникает на рынок. Именно её использует необычная all-flash СХД One Stop Systems StorageBox 2000.

Компания One Stop Systems (OSS) известна на рынке HPC как крупный поставщик различного рода систем расширения, основанных на PCI Express, хотя предлагает она также и решения на базе NVLink, InfiniBand и Ethernet. OSS активно сотрудничает с Intel, Xilinx, NVIDIA и Western Digital HGST, её решения активно используются в медицинской, финансовой, нефтегазовой и оборонной отраслях.

OSS StorageBox 2000

OSS StorageBox 2000

На этот раз речь пойдёт о новой модульной системе хранения данных StorageBox 2000, которая интересна как своими опциями, так и тем, что способна всерьёз реализовать потенциал, заложенный в PCI Express 4.0. Внешне StorageBox 2000 выглядит как ничем не примечательный 2U-корпус 24 дисковыми корзинами «горячей замены». Однако все 24 отсека могут быть заняты накопителями PCIe NVMe с поддержкой PCIe 4.0 в форм-факторах U.2 или U.3.

При использовании SSD объёмом 30 Тбайт общий объём хранимых данных может достигать 720 Тбайт на каждые 2 юнита стойки. Суммарная пропускная способность накопителей может достигать 186 Гбайт/с (7,76 Гбайт/с на каждый порт U.3). Но интересно даже не это, а то, что StorageBox 2000 имеет три разные ипостаси.

Накопители можно заменять на лету блоками по 8

Накопители можно заменять на лету блоками по восемь единиц

В самом простом варианте JBOF (just a bunch of flash) с хост-системой SB2000 общается посредством двух интерфейсов PCIe 4.0 x16 с совокупной пропускной способностью более 512 Гбит/с. За коммутацию отвечает пара чипов Broadcom PEX88096, это 96-портовые интеллектуальные коммутаторы с интегрированными процессорными ядрами ARM Cortex-R4, обеспечивающие задержку не более 105 нс. Для подключения используется 8 разъёмов SFF-8644.

Вариант с OSS Ion Accelerator SAN любопытнее: это уже сетевая СХД, поддерживающая NVMe over Fabrics, SRP, iSCSI или даже InfiniBand. Она обслуживается фирменным ПО Ion Accelerator 5.2 и в зависимости от версии может оснащаться десятью портами Fibre Channel со скоростью 32 Гбит/с, четырьмя портами 100GbE или четырьмя портами InfiniBand со скоростью 200 Гбит/с. Работает в комплексе с однопроцессорным сервером OSS EOS-4, который использует AMD EPYC 7002 и, соответственно, поддерживает PCI Express 4.0.

Архитектура SB2000 в базовом варианте довольно проста

Архитектура SB2000 в базовом варианте довольно проста

Промежуточное положение занимает вариант OSS Zion NAS. Он представляет собой SB2000, оснащённую двумя «умными» сетевыми адаптерами класса SmartNIC с ARM-процессорами на борту. В зависимости от версии, обеспечивает подключение посредством четырех портов 100GbE или двух портов InfiniBand 200 Гбит/с. Поддерживает аппаратное шифрование AES-GCM 126/256 и AES-XTS 256/512, соответствует спецификациям FIPS-140-2 Level 1.

SB2000 может работать с любыми серверами и инициаторами, даже без поддержки PCIe 4.0, с соответствующим снижением производительности. Имеются средства управления и мониторинга IPMI 2.0, доступные через выделенный порт Ethernet. Также интересно то, что диски в системе могут заменяться как по одному, так и сразу блоками по 8 накопителей. Поддержки RAID в аппаратном виде система не предлагает — эта функция целиком возложена на программное обеспечение или серверную часть.

Несмотря на то, что система StorageBox 2000 демонстрировалась на виртуальной конференции ISC 2020, во всемирной сети о ней встречается буквально пара упоминаний. Также известно, что некоторые заказы на неё были сделаны ещё в мае этого года. По всей видимости, выпуск SB2000 развёрнут, и данная модульная система поставляется заказчикам. Она станет хорошим подспорьем для современных систем машинного обучения, требующих больших объёмов данных и быстрого доступа к ним.

Постоянный URL: http://servernews.ru/1017733
06.08.2020 [11:40], Сергей Карасёв

Сервер хранения данных Chenbro RB23712 рассчитан на 12 накопителей

Компания Chenbro анонсировала сервер хранения данных RB23712, в основу которого положены материнская плата на наборе логики Intel C624 и два процессора Intel Xeon Scalable второго поколения. Устройство выполнено в форм-факторе 2U и рассчитано на монтаж в стойку.

Новинка предлагает 12 отсеков для установки 3,5-дюймовых накопителей с возможностью «горячей» замены. Могут использоваться решения с интерфейсом SAS и SATA 3.0. В общей сложности в сервере могут быть задействованы восемь карт расширения PCIe: это четыре полноразмерных платы (FHFL), ещё две платы уменьшенной длины (FHHL) и две низкопрофильные платы (HHHL).

Для модулей оперативной памяти DDR4 UDIMM ECC доступны 24 слота: система поддерживает использование до 7,5 Тбайт ОЗУ. За охлаждение отвечают шесть вентиляторов размером 60 × 38 мм. Среди доступных разъёмов упомянуты порты D-Sub, USB 3.0 и USB 2.0, а также коннекторы RJ45 для подключения сетевых кабелей (присутствует двухпортовый контроллер 10GbE).

Сервер предназначен для использования в составе центров обработки данных и платформ высокопроизводительных вычислений. О цене ничего не сообщается. Впрочем, Chenbro является OEM/ODM-поставщиком, так что готовые системы на базе данного шасси можно будет и увидеть и под другими брендми.

Постоянный URL: http://servernews.ru/1017573
06.08.2020 [11:05], Юрий Поздеев

Panasas представила параллельную файловую систему PanFS с функцией динамического ускорения данных

Panasas объявила о новой версии параллельной файловой системы PanFS, в которой появилась поддержка динамического ускорения данных, что должно значительно ускорить рабочие процессы в высокопроизводительных вычислениях (HPC) и задачах ИИ (AI).

Компания утверждает, что новая файловая система обеспечивает высокую производительность за счет автоматической адаптации к изменяющимся рабочим нагрузкам с небольшими файлами и смешанным рабочим нагрузкам. Panasas PanFS — это легко адаптируемая параллельная файловая система, на базе которой также построена СХД ActiveStor.

Большим преимуществом является способность PanFS обеспечивать стабильную и предсказуемую производительность за счет автоматической адаптации к изменению размеров файлов и рабочих нагрузок. Также сообщается, что система поддерживает безграничное масштабирование. Динамическое ускорение данных продолжает концепцию, заложенную в PanFS, обеспечивая предсказуемую и стабильную производительность в высоконагруженных вычислениях и задачах с искусственным интеллектом, которые очень требовательны к дисковой подсистеме.

Многоуровневые системы хранения HPC очень сложны и ручное вмешательство в их работу может принести больше вреда, чем пользы. Dynamic Data Acceleration от Panasas отличается от других систем хранения HPC тем, что поддерживает высокую стабильную производительность при изменении параметров рабочих нагрузок, при этом никаких действий пользователя не требуется. Для хранения метаданных и небольших файлов используются накопители NVMe с малой задержкой, а большие файлы хранятся на недорогих жестких дисках с высокой пропускной способностью.

На данный момент основной вариант поставки PanFS — это развернутая на готовом (COTS) аппаратном устройстве Panasas ActiveStor Ultra HPC под ключ, полностью интегрированное готовое решение для хранения данных.

Постоянный URL: http://servernews.ru/1017545
05.08.2020 [11:24], Юрий Поздеев

IBM добавляет многоуровневое облачное хранилище в СХД для мейнфремов

IBM улучшила производительность и функциональность массивов хранения, ориентированных на мейнфреймы и линейку продуктов виртуальной ленточной библиотеки (VTL). Какие это улучшения и почему их важно было сделать именно сейчас? Мейнфреймы никогда не были дешевыми, а системы хранения для них тем более. Однако в последние годы появились облачные хранилища, безопасные и недорогие. У IBM есть свои облачные сервисы, поэтому вопрос назрел давно, и если бы IBM сама не разработала подобный механизм – его бы реализовал кто-то другой.

В all-flash СХД DS8900F размер кеш памяти увеличен на 70% с 2 Тбайт до 3,4 Тбайт, что позволяет консолидировать рабочие нагрузки в единой системе. Например, IBM говорит, что 8 массивов DS8870 могут быть консолидированы в один DS8870. Это позволяет не только экономить место в центре обработки данных, но и упростить администрирование, обслуживание и снизить затраты на техническую поддержку. СХД DS8910F может интегрироваться с новейшим мейнфреймом T02 модели Z15 и LT2 модели LinuxONE III, о котором было объявлено 14 апреля.

DS8900F теперь более тесно интегрируется с TS7770 VTL (дисковым массивом с интерфейсом ленточной библиотеки):

  • DS8900F может сжимать данные перед их отправкой по сети на массив TS7770, который теперь может хранить в 3 раза больше данных;
  • Добавлена совместимость с SP 800-131A (усовершенствованное шифрование данных «на лету»);
  • В DS8900F и TS7770 представлена технология Transparent Cloud Tiering (TCT), которая автоматизирует перемещение данных в облако и из него и сокращает использование ресурсов мейнфреймов для этой работы на 50%;
  • Подсистема управления хранилищем данных (DFSMS) в DS8900F использует TCT для создания полных резервных копий тома в облако, которые в дальнейшем могут быть восстановлены на любой системе SD8900F.

Функция аварийного восстановления включает в себя наборы данных, скопированные из TS7770 и отправленные в облачные пулы, где они управляются DFSMS. Эти пулы данных могут находиться в IBM Cloud, AWS S3, локальном хранилище IBM Cloud Object Storage и RStor. Срок хранения версий данных указывается дял каждого облачного пула, что позволяет экономить дисковое пространство. Наборы данных можно восстановить на TS7770, находящийся в любом месте.

Мейнфреймы до сих пор представляют собой достаточно закрытый рынок, на котором доминирует IBM и добавление актуальных функций для СХД только укрепляет позиции компании в этом сегменте. Замена массивов хранения на более компактные (если это слово применимо к серии SD8900) модели и добавление облачного слоя хранения данных позволит не только экономить ИТ-бюджет, но и использовать уже проверенные сервисы, не выходя за пределы экосистемы IBM.

Постоянный URL: http://servernews.ru/1017446
01.08.2020 [23:02], Алексей Степин

DPU, «cопроцессоры для данных», набирают популярность, но пока не являются зрелыми

В новости об анонсе сопроцессора для SSD от Pliops, призванного разгрузить от этих задач CPU, упоминалось, что подобного рода решения разрабатывают и другие. Концепция «сопроцессора для данных» (data processing unit, DPU) уже в достаточной степени оформилась, но единства в архитектурном и программном подходе пока нет. Что может предложить современный рынок DPU?

С обработкой данных на стороне сетевого адаптера — самого периферийного устройства в любой серверной системе, активно экспериментировала ещё Mellanox. Сейчас, будучи частью NVIDIA, она продолжает начатую работу. Главной разработкой NVIDIA/Mellanox в этой сфере можно назвать чип BlueField-2, с одной стороны обеспечивающий функциональность типичного SmartNIC (один порт Ethernet класса 200G или два порта класса 100G), а с другой — поддержку NVMe over Fabrics и разгрузку центральных процессоров во всём, что касается задач ввода-вывода.

Это решение содержит как массив ARM-ядер, так и специализированные ASIC-блоки ускорения различных функций. Дополняется это наличием набортных 16 Гбайт оперативной памяти DDR4. NVIDIA видит DPU, такие, как BlueField-2, частью связки «CPU + GPU + DPU». Благодаря использованию архитектуры ARM такой подход универсален и его разделяют, к примеру, аналитики Wells Fargo.

Архитектура AWS Nitro

Архитектура AWS Nitro

Но на рынке существуют и другие игроки, активно внедряющие идеи, заложенные в концепции DPU. К ним можно отнести одного из крупнейших провайдеров облачных услуг — Amazon Web Services. Она разработала собственный DPU-ускоритель, плату Nitro. В общих чертах это решение похоже на NVIDIA/Mellanox BlueField-2, но ASIC там используется другой, собственной разработки AWS.

Инстансы Elastic Compute Cloud запускаются с использованием таких ускорителей, работающих на шине PCI Express. AWS не ограничивает их единственным предложением, а предоставляет различные оптимизированные под задачи заказчика версии — ориентированные на вычисления, машинное обучение, хранение и обработку данных и другие сценарии. AWS Nitro также содержит реализацию NVMe и NVMe-OF; похоже, это станет общим местом всех DPU.

Архитектура Diamanti

Архитектура Diamanti

Над похожим проектом работает компания Diamanti, разрабатывающая линейку выделенных гиперконвергентных серверов, оптимизированных для запуска контейнеров Kubernetes и выполняющих эту задачу лучше стандартных серверов. В серию входят модели D10, D20 и G20, и в общем виде они мало чем отличаются от обычных машин, но машины Diamanti содержат два уникальных компонента — NVMe-контроллер и 40GbE-контроллер Ethernet с поддержкой Kubernetes CNI и SR-IOV.

Решения Diamanti интересы тем, что используют два раздельных ускорителя вместо одного, и это имеет свои преимущества: скажем, скорости сетевого подключения 40 Гбит/с в ближайшее время может оказаться недостаточно, но для соответствия современным требованиям в сервере Diamanti будет достаточно сменить сетевой ускоритель, не трогая плату NVMe-контроллера, отвечающую за общение с дисковой подсистемой.

Fungible предлагает сделать DPU центром всей системы

Fungible предлагает сделать DPU центром всей системы

Также заслуживает упоминания компания Fungible, о которой мы рассказывали читателям в начале этого года. Именно она одной из первых озвучила термин DPU. На момент первого анонса, в феврале 2020 года готового ускорителя на руках у Fungible ещё не было. Но концепция DPU, пожалуй, проработана у Fungible лучше всего: предполагается, что в таких системах весь трафик, от сетевого и содержимого, пересылаемого из памяти в ЦП, до данных, передаваемых графическому процессору, будет проходить через DPU.

«Процессор обработки данных» в представлении Fungible станет звеном, объединяющем все компоненты вычислительной системы, будь то процессоры, GPU, FPGA-ускорители или массивы флеш-памяти. В качестве системы межсоединений компания планирует использовать шину TrueFabric собственной разработки, отличающуюся низким уровнем задержек. Готовое решение Fungible должна представить уже в этом году.

Архитектура Pensando Capri

Наконец, компания Pensando, в конце 2019 года начавшая сотрудничество с известным производителем СХД NetApp, уже поставляет ускорители Distributed Services Card, DSC-100. Они сочетают в едином чипе и одной плате функции, которые Diamanti решает с помощью двух раздельных карт; как уже было сказано, у такого подхода есть и минусы — заменять ускоритель придётся целиком, даже если «ускорительная» часть ещё способна на многое, а ускорить требуется лишь сетевое подключение.

В основе DSC-100 лежит процессор Capri, с сетевой стороны предоставляющий пару портов 100GbE, имеющих общий буфер пакетов. С этим буфером общается полностью программируемый процессор обработки данных, но имеются в составе чипа и классические ARM-ядра, а также «жесткие» ускорители, например, криптографический. Программируемая, «жёсткая» и ARM-части общаются посредством когерентной системы межсоединений, которая подключена к контроллеру PCIe и массиву оперативной памяти. В целом решение напоминает NVIDIA/Mellanox BlueField-2.

К сожалению, ни одно из описанных решений пока не успело стать стандартным для индустрии. Каждое из них имеет свои достоинства и недостатки, а главное — несовместимую между собой программную часть. Это делает внедрение DPU в имеющиеся структуры достаточно сложным процессом: надо не ошибиться в выборе поставщика и разработчика, а кроме того, требуется отдельная покупка, инсталляция и затраты на обслуживание и поддержку.

Лишь такие гиганты, как AWS, могут полностью обеспечить себя идеальным для своих задач DPU. Иными словами, «сопроцессоры данных» пока представляют собой нишевые устройства. Для того, чтобы они стали по-настоящему популярными, нужен единый унифицированный стандарт архитектуры — такой же, какой обеспечил в своё время универсальность и кросс-совместимость графических процессоров.

Постоянный URL: http://servernews.ru/1017218
31.07.2020 [20:39], Алексей Степин

ASRock Rack представила 4U-сервер хранения данных c 36-ю 3,5" дисками

Классические накопители форматов 2,5" или 3,5″ весьма недороги и отлично подходят для случаев, когда высокая производительность на случайных операциях не требуется, в частности, для систем хранения видеоконтента, «холодных зон» и других подобных сценариев. Новый сервер ASRock Rack 4U36L2S-C621 относится именно к таким решениям.

В настоящее время существуют сверхвысокоплотные серверы хранения данных с вертикальной загрузкой накопителей, вмещающие 60 или даже 90 полноразмерных жёстких дисков формата 3,5″, но они требуют определённых условий размещения, в частности, свободного доступа сверху. Новая модель ASRock Rack хоть и вмещает в себя только 36 накопителей, зато имеет классические отсеки «горячей замены» с горизонтальным доступом на передней и задней панели и может без проблем разместиться практически в любой 19-дюймовой стойке. Достаточно наличия четырёх свободных юнитов.

Несмотря на то, что Intel уже представила Xeon Scalable третьего поколения, в основе новой модели 4U36L2S-C621 лежит хорошо проверенная плата EP2C612D16C-4L (SSI EEB 12″ × 13″), рассчитанная на установку одного или двух процессоров Xeon Scalable первого либо второго поколений. Плата уже встречалась в наших новостях, она интересна тем, что имеет два слота PCIe x8 и четыре слота PCIe x16, но «младшие» слоты снабжены прорезью на торце и допускают установку плат расширения с коннектором x16. В остальном это довольно обычная плата с LGA 3647.

24 лотка находятся на передней панели, а ещё 12 выходят на заднюю часть сервера. Все они поддерживают функцию «горячей замены». Для установки серверной ОС или гипервизора можно воспользоваться слотом M.2 (SATA или NVMe PCIe x4), есть также две дополнительные корзины формата 2,5″ — в них можно установить, к примеру, кеширующие SSD.

Система поддерживает любые процессоры Xeon Scalable с разъёмом LGA 3647 с теплопакетом вплоть до 205 Ватт включительно. В случае второго поколения возможна установка модулей памяти Optane DCPMM; всего слотов в системе 16, по 8 на процессорный разъём. За питание платформы отвечает пара блоков питания с горячим резервированием, они имеют мощность 1200 Ватт и сертифицированы на соответствие стандарту 80 PLUS Platinum. Глубина корпуса 699 миллиметров, высота и ширина стандартны для 19″ 4U.

Об остальных последних новинках ASRock мы уже рассказывали: компания продолжает эксперименты в области сверхкомпактных серверных комплектующих, правда, на этот раз новинка в формате Mini-ITX не столь экстремальна, как EPC621D4I-2M с огромным LGA 3647, занимающим большую часть площади PCB. Новая D1622D4I найдёт своё применение в компактных периферийных системах, она построена на базе SoC Intel Xeon D-1622.

Представлены также новые платы с разъёмами AM4 и LGA 1200 для построениы компактных рабочих станций или серверов на базе процессоров AMD Ryzen 3000 и Intel Xeon W-1200, соответственно. Это модель X570D4U-2L2T в формате Micro-ATX и аналогичная ей по габаритам W480M-WS. Все новинки ASRock Rack уже анонсированы официально и доступны для заказа.

Постоянный URL: http://servernews.ru/1017186
31.07.2020 [18:37], Алексей Степин

Сопроцессор для SSD от Pliops ускорит работу с базами данных в 10 раз

Компания Pliops ещё молода: она была основана в 2017 году выходцами из Samsung, M-Systems и XtremIO; все основатели являются специалистами в области СХД и энергонезависимой памяти. В 2019 году Pliops получила существенный объём инвестиций от Mellanox. А в 2020 году компания анонсирует свой новейший продукт — сопроцессор, берущий на себя тяжёлые задачи по работе с флеш-памятью.

Подобные чипы разрабатывают многие, но Pliops обещает, что её решение ускорит работу с такого рода памятью более чем в 10 раз. Впервые технология была продемонстрирована на саммите Flash Memory 2019, и вот, наконец, концепция обратилась в реальный осязаемый продукт, доступный к приобретению.

Решение Pliops достаточно необычное: это не контроллер NAND-массива, а именно сопроцессор-ускоритель, выполненный в виде отдельной платы с разъёмом PCI Express и берущий на себя всю работу по обслуживанию массивов SSD. И делает это новый ускоритель максимально эффективно: серьёзные флеш-СХД могут нагружать хост-процессоры весьма сильно, но решение Pliops позволяет решить эту проблему.

Особенно сильно эффект проявится в системах, используемых для работы с базами данных. Pliops объясняет это тем, что СУБД, будь то реляционные или NoSQL, традиционно разделяют непосредственно данные и ключи или индексы. А отдельная единица хранения данных имеет переменный размер, и эта структура не слишком хорошо сочетатся с традиционными устройствами хранения данных, у которых размер блока фиксирован.

Если в случае с обычными HDD вычислительная нагрузка невелика, поскольку случайных операций такие устройства выдают немного (в районе сотен), то твердотельные накопители, способные выдать 500 тысяч IOPS и более, создают и серьёзную вычислительную нагрузку, «утрамбовывая» вариабельные блоки данных в свой жёсткий формат. К этому добавляет проблем использование сжатия данных, которое тоже создаёт нагрузку.

Сопроцессор, разработанный Pliops и получивший название PSP, как раз и призван взять на себя все обязанности по работе с данными в формате Key:Value (KV), что особенно важно в крупных СХД, работающих с огромными массивами БД. Немаловажно то, что сопроцессор Pliops делает свою работу полностью прозрачно и не требует модификации программного обеспечения пользователя.

Со стороны ПО он выглядит, как обычный блочный SSD, однако за счёт аппаратного акселератора работа с базами данных может ускориться более, чем в 10 раз, а время отклика — параметр также весьма немаловажный, когда речь заходит о БД — снизится еще сильнее, в 100 раз. Новинка уже прошла предварительную проверку более чем у десяти крупных провайдеров облачных и корпоративных услуг по хранению данных и запуску БД.

Сопроцессор PSP позволяет использовать обычные недорогие SSD (даже с QLC-памятью) а это уменьшает стоимость владения на величину до 90%, поскольку крупные специализированные твердотельные СХД всё ещё очень дороги. Pliops PSP ускоряет работу с MySQL, MariaDB, mogoDB, Redis, Oracle, Apache Spark и Cassandra и системы на его основе прекрасно масштабируются.

Разработчики PSP полагают, что данного рода сопроцессоры образуют отдельный популярный класс устройств, подобно тому, как это случилось с графическими процессорами и сейчас происходит с тензорными ускорителями. Что ж, у Pliops есть все шансы стать в сфере работы с All-Flash СХД тем, чем стала NVIDIA в области ускорения машинного интеллекта.

Естественно, это далеко не первый проект по ускорению работы SSD вообще и оптимизации их для СУБД в частности. Например, у Samsung есть экспериментальный продукт KV Stacks — Key:Value SSD, созданный специально для баз данных одноимённого типа. Другие проекты зачастую опираются на FPGA. Та же Samsung совместно с Xilinx представила SmartSSD, обрабатывающий часть данных непосредственно на накопителе. А SmartIOPS уже не первый год поставляет SSD с фирменным контролером на базе ПЛИС.

Вероятно, следующим большим шагом станет массовое внедрение зонирования, которое подходит для HDD с SMR и уже включено в стандарт NVMe, и «вынос» FTL (Flash Translation Layer) за пределы отдельного накопителя с программной или аппаратной эмуляцией FTL на уровней всей СХД сразу.

Постоянный URL: http://servernews.ru/1017162
29.07.2020 [16:34], SN Team

Как компании эффективно управлять лавиной данных?

Во многих отраслях промышленности произошедшее в последние годы развитие перспективных технологий, в частности 5G, интернета вещей (IoT) и искусственного интеллекта (ИИ), было встречено с большим ажиотажем. Столь бурная реакция прежде всего объясняется огромным потенциалом таких технологий, ведь они способны кардинально изменить подход к хранению и использованию информации и данных, сделав их более понятными и повысив уровень безопасности, продуктивности и качество аналитики. Впрочем, широкое внедрение этих технологий также приведет и к значительному увеличению объема генерируемых данных, для работы с которыми так же оперативно и с упором на снижение уровня задержки и увеличение емкости должны модернизироваться СХД.

Хотя будущее предсказывать непросто, кое-что можно сказать с большой долей уверенности: в следующие десять лет объем создаваемых данных продолжит расти по экспоненте. Согласно недавнему прогнозу IDC, в текущем году человечество создаст, сохранит, скопирует и обработает 59 зеттабайт (Збайт) данных. Происходящий на наших глазах взрывной роста объема информации ставит перед компаниями из всех отраслей один и тот же вопрос — как подготовить и оптимизировать СХД?

Лавинообразный рост объемов данных в отраслевом масштабе

Во многих отраслях промышленности компании накопили значительные объемы ценных, но необработанных, сырых данных. Эти данные можно пропустить через мощные современные инструменты аналитики и извлечь из них полезные инсайты, которые помогут компании улучшить свои операционные показатели и открыть для себя новые рыночные возможности. Те участники рынка, которые научатся эффективно оперировать этими инструментами, значительно повысят ценность своего предложения и смогут выделиться из конкурентной массы, а остальные будут постепенно сдавать свои позиции.

Хорошим примером вертикально выстроенной отрасли может служить финансовый сектор. Его постоянно заливает огромными объемами самых разных данных: от информации о банковских транзакциях до проектной аналитики и цен на акции. Стоит упомянуть и отрасль промышленного производства, в которой автоматизация, затрагивая интернет вещей, аналитику и технологические линии, позволяет повысить отдачу производственных систем и масштабировать их, нарастив выпуск с сотен единиц в час до тысяч или даже миллионов.

По мере того как во всех отраслях компании будут сталкиваться с непрекращающимся ростом объемов данных, им придется переосмыслить свой подход к сбору, хранению и преобразованию данных, а также пересмотреть организацию доступа к ним. И неважно, идет ли речь о высокопроизводительном ИИ, гипермасштабируемых круглосуточно доступных системах или всего лишь о домашних компьютерных играх, многие устаревшие СДХ не в состоянии беспроблемно справиться с новыми вызовами, которые перед ними ставят быстрые данные, — их производительность и качество обслуживания ухудшается, а уровень задержки растет.

Новое решение с поддержкой NVMe™ для больших данных

Для преодоления возникающих трудностей многие компании выбирают накопители с поддержкой Non-Volatile Memory Express (NVMe) — единственного протокола, подходящего для ресурсоемких корпоративных экосистем с большими вычислительными мощностями, в которых используются облачные ресурсы и периферийная обработка данных. В NVMe реализован целый ряд передовых характеристик, которые дают компании возможность не только улучшить свои бизнес-показатели, но и более эффективно использовать имеющиеся данные. Ниже приведены некоторые из таких характеристик.

  • 1. Повышенная производительность

Первый SSD-накопитель на флеше вернул часть былого величия устаревшим физическим интерфейсам SATA/SAS и соответствующим протоколам и форм-факторам, но ни один из этих интерфейсов и протоколов не разрабатывался под высокоскоростные СХД. Следующим логическим интерфейсом для хранилищ стал PCI Express (PCIe), но ранние версии PCIe SSD были завязаны на фирменное программно-техническое обеспечение, из-за чего масштабировать систему было весьма проблематично. Протокол NVMe возник как решение этих проблем, поскольку он дает гораздо более высокую производительность и меньшие задержки по сравнению со старыми протоколами SAS и SATA.

  • 2. Простота установки

Реализация СДХ с накопителями со стандартом подключения NVMe не требует специализированной сетевой инфраструктуры, достаточно обычного соединения по Ethernet или Fibre Channel.  Это очень важно, потому что компаниям не приходится вносить изменения в приложение.

  • 3. Экономические преимущества

Доступ к данным для приложений по обычным протоколам потребляет много циклов ЦП, и эти нерачительно использованные циклы вычислений стоят компаниям реальных денег. Бюджеты на IT не растут теми же темпами, что объемы данных, поэтому компании оказываются под огромным давлением — от их инфраструктуры требуется максимальная отдача, как в части емкости, так и вычислительных мощностей. Поскольку NVMe умеет справляться с серьезными рабочими нагрузками от приложений даже в условиях ограниченной инфраструктуры, организации могут снизить общую стоимость владения и ускорить рост валовой выручки.


Анкета загружается...

И нам видна только самая верхушка айсберга революции данных. По мере дальнейшего развития интернета вещей и машинного обучения и появления новых приложений ценность данных также будет меняться, и для эффективного использования новых технологий компаниям следует концептуально поменять свой подход к организации СХД. С помощью NVMe компания может реализовать невиданные доселе функции, открывая для себя совершенно новую парадигму проектирования и построения приложений — с большей эффективностью, более низким значением задержки и за гораздо меньшие деньги. Переход на NVMe станет жизненно необходимым шагом для любой компании, стремящейся во всеоружии встретить революцию больших данных, которая продлится не одно десятилетие.

Для более гладкого перехода на технологию NVMe компания Western Digital предлагает накопители из модельного ряда Ultrastar® с поддержкой NVMe™, характеризующиеся низким значением задержки и максимальной пропускной способностью для рабочих нагрузок с большим количеством транзакций. Вслед за серверным накопителем Ultrastar DC SN640, представленным Western Digital в 2019 г., в июне 2020 г. компания запустила еще одно революционное решение для ЦОД, объединяющее в себе три ключевые технологические новинки: новую платформу OpenFlex™ Data24 NVMe-oF™ и входящие в ее состав новый SSD-накопитель Ultrastar DC SN840 NVMe и контроллеры RapidFlex™.

С появлением NVMe значительно увеличились объемы хранилищ в ЦОД по сравнению с твердотельными накопителями с SATA и SAS, и теперь, благодаря высокоскоростному подключению RapidFlex к СХД OpenFlex, технология NVMe over Fabric (NVMe-oF) позволяет вам создавать дезагрегированные NVMe-хранилища поверх вашей сети с производительностью, сопоставимой с локальной СХД.

Заявления прогнозного характера

В настоящей статье могут содержаться заявления прогнозного характера, в том числе заявления об ожидаемых продуктах Western Digital для хранения данных с поддержкой NVMe, рынке для этих продуктов, а также будущих характеристиках этих продуктов и примененных в них технологиях. Фактические результаты могут значительно отличаться от обозначенных в заявлениях прогнозного характера, поскольку данные заявления прогнозного характера подвержены действию рисков и неопределенности, включая сложности и задержки, связанные с разработкой, проблемы с цепочкой поставок или логистикой, изменения рыночной конъюнктуры, спроса, глобальных экономических условий, а также другие риски и неопределенности, приведенные в переданных в Федеральную комиссию по ценным бумагам и биржам США (Securities and Exchange Commission) последних квартальных и годовых отчетах Western Digital Corporation, на которые следует обратить внимание. Читатели предостерегаются от того, чтобы всецело полагаться на подобные заявления прогнозного характера, и мы не планируем в дальнейшем актуализировать настоящие заявления прогнозного характера, чтобы отразить в них позднее наступившие события или обстоятельства.

Автор: Давид Вилла, директор по развитию бизнеса Western Digital в регионе Европа, Ближний Восток, Африка и Индия (EMEAI)

Если вы хотите получить более детальную информацию о решениях Western Digital, заполните форму выше.

Постоянный URL: http://servernews.ru/1016934
28.07.2020 [19:13], Алексей Степин

Supermicro представила высокоплотные системы хранения данных: 60 и 90 3,5" HDD в 4U-шасси

Дела у компании Supermicro, как уже сообщалось, идёт неплохо — даже эпидемия COVID-19 не отразилась на объёмах продаж; скорее, Supermicro, как крупный поставщик серверного оборудования, даже выиграла от того, что эпидемия привела к росту популярности удалённых рабочих мест.

Арсенал Supermicro очень велик: от компактных систем для периферийных вычислений до крупных высокоплотных систем. К последней категории относится свежий анонс: компания расширила серию SSG-60xx новыми моделями СХД, имеющими высокую плотность упаковки данных.

Популярность NVMe-накопителей растёт, но они всё ещё достаточно дороги и основные массивы данных хранятся на накопителях с интерфейсами SAS или SATA, которые сами по себе довольно крупны. Но в новых СХД Supermicro SSG-6049SP-DE1CR60 и SSG-6049SP-DE1CR90 умещается 60 или 90 накопителей в форм-факторе 3,5″, и всё это в стандартном стоечном корпусе высотой 4U.

Основа новых СХД, системная плата X11DSC

Основа новых СХД, системная плата X11DSC

Обе модели могут быть сконфигурированы как в режиме одного узла, так и двух; в последнем случае, число дисков, приходящихся на каждый узел, делится поровну. Максимально возможная ёмкость в максимальной же конфигурации может достигать 1,44 Пбайт.

При этом системы удобны в обслуживании: дисковые отсеки поддерживают функцию горячей замены, специальных инструментов при этом не требуется. Для замены столь большого количества дисков предусмотрен доступ сверху. Это упрощает эксплуатацию, снижает временные задержки при обслуживании, и в итоге, уменьшает стоимость владения новыми СХД.

Замена контроллера в SSG-6049SP, видны ряды дисковых накопителей (фото ServeTheHome)

Замена контроллера в SSG-6049SP, видны ряды дисковых накопителей (фото ServeTheHome)

Новинки относятся к поколению X11, основой им служит платформа Intel LGA3647 с процессорами Xeon Scalable второго поколения. 16 слотов DDR4 позволяют установить до 4 Тбайт оперативной памяти, а для высокоскоростных сетевых интерфейсов имеется три разъёма PCIe: два x16 и один x8, поддерживаются платы расширения половинной длины и высоты (Half-Height, Half-Length, HHHL).

Основные возможности дисковой подсистемы могут быть дополнены четырьмя отсеками U.2 для установки кеширующих SSD-накопителей. Но также имеется два внутренних отсека для SATA SSD 2,5″ и два слота M.2 формата 22110. Основную систему хранения данных обслуживает пара контроллеров Broadcom 3616 (IT/HBA) или 3916 (аппаратный RAID).

Старт продаж новых систем хранения данных приурочен к мероприятию Supermicro Storage Summit, которое стартовало 28 июля в регионах Северной Америки и EMEA, 29 июля оно распространится и на Азиатско-Тихоокеанский регион. На этом мероприятии компания также объявила о начале сотрудничества с Scality, компанией-разработчиком программного обеспечения Scality RING для крупных масштабируемых систем хранения данных. Подробнее об этом написано на сайте Supermicro, рекомендуем также посетить веб-сайт самой Scality.

Постоянный URL: http://servernews.ru/1016853
28.07.2020 [18:10], Алексей Степин

Российские суперкомпьютеры РСК попали в свежий рейтинг IO500

Виртуальный институт подсистем ввода-вывода (Virtual Institure for I/O, VI4IO) начал свою деятельность в 2016 году. Целью этой некоммерческой открытой организации стало предоставление платформы для обмена информацией в области исследований, касающихся I/O-подсистем суперкомпьютеров и кластерных систем. В этом году, по результатам проведённых исследований, VI4IO представила первый официальный рейтинг IO500, который обещает стать столь же популярным, как и TOP500 и Green500.

Официальный логотип нового рейтинга IO500

Теперь для попадания системы с IO500 существует стандартизированный набор правил и тестов, включающих в себя такие компоненты, как подтесты на чистую пропускную способность, на производительность при работе с метаданными и на скорость поиска в пространстве имён (namespace).

Сам набор тестов открытый, проект имеет собственный репозиторий на GitHub, там же содержится полная инструкция по запуску и получению результатов. Комплект IO500 построен на основе существующих популярных бенчмарков и имеет модульную структуру. Благодаря поддержке плагинов возможно тестирование различных альтернативных систем хранения данных.

Российские системы мы отметили красным

Российские системы мы отметили красным

Ранние результаты в официальный список IO500 не входят, поскольку с 2017 года правила менялись, но в нём присутствуют результаты с конференций SC19 и ISC 2020. Несмотря на все успехи ARM в сфере супервычислений, первое место в рейтинге всё же принадлежит Intel с её системой Wolf, способной развивать свыше 8,6 миллионов IOPS и продемонстрировавшей линейную скорость более 370 Гбайт/с. Высокое место занял и китайский комплекс Tianhe-2E, который также базируется на архитектуре x86.

Говорун стал отличаться ещё большим умом и сообразительностью после апгрейда 2018 года

В список попали и российские системы, разработанные, созданные и введённые в строй группой компаний РСК. Это гетерогенный суперкомпьютер «Говорун», установленный в ОИЯИ и одна из систем серии «Торнадо», располагающаяся в СПбПУ, занимающие 17 и 22 место соответственно. «Говорун» базируется на процессорных компонентах Intel Xeon Phi и Xeon Scalable в сочетании с узлами NVIDIA DGX-1 Volta. Система СПбПУ также имеет гетерогенную архитектуру, но в качестве ускорителей в ней применены NVIDIA Tesla K40X. В обоих случаях в качестве файловой системы используется Lustre.

С результатами IO500 можно ознакомиться на сайте проекта, там же есть и информация о том, как считается и формируется рейтинг.

Постоянный URL: http://servernews.ru/1016841
Система Orphus