Материалы по тегу: dpu

06.10.2021 [00:03], Илья Коваль

Программа раннего доступа к Project Monterey от NVIDIA и VMware пополнилась серверами Lenovo

NVIDIA объявила о расширении сотрудничества с Lenovo в рамках раннего доступа к решениям на базе VMware Project Monterey. Как и в случае аналогичного сотрудничества с Dell, предлагается готовый кластер из серверов с DPU NVIDIA BlueField-2 — на соответствующей странице теперь упомянуты модели PowerEdge R750 и ThinkSystem SR650 V2. Кроме того, обещан доступ и к системам ThinkAgile VX.

По словам компаний, NVIDIA, Lenovo и VMware совместно развивают новую архитектуру для современных рабочих нагрузок, включая ИИ и машинное обучение, охватывающую классические ЦОД, облака и периферийные вычисления. Такая архитектура должна быть, с одной стороны, программно определяемой, а с другой — полагаться на различные возможности современных аппаратных решений для ускорения выполнения конкретных задач, в том числе служебных.

Поэтому всем сторонам и интересен Project Monterey, который предполагает перенос части функций vSphere на DPU и SmartNIC, избавляя тем самым CPU от лишней работы. NVIDIA активно использует возможности DPU в своих собственных решениях, а партнёрство с VMware позволит ей лучше закрепиться на уже существующих и новых для неё рынках. Впрочем, VMware в рамках данного проекта сотрудничает и с другими игроками — Pensando, одним из пионеров в области DPU, и Intel, которая недавно анонсировала IPU Mount Evans.

Постоянный URL: http://servernews.ru/1050641
01.10.2021 [14:09], Алексей Степин

Fungible представила самое быстрое в мире NVMe/TCP-решение

Fungible, один из пионеров освоения концепции сопроцессоров данных (DPU), не столь давно представившая СХД на базе своих чипов, присоединилась к инициативе NVMe-over-TCP и анонсировала HHHL-адаптер Storage Initiator с поддержкой данного стандарта. Более того, компания утверждает, что её решение является самым быстрым в данном классе.

История развивается по спирали: высокопроизводительные решения в области СХД использовали выделенные контроллеры с собственными процессорами, кешами и оперативной памятью, затем выросла популярность программно определяемых решений, задействующих мощности CPU самого сервера, но теперь, с появлением DPU, мы вновь видим возврат к концепции отдельных ускорителей для специфических нагрузок и задач.

В эту канву NVMe-over-TCP укладывается практически идеально, поскольку использует обычные Ethernet-сети, а именно о стандартизации и унификации СХД нового поколения на базе DPU Fungible и заявляла с самого начала. Компания подтвердила свои намерения, анонсировав новую плату расширения Storage Initiator, поддерживающую NVMe/TCP, которая должна сильно упростить внедрение данной технологии в ЦОД.

Блок-схема Fungible S1 DPU

Блок-схема Fungible S1 DPU

Новинка входит в серию решений Fungible Storage Cluster и, если верить разработчикам, является на сегодня самой производительной реализацией NVMe-over-TCP на рынке. Основой является чип Fungible S1, способный справляться с трафиком 200 Гбит/с и имеющий 32 линии PCIe 4.0. За общие задачи в S1 отвечают 16 ядер MIPS64, для специализированных нагрузок — криптографии, сжатия и дедупликации — имеются выделенные движки.

Fungible Storage Initiator представлена в трёх вариантах: FC50, FC100 и FC200. Старшая модель может обслужить хост-системы со скоростью 2,5 млн IOPS и полностью снимает с неё нагрузку по обслуживанию протокола NVMe/TCP. Это может высвободить до 30% мощности CPU. Платы SI полностью совместимы с уже выпущенными Fungible продуктами, такими, как узел хранения данных FS1600. SI позволяет внедрить поддержку NVMe/TCP и там, где её нет в составе самой ОС, поскольку адаптер «показывает» системе обычные NVMe-устройства.

Постоянный URL: http://servernews.ru/1050366
19.08.2021 [18:04], Алексей Степин

Intel представила IPU Mount Evans и Oak Springs Canyon, а также ODM-платформу N6000 Arrow Creek

Весной Intel анонсировала свои первые DPU (Data Processing Unit), которые она предпочитает называть IPU (Infrastructure Processing Unit), утверждая, что такое именования является более корректным. Впрочем, цели у этого класса устройств, как их не называй, одинаковые — перенос части функций CPU по обслуживанию ряда подсистем на выделенные аппаратные блоки и ускорители.

Классическая архитектура серверных систем такова, что при работе с сетью, хранилищем, безопасностью значительная часть нагрузки ложится на плечи центральных процессоров. Это далеко не всегда приемлемо — такая нагрузка может отъедать существенную часть ресурсов CPU, которые могли бы быть использованы более рационально, особенно в современных средах с активным использованием виртуализации, контейнеризации и микросервисов.

Для решения этой проблемы и были созданы DPU, которые эволюционировали из SmartNIC, бравших на себя «тяжёлые» задачи по обработке трафика и данных. DPU имеют на борту солидный пул вычислительных возможностей, что позволяет на некоторых из них запускать даже гипервизор. Однако Intel IPU имеют свои особенности, отличающие их и от SmartNIC, и от виденных ранее DPU.

Новый класс сопроцессоров Intel должен взять на себя все заботы по обслуживанию инфраструктуры во всех её проявлениях, будь то работа с сетью, с подсистемами хранения данных или удалённое управление. При этом и DPU, и IPU в отличие от SmartNIC полностью независим от хост-системы. Полное разделение инфраструктуры и гостевых задач обеспечивает дополнительную прослойку безопасности, поскольку аппаратный Root of Trust включён в IPU.

Это не единственное преимущество нового подхода. Компания приводит статистику Facebook, из которой видно, что иногда более 50% процессорных тактов серверы тратят на «обслуживание самих себя». Все эти такты могут быть пущены в дело, если за это обслуживание возьмётся IPU. Кроме того, новый класс сетевых ускорителей открывает дорогу к бездисковой серверной инфраструктуре: виртуальные диски создаются и обслуживаются также чипом IPU.

Первый чип в новом семействе IPU, получивший имя Mount Evans, создавался в сотрудничестве с крупными облачными провайдерами. Поэтому в нём широко используется кремний специального назначения (ASIC), обеспечивающий, однако, и нужную степень гибкости, За основу взяты ядра общего назначения Arm Neoverse N1 (до 16 шт.), дополненные тремя банками памяти LPDRR4 и различными ускорителями.

Сетевая часть представлена 200GbE-интерфейсом с выделенным P4-программируемым движком для обработки сетевых пакетов и управления QoS. Дополняет его выделенный IPSec-движок, способный на лету шифровать весь трафик без потери скорости. Естественно, есть поддержка RDMA (RoCEv2) и разгрузки NVMe-oF, причём отличительной чертой является возможность создавать для хоста виртуальные NVMe-накопители — всё благодаря контроллеру, который был позаимствован у Optane SSD.

Дополняют этот комплекс ускорители (де-)компресии и шифрования данных на лету. Они базируются на технологиях Intel QAT и, в частности, предложат поддержку современного алгоритма сжатия Zstandard. Наконец, у IPU будет выделенный блок для независимого внешнего управления. Работать с устройством можно будет посредством привычных SPDK и DPDK. Один IPU Mount Evans может обслуживать до четырёх процессоров. В целом, новинку можно назвать интересной и более доступной альтернативной AWS Nitro.

Также Intel представила платформу Oak Springs Canyon с двумя 100GbE-интерфейсами, которая сочетает процессоры Xeon-D и FPGA семейства Agilex. Каждому чипу которых полагается по 16 Гбайт собственной памяти DDR4. Платформа может использоваться для ускорения Open vSwitch и NVMe-oF с поддержкой RDMA/RocE, имеет аппаратные криптодвижки т.д. Наличие FPGA позволяет выполнять специфичные для конкретного заказчика задачи, но вместе с тем совместимость с x86 существенно упрощает разработку ПО для этой платформы. В дополнение к SPDK и DPDK доступны и инструменты OFS.

Наконец, компания показала и референсную плаформу для разработчиков Intel N6000 Acceleration Development Platform (Arrow Creek). Она несколько отличается от других IPU и относится скорее к SmartNIC, посколько сочетает FPGA Agilex, CPLD Max10 и сетевые контроллеры Intel Ethernet 800 (2 × 100GbE). Дополняет их аппаратный Root of Trust, а также PTP-блок.

Работать с устройством можно также с помощью DPDK и OFS, да и функциональность во многом совпадает с Oak Springs Canyon. Но это всё же платформа для разработки конечных решений ODM-партнёрами Intel, которые могут с её помощью имплементировать какие-то специфические протоколы или функции с ускорением на FPGA, например, SRv6 или Juniper Contrail.

IPU могут стать частью высокоинтегрированной ЦОД-платформы Intel, и на этом поле она будет соревноваться в первую очередь с NVIDIA, которая активно продвигает DPU BluefIeld, а вскоре обзаведётся ещё и собственным процессором. Из ближайших интересных анонсов, вероятно, стоит ждать поддержку Project Monterey, о которой уже заявили NVIDIA и Pensando.

Постоянный URL: http://servernews.ru/1047103
14.08.2021 [22:35], Андрей Галадей

Pensando хочет потягаться с NVIDIA BlueField в Project Monterey

В начале августа VMware, Dell и NVIDIA объявили о раннем доступе к Project Monterey. А вслед за этим об аналогичной инициативе заявила и Pensando Systems, которая утверждает, что её решение лучше, чем BlueField-2. И дело не только в том, что её DPU доступны в сертифицированных VMware серверах Dell и HPE или, к примеру, некоторых СХД NetApp.

Ускорители Pensando, по словам создателей, опережают BlueField-2 в Project Monterey на поколение. Как заявил главный маркетолог Pensando Кристофер Рэтклифф (Christopher Ratcliffe), их DPU предлагает лучшие в своем классе возможности и улучшенные на порядок показатели задержки и передачи пакетов. При этом потребляемая мощность составляет 20 Вт при пропускной способности 25 Гбит/с, и порядка 30 Вт при 100 Гбит/с.

Pensando DSC-100

Pensando DSC-100

Старшая версия DPU DSC-100 (Distributed Services Card) способна обрабатывать до десятков миллионов пакетов в секунду с миллионами маршрутов и списков контроля доступа. При этом средняя задержка составляет всего 3 мкс с джиттером на уровне 35 нс. В техническом плане отмечается, что карта Pensando в 4-5 раз производительнее, чем SmartNIC на базе Arm и NVIDIA BlueField-2 от NVIDIA. DPU оснащён ядрами Arm и программируемым (P4) ASIС Capri собственной разработки. Карта обеспечивает виртуализацию NVMe и поддержку NVMe-oF с транспортом RDMA или TCP, дедупликацию и ускорение CRC32/64.

Pensando DSC-25

Pensando DSC-25

Она поддерживает IPSec-туннели, а также шифрование (AES-256) и (де)компрессию вместе с защитой и глубокой телеметрией со скоростью всё те же 100 Гбит/с. При этом доступна не только разгрузка CPU и ускорение работы виртуальных машин, но и их «живая» миграция (VMotion), чего, по словам компании, конкуренты предложить не могут. Рэтклифф отметил, что стартап тесно сотрудничает с VMware, чтобы максимально использовать все возможности аппаратного и программного стека компании.

При этом у стартапа, основанного выходцами из Cisco, дела, судя по всему, идут неплохо. В августе компания завершила раунд финансирования и привлекла $35 млн от Ericsson, Qualcomm и Liberty Global Venture. Ранее в стартап инвестировали HPE и Lightspeed Venture Partners, а общая сумма привлечённых средств сейчас составляет $313 млн.

Постоянный URL: http://servernews.ru/1046682
04.08.2021 [21:56], Андрей Галадей

Project Monterey от NVIDIA и VMware появился в раннем доступе

VMware, Dell Technologies и NVIDIA объявили о раннем доступе к Project Monterey. Этот проект предназначен для развития архитектуры традиционных центров обработки данных и перевода их на программно определяемую архитектуру с аппаратным ускорением по модели гибридного облака.

В рамках Project Monterey предполагается перенос значительной части служебных нагрузок с CPU на DPU. Подобное решение крайне востребовано для ИИ-задач, а также других ресурсоёмких нагрузок, где нужен потоковый анализ трафика в реальном времени, с чем традиционные архитектуры ЦОД могут просто не справиться.

В качестве тестовой платформы предлагается готовый кластер из серверов Dell EMC PowerEdge R750 с DPU NVIDIA BlueField-2, работающих под управлением программной платформы VMware. А персональный эксперт поможет разобраться в новом решении и наглядно продемонстрировать его преимущества:

  • Повышение производительности приложений и инфраструктурных сервисов.
  • Улучшение безопасности приложений и их мониторинг.
  • Ускорение работы межсетевого экрана.
  • Повышение эффективности и снижение накладных расходов в ЦОД, на периферии и в облаке.
Постоянный URL: http://servernews.ru/1045966
28.07.2021 [15:27], Алексей Степин

Pliops анонсировала высокопроизводительный DPU XDP Extreme

Концепция сопроцессора данных (DPU) продолжает набирать популярность — анонсы новых решений в этой области следуют один за другим. Компания Pliops, ранее представившая ускоритель для СУБД, представила свой новый продукт — XDP Extreme, который имеет более широкую сферу применения и предназначен для разгрузки процессоров современных систем хранения данных, целиком построенных на энергонезависимой памяти.

Внешне новинка выглядит как обычная плата расширения с разъёмом PCIe x8, в основе лежит мощная ПЛИС производства Xilinx. В будущем компания планирует заменить её на более экономичный ASIC-вариант. У XDP Extreme нет сетевых портов, вместо этого разработчики сконцентрировали свои усилия на ускорении общих для СХД задач и повышении эффективности использования пула флеш-памяти.

XDP использует так называемый KV Storage Engine — движок, работающий с Key-Value данными. За счёт фирменного API обеспечена совместимость со всеми приложениями, которые используют KV-подход. Уровнем ниже всё так же находится NVMe, как протокол, наиболее отвечающий устройствам на базе флеш-памяти. KV Storage Engine берёт на себя всю обработку ключей БД, включая их сортировку, индексацию и сборку мусора, а значит, этим не придётся заниматься центральным процессорам системы. Также ускоритель обеспечивает разгрузку ЦП при сжатии, отвечает за защиту от сбоев SSD и выполняет шифрование томов с использованием AES-256.

Востребованность XDP высока: KV-движки сегодня используются в подавляющем большинстве баз данных, также они применяются в комплексах машинной аналитики на базе Elastic или Hadoop и в распределённых файловых системах. Эффективность XDP Extreme, если верить данным Pliops, внушает уважение: даже на операциях чтения можно добиться двухкратного прироста линейной производительности, а выигрыш при записи может составлять и три-четыре раза. Более того, флеш-массив под управлением XDP оказывается быстрее, нежели классический RAID0. А снижение коэффициента усиления записи (write amplification) позволяет использовать недорогую, но априори менее надёжную память QLC. Впрочем, с Optane новый DPU тоже прекрасно работает.

Фактически, компания говорит о производительности, сопоставимой с решениями на базе DRAM, но с куда более низкой стоимостью владения. Экономия достигается и за счёт более эффективного использования SSD: в частности, при равном уровне надёжности с классическим массивом RAID 10, система на базе Pliops XDP позволяет обойтись меньшим количеством серверов и накопителей, что, естественно, отразится и на стоимости. Поставки новых ускорителей Pliops XDP Extreme уже развёрнуты.

Постоянный URL: http://servernews.ru/1045368
20.07.2021 [13:07], Алексей Степин

Viking и Kalray совместно создадут NVMe-oF СХД FLASHBOX нового поколения

Компания Kalray активно развивает свою концепцию сопроцессора данных (DPU) и имеет в своём арсенале соответствующие ускорители, о которых мы не так давно рассказывали в одной из предыдущих заметок. На днях Kalray заключила ещё один стратегический союз, на этот раз с Viking Enterprise Solutions, крупным OEM-поставщиком серверного оборудования, включая системы хранения данных.

Сама Viking довольно длительное время концентрирует свои усилия в направлении создания систем хранения данных, особенно с поддержкой популярного стека технологий NVMe over Fabrics. В начале лета она уже анонсировала СХД VDS2249R на 24 накопителя NVMe с портами 100GbE. Системы такого класса создают огромный поток данных, нагружающий центральные процессоры СХД.

СХД Viking VDS2249R имеет модульную конструкцию

СХД Viking VDS2249R имеет модульную конструкцию

И снять с них нагрузку как раз и помогут разработки Kalray, которая располагает уникальным многоядерным DPU Coolidge MPPA, способным «переварить» 12 Гбайт/с при крайне невысоком уровне задержек. Компании заключили договорённость о разработке нового класса решений NVMe-oF на базе вышеупомянутой системы VDS2249R.

Kalray не без оснований считает, что за DPU —  будущее дезагрегированных СХД

Kalray не без оснований считает, что за DPU — будущее дезагрегированных СХД

Напомним, новая СХД Viking компактна, она занимает в высоту всего 2U, но при этом вмещает 24 накопителя в формате U.2. Каждый из двух контроллеров данной системы хранения данных поддерживает платы расширения с интерфейсом PCI Express 3.0 и позволяет производить замену практически всех компонентов в «горячем» режиме.

Ускоритель Kalray K200-LP идеально впишется в состав СХД, поскольку представляет собой низкопрофильную плату. Несмотря на компактность, он обладает внушительными ресурсами, имея на борту 80-ядерный процессор Coolidge MPPA и до 32 Гбайт собственной оперативной памяти DDR4. Сочетание технологий Viking и Kalray приведёт к созданию системы FLASHBOX нового поколения, предназначенной для задач машинного обучения, аналитики, обработки изображений и видео в реальном времени, а также любых других сценариев подобного рода. Официальный анонс FLASHBOX запланирован на конец сентября.

Постоянный URL: http://servernews.ru/1044680
14.07.2021 [12:15], Алексей Степин

DPU Kalray пропишутся в облаке Scaleway

Kalray, Vates и облачный провайдер Scaleway объявили о заключении союза с целью разработки новых решений в области виртуализации, в основе которых будут лежать DPU. На практике DPU действительно можно назвать востребованной технологией, достаточно вспомнить о том, какие объемы данных сегодня генерируются и обрабатываются в крупных ЦОД — к примеру, астрономы говорят уже о петабайтах , и весь этот объём тяжёлым бременем ложится на процессоры, которые могли бы быть заняты более полезной работой.

Основания для оптимизма у нового тройственного союза есть: Kalray уже анонсировала NVMe-oF-ускорители K200-LP на базе процессора Coolidge MPPA, способные «переварить» поток данных на скорости до 12 Гбайт/с с задержками в районе 30 мкс, а на случайных операциях развивающие около 2 миллионов IOPS. Поскольку речь идёт о системах виртуализации, Vates отвечает за разработку гипервизора нового поколения, способного пользоваться ресурсами DPU, коих немало — 80 ядер MPPA и до 32 Гбайт памяти DDR4-3200. В основу ляжет гипервизор XCP-ng с открытым кодом.

Kalray K200-LP

Kalray K200-LP

Ну а крупный поставщик облачных сервисов Scaleway должен внедрить разработанные Vates и Kalray технологии на практике. Как считает компания, сочетание DPU и XCP-ng является идеальным выбором для энергоэффективных ЦОД. Коммерческий продукт на базе этих решений должен увидеть свет уже во второй половине этого года.

Постоянный URL: http://servernews.ru/1044188
13.07.2021 [17:07], Андрей Галадей

NVIDIA и Palo Alto Networks улучшают киберзащиту сетей с помощью DPU

Palo Alto Networks совместно с NVIDIA разработали первый, по словам компаний, виртуальный межсетевой экран нового поколения (NGFW), который активно использует возможности BlueField — сопроцессора для обработки данных (DPU). Он ускоряет фильтрацию пакетов и пересылку данных, снимая нагрузку с центрального процессора.

Это позволяет повысить скорость обработки до 5 раз, а также задействовать интеллектуальную фильтрацию и другие функции работы с трафиком. В целом, такое программно-аппаратное решение позволит существенно увеличить безопасность центров обработки данных и корпоративных сетей. Как отмечается, система поддерживает пропускную способность до 100 Гбит/с.

Разработчики утверждают, что подобная система — первая на рынке. Она способна обнаруживать новые угрозы в сети, предотвращать кражу данных, отслеживать вредоносное ПО и так далее. При этом отмечается, что в обычных случаях до 80 % сетевого трафика в ЦОД проверяется брандмауэрами в принципе. Речь идёт о мультимедийных данных (потоковые видео, музыка и прочее), зашифрованных сессиях и так далее. Их проверка зачастую просто перегрузит CPU брандмауэров, потому они обычно избегают дополнительной инспекции.

Чтобы решить эту проблему, решение NVIDIA и Palo Alto Networks задействует службу Intelligent Traffic Offload (ITO), которая проверяет сетевой трафик, чтобы определить, выиграет ли каждый сеанс от проверки безопасности. Иначе говоря, ITO анализирует потенциальную нагрузку на DPU, чтобы понять, нужно ли проверять пакеты или нет. Это позволяет перенаправлять пакеты через межсетевой экран или напрямую потребителям.

Постоянный URL: http://servernews.ru/1044097
12.07.2021 [20:06], Владимир Агапов

Graid представила RAID-ускоритель SupremeRAID SR-1000 для NVMe SSD и NVMe-oF

Компания Graid Technology  разработала программно-аппаратное решение SupremeRAID, которое поможет устранить узкие места в RAID-системах на базе NVMe-накопителей, подключённых как напрямую, так и по сети (NVMe-oF). Аппаратная часть решения представлена однослотовой (100 × 197,5 мм) картой SupremeRAID SR-1000 с интерфейсом PCIe 3.0 x16, которая потребляет 75 Вт.

Карта оснащена высокопроизводительным «умным» процессором для обработки всех операций RAID и поддерживает различные интерфейсы NVMe (U.2, M.2, AIC) а также SAS и SATA. По заявлению производителя, это первая в мире карта, которая позволяет пользователям добавлять такие функции как сжатие, шифрование и тонкое выделение ресурсов, а также позволяющая организовать NVMe-oF RAID-массив.

Программная часть разработана для Linux (CentOS 8.3, RHEL 8.4, Ubuntu 20.04, openSUSE Leap 15.2, SLES 15 SP2) и состоит из модуля ядра (graid.ko), CLI-инструмента управления (graidctl) и демона управления обработкой запросов (graid_server). Реализована поддержка массивов RAID 0/1/5/6/10 с максимальным числом физических дисков 32 (до 4 групп дисков, по 8 шт. в каждой). Максимальная ёмкость дисковой группы ограничивается только физическими характеристиками накопителей.

Архитектура SupremeRAID, основанная на виртуальном NVMe-контроллере и PCIe-ускорителе, берущем на себя все операции с RAID, высвобождает ресурсы CPU и облегчает интеграцию с современными программно компонуемыми системами (SCI) для получения 100% доступной производительности SSD. При этом возможна реализация облачного подхода при работе с хранилищем.

Вычислительная мощность применённого процессора позволяет отказаться от использования модулей кеширования для достижения удовлетворительной производительности, а также от резервных батарей, обеспечивающих сохранность данных в кеше в случае отключения питания. А поддержка NVMe-oF для организации RAID-массива позволяет дезагрегировать ресурсы хранения, предоставляя пользователям возможности их более полного использования — в независимости от физического местонахождения скорость будет практически такой же, как и при прямом подключении.

Заявленная производительность составляет более 6 млн. IOPS, а скорость работы массива на базе накопителей с интерфейсом PCIe 3.0 и PCIe 4.0 составляет 25 и 100 ГиБ/с соответственно. И это похоже на правду, если верить данным Gigabyte, которая одной из первых применила это решение на практике. Её 2U-сервер R282-Z94, включающий два процессора AMD EPYC 7742, 20 NVMe SSD Kioxia CM6-R и SupremeRAID, позволил провести серию тестов производительности подсистемы хранения данных.

gigabyte.com

gigabyte.com

Массив RAID-5, состоящий из трёх накопителей CM6-R в OLAP-задачах показывает 4,6 млн IOPS на случайном чтении и 765 тыс. IOPS на случайной записи, обеспечивая при этом чрезвычайно низкую задержку. Даже в случае отказа одного из SSD, производительность системы все равно превышает 1 млн IOPS, сохраняя высокую доступность приложения.

Массив RAID-5, состоящий из 20 накопителей CM6-R, обеспечивает очень большую ёмкость с последовательным чтением на уровне 91 ГиБ/с и последовательной записью 7 ГиБ/с. Наконец, массив RAID-10 из те же 20 накопителей может обеспечивать последовательное чтение 104 ГиБ/с и последовательную запись 30 ГиБ/с, что почти в 8 раз выше, чем у традицонных RAID-контроллеров.

gigabyte.com

gigabyte.com

Такой результат делает решение привлекательным для приложений, требующих высокой скорости чтения, таких как машинное обучение, анализ больших данных и т.д. По словам Лиандера Ю (Leander Yu), генерального директора GRAID, сотрудничество с GIGABYTE и Kioxia позволило компании представить технологию хранения и защиты данных, обеспечивающую лучшую в отрасли производительность для рабочих нагрузок ИИ, IoT и 5G в новом поколении All-Flash СХД.

Постоянный URL: http://servernews.ru/1044014
Система Orphus