Материалы по тегу: dpu

22.12.2021 [16:47], Алексей Степин

NVIDIA заявила, что DPU BlueField-2 установили рекорд скорости для NVMe-oF — но к нему есть вопросы

Технология NVMe-over-Fabrics (NVMe-oF) прочно заняла своё место в производительных системах хранения данных. В случае NVMe/TCP о мировом рекорде заявила Fungible, которая использует во флеш-массивах FS1600 DPU собственной разработки — она получила 10 млн IOPS на случайных операциях, тогда как без DPU удалось достичь только 6,55 млн IOPS при полной загрузке 128-ядерного сервера. NVIDIA ответила на это собственным тестом.

Вчера компания опубликовала шокирующие результатыDPU BlueField-2 позволил добиться 41,4 млн IOPS, что более чем в четыре раза лучше рекорда Fungible. Прямо имя конкурента не упоминается, но иных показателей в 10 млн IOPS никакой другой вендор и не заявлял. На блоках размером 4К результат NVIDIA составил более 5 млн IOPS, с блоками 512 байт разброс составил от 7 до более чем 20 млн IOPS.

Изображения: NVIDIA

Изображения: NVIDIA

NVIDIA использовала пару серверов HPE Proliant DL380 Gen 10 Plus, каждый с двумя процессорами Intel Xeon Platinum 8380 (Ice Lake-SP, 40C/80T, 2,3-3,4 ГГц, 60 Мбайт L3-кеш, 270 Ватт TDP) и 512 Гбайт DRAM. В каждом узле к шине PCIe 4.0 было подключено две платы NVIDIA BlueField-2P (Performance-версия) с двумя портами 100GbE каждая — ширина канала между узлами составила 400 Гбит/с. Коммутатор не использовался, серверы напрямую соединялись посредством пассивных медных кабелей. В качестве ОС использовалась RHEL 8.3 c ядрами Linux 4.18 и 5.15. Инициаторы применялись как комплектные, так и из состава SPDK.

Результаты тестирования для режима TCP

Результаты тестирования для режима TCP

Тестирование проводилось для NVNe/RoCE и NVMe/TCP в сценариях «100% чтения», «100% записи» и «50/50% чтение-запись». Наилучшие результаты получены при использовании SPDK на обеих системах (но за счёт повышенной нагрузки на CPU). Линейные показатели действительно впечатляют, приближаясь к лимиту канала 4×100GbE, а в режиме 50/50 для 4K с RoCE удалось получить и вовсе 550 Гбит/с (всё-таки дуплекс). Казалось бы, новый, блестящий мировой рекорд у NVIDIA в кармане, однако возникает ряд сомнений по поводу методики тестирования.

...и для RoCE

...и для RoCE

Во-первых, подозрение вызывает отсутствие в спецификациях данных о конфигурации дисковых подсистем. С учётом того, что используемый сервер имеет 24 SFF-отсека, речь могла бы идти о соответствующем числе Intel Optane P5800X — один такой SSD выдаёт около 1,5 млн IOPS на 4K-блоках и до 5 млн IOPS на блоках размером 512B. Цифры, казалось бы, неплохо согласовываются, хотя такая конфигурация и требует всех 128 линий PCIe 4.0 (по x4 на каждый из 24 гипотетических SSD и два x16 для DPU).

Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X

Быстрейшие на сегодня SSD в стандартном форм-факторе: Intel Optane P5800X (Изображение: Intel)

Полное торжество идей NVMe-oF? Не совсем. Ресурс Serve The Home уточнил некоторые детали тестирования у NVIDIA. Так, выяснилось, что в тестовых сценариях компания вообще не использовала подсистему накопителей, отправляя всё в /dev/null. По сути, измерялись передача данных «от Xeon до Xeon», т.е. в первую очередь скорость работы сети. Более того, NVIDIA подтвердила, что массив Arm-ядер на борту BlueField-2 толком не использовался, а весь трафик шёл через стандартный «кремний» ConnectX, также имеющийся в данном DPU.

Сложно сказать, насколько полезно такое тестирование. Конечно, оно демонстрирует великолепные сетевые характеристики BlueField-2, их работу в стандартной серверной среде, готовность программного стека, а также работоспособность систем на базе Xeon Ice Lake-SP с периферией стандарта PCIe 4.0. Однако вопрос взаимодействия BlueField-2 с реальной физической дисковой подсистемой остаётся открытым, поскольку нынешние тесты сравнивать с результатом Fungible затруднительно.

Постоянный URL: http://servernews.ru/1056505
19.12.2021 [18:06], Алексей Степин

Nebulon поможет HCI-решениям освоить рынок периферийных вычислений

По мере внедрения 5G-сетей объёмы данных, добываемых и обрабатываемых на периферии, будут только расти, и здесь новое решение Nebulon для микро-ЦОД окажется весьма к месту.

Компания Nebulon была основана лишь 2018 году, а в 2020 году она представила свои первые решения, концептуально очень схожие с тем, что сейчас принято называть DPU. Изначально это были ускорители под названием SPU (Storage Processing Unit), однако впоследствии первое слово заменили на Service, поскольку речь шла уже об облачных системах, и данные платы стали частью того, что сама Nebulon называет «умной инфраструктурой» (Smart Infrastructure).

Nebulon SPU. Изображения: Nebulon

Nebulon SPU. Изображения: Nebulon

Но у SPU нашлось и ещё одно применение, связанное с периферийной серверной инфраструктурой. Её особенности таковы, что требуют максимальной компактности оборудования, и это, по мнению Nebulon, затрудняет использование классических решений для гиперконвергентной инфраструктуры (HCI), поскольку, по словам Nebulon, она обычно для арбитража, который необходим для стабильности работы, требует наличия в системе минимум трёх узлов.

Схематическое устройство Nebulon SPU

Такой «узел-арбитр» (quorum witness, QW) гарантирует бесперебойную работу системы в том случае, если какой-либо из её основных узлов испытывает проблемы с сетевым подключением. Но в условиях периферии третьему узлу бывает просто негде разместиться, а ведь нужен ещё и сетевой коммутатор. Тут-то на помощь и может прийти ускоритель Nebulon SPU, который можно назвать полноценным «сервером на плате»: он несёт на борту восьмиядерный CPU и 32 Гбайт DRAM.

Основным интерфейсом SPU является PCIe 3.0 x16 (8 линий) + ещё два набора по 8 линий могут обслуживать NVMe SSD (но есть и поддержка SAS/SATA). С такой платой HCI-кластер может иметь в составе всего два узла. Коммутатор не требуется, поскольку плата располагает двумя портами 10/25GbE. Интеграцию такого HCI-кластера с облаком, автоматизацию и арбитраж посредством Nebulon ON также берёт на себя SPU. Компания-разработчик назвала данную технологию smartEdge.

Постоянный URL: http://servernews.ru/1056120
07.12.2021 [13:49], Владимир Мироненко

Intel будет сотрудничать с Inspur, Ruijie Networks и Silicom с целью расширения экосистемы IPU

Intel объявила о сотрудничестве с компаниями Inspur, Ruijie Networks и Silicom с целью расширения экосистемы IPU. Компания сообщила, что будет работать с новыми OEM-партнёрами для поддержки их инициатив по разработке IPU-решений на базе FPGA, которые будут предоставлять «настраиваемые и программируемые решения» для облачных и сетевых платформ с целью создания программируемых сетей.

Ранее Intel представила концепцию сквозных программируемых сетей, основанных на открытых стандартах, где IPU играет ключевую роль в предоставлении сети новых возможностей, включая телеметрию, контроль перегрузки и управление трафиком. Расширяя экосистему IPU, клиенты получат доступ к решениям, предназначенным для создания и использования преимуществ полностью программируемой сети.

Источник изображений: Intel

Источник изображений: Intel

Inspur, один из крупнейших в Китае и мире производителей серверов и прочего IT-оборудования, будет создавать и разрабатывать новые IPU-решения, используя Oak Springs Canyon на базе FPGA Intel, которая обеспечивает высокую производительность, гибкость и подключение 2×100GbE. В результате тесного сотрудничества с Intel компания Inspur может предложить своим клиентам платформу, которая использует IPU для повышения эффективности всего ЦОД.

Ruijie Networks, также базирующаяся в Китае, планирует использовать Oak Springs Canyon для создания IPU класса 100GbE и 200GbE для формирования индивидуальных, оптимизированных IPU-решений для центров обработки данных. Ну а Silicom, ведущий израильский поставщик высокопроизводительных сетевых решений и решений для инфраструктуры данных, и далее продолжит своё партнёрство с Intel для создания уникальных IPU-решений на базе Oak Springs Canyon.

Постоянный URL: http://servernews.ru/1055356
17.11.2021 [17:09], Алексей Степин

Fungible установила новый рекорд производительности СХД: 10 млн IOPS c NVMe/TCP

Компания Fungible, одна из первых представившая миру новый вид ускорителей, DPU, продолжает доказывать правоту своих концепций. На конференции SC21 компания сообщила о новом рекорде производительности систем хранения данных, причём с использованием NVMe-over-TCP.

Флеш-массивы FS1600 компания представила ещё год назад. Эта 2U-система, оснащённая 24 NVMe-накопителями и двумя DPU, способна в теории развивать до 15 млн IOPS. Дополняют её новые платы Storage Initiator, также имеющие на борту свой DPU. Демонстрация работы новинок состоялась в Суперкомпьютерном центре Сан-Диего, где сервер GIGABYTE R282-Z93 с двумя 64-ядерными процессорами AMD EPYC 7763 был оснащён пятью платами Fungible, соединёнными с массивами Fungible FS1600 (число не уточняется).

Адаптер Fungible на базе DPU S1

Адаптер Fungible на базе DPU S1

Как показали сравнительные испытания, с адаптерами Mellanox ConnectX-5 практически все 128 ядер сервера были заняты только обслуживанием сети. Но при переходе на Fungible Storage Initiator ситуация резко изменилась: загрузка сервера снизилась до 63% при полной загрузке СХД, а производительность достигла 10 млн IOPS против 6,55 млн IOPS с ConnectX-5.

Fungible FS1600

Fungible FS1600

Каждый DPU, таким образом, «прокачивал» 2 млн IOPS, чего, по словам компании, сегодня не может ни один другой адаптер. При масштабировании новое решение Fungible может потягаться с массивами Pavilion HyperParallel, которые развивают до 20 млн IOPS. Однако у Fungible есть весомое преимущество в плане компактности, энергоэффективности и удобстве размещения оборудования.

Постоянный URL: http://servernews.ru/1053930
11.11.2021 [15:47], Сергей Карасёв

NVIDIA представила конвергентные ускорители A30X и A100X: GPU + DPU + PCIe-свитч

NVIDIA анонсировала конвергентные ускорители A30X и A100X, позволяющие выполнять ресурсоёмкие задачи на периферии, границе сети и в дата-центрах уровнем безопасности и производительности. В устройствах объединены ускоритель Ampere, DPU и коммутатор PCIe.

Наличие этих компонентов на одной физической карте повышает эффективность использования пространства и энергии. Применение конвергентных ускорителей позволяет упростить развёртывание и обслуживание систем на базе ИИ. Изделия выполнены в виде полноразмерных двухслотовых карт расширения с основным интерфейсом PCIe 4.0 x16, двумя портами 100G Ethernet/InfiniBand и выделенным портом управления.

Источник изображений: NVIDIA

Источник изображений: NVIDIA

Модель A30X с TDP 230 Вт сочетает ускоритель A30 и DPU BlueField-2. Объём памяти HBM2e составляет 24 Гбайт (ПСП 1,16 Тбайт/c). С помощью технологии MIG (Multi-Instance GPU) укоритель можно разделить на четыре инстанса, на каждом из которых может быть запущен отдельный сервис. Вариант A100X с TDP 300 Вт получил ускоритель A100 с 80 Гбайт памяти HBM2e (ПСП 1,94 Тбайт/с) и всё тот же DPU BlueField-2. Возможно использование до семи инстансов.

Модель A100X также имеет три мостика NVLink 3.0 для прямого подключения нескольких ускорителей друг к другу, а у A30X такой мостик только один. «В системах, где требуется несколько GPU и DPU, конвергентный ускоритель позволяет избежать конфликтов при попытке одновременной передачи данных по шине PCIe, поэтому производительность увеличивается линейно числу дополнительных устройств», — заявляет NVIDIA.

Ускорители могут работать в двух режимах. В стандартном режиме хост-система видит GPU и DPU и может работать с ними независимо. В режиме BlueField-X набортный PCIe-коммутатор сконфигурирован так, все ресурсы GPU эксклюзивно отданы DPU, поэтому хост-системе доступен только DPU.

Новинки могут быть использованы для обслуживания малых сот и базовых станций посредством 5G vRAN, для предоставления ускоренных 5G-сервисов, формирования высокопроизводительных «умных» систем хранения данных, ИИ-обработки трафика, детектирования сетевых аномалий, сервисов информационной безопасности (Morpheus) и т.д.

Постоянный URL: http://servernews.ru/1053507
09.11.2021 [12:18], Алексей Степин

NVIDIA добавила поддержку ZeroTrust в DOCA и Morpheus

В эпоху новых платформ, когда даже HPC-задачи могут выполняться в облаке, значение технологий, обеспечивающих информационную безопасность как никогда велико. Однако и сами технологии ИТ-безопасности можно не просто ускорить с помощью сопроцессоров, но и предлагать их в качестве услуги.

Сама по себе изоляция сетевого стека от ОС и приложений не нова — ещё в 2006 году Bigfoot Networks представила первые адаптеры Killer NIC, где обработка трафика выполнялась на набортном процессоре с архитектурой PowerPС, который позволял также запускать и специфический набор приложений, полностью независимый от ЦП и не подверженный, таким образом, вирусным атакам со стороны заражённой хост-системы.

На тот момент идея особой популярности не снискала, однако за прошедшие 15 лет возможности и производительность современных «умных» сетевых карт выросли на порядки и в настоящее время мы видим ренессанс идеи на новом уровне. DPU/IPU уже никого не удивить, однако NVIDIA предлагает для них не просто реализацию подхода «нулевого доверия» (Zero Trust), но и значительное упрощение его внедрения с помощью SDK DOCA 1.2.

В качестве аппаратной основы для DOCA используются DPU серии BlueField, благо уже второе поколение этих решений обеспечивает линейные скорости 200 Гбит/с, поддержку RoCE, GPUDirect Storage и обработку трафика на уровне десятков миллионов пакетов в секунду. Новое, третье поколение BlueField будет ещё мощнее и поднимет скорость до 400 Гбит/с на порт — и это с полноценным шифрованием, аппаратным брандмауэром, продвинутой телеметрией, а также с поддержкой изоляции и контейнеризации микросервисов.

В DOCA NVIDIA унифицировала стандарты разработки ПО для собственных DPU, подобно тому, как она сделала это для CUDA. Разработка безопасных сетевых сред на базe BlueField стала не просто доступной, но и сделала возможным предоставление таких сред в качестве услуги. Такая услуга может полностью управлять доступом к ресурсам ЦОД, осуществлять валидацию всех пользователей и любых приложений + изолировать потенциально уязвимые системы и не давать возникшей ИТ-угрозе распространиться за пределы «карантинной зоны».

Релиз DOCA 1.2 дополняет обновлённый фреймворк NVIDIA Morpheus, предназначенный для разработки средств кибербезопасности с элементами машинного обучения. Благодаря этому комплексу ПО, DPU и EGX поведенческий анализ и детектирование угроз происходит в 600 раз быстрее, чем при исполнении на CPU. Инициативу уже поддержали такие крупные игроки на рынке сетевых средств безопасности, как Juniper Networks и Palo Alto Networks. Ранний доступ к NVIDIA DOCA 1.2 будет открыт 30 ноября, а Morpheus доступна уже сейчас.

Постоянный URL: http://servernews.ru/1053227
05.11.2021 [17:50], Алексей Степин

ScaleFlux представила дисковый сопроцессор SFX 3000 и NVMe-решения на его основе

Концепция «вычислительных» накопителей не нова и, в сущности, напоминает концепцию DPU/SPU. Такие продукты есть у Samsung и NGD Systems, а также у ScaleFlux. Последняя буквально вчера представила свою новую разработку —  сопроцессор SFX 3000 и решения на его основе.

С DPU/SPU «умные» SSD роднит наличие достаточно мощного процессора, берущего на себя специфические задачи — например, аппаратное ускорение сжатия, транскодирования видео или работы с базами данных. В первом случае чип ускорителя располагается, как правило, на отдельной PCIe-плате, а во втором — непосредственно внутри SSD, причём на чип возложены не только высокоуровневые задачи ускорения, но и обслуживание флеш-массива NAND.

Ещё в 2020 году компания ScaleFlux представила накопители CSD 2000, которые продемонстрировали впечатляющий выигрыш в производительности в MySQL в сравнении с обычными SSD. А сейчас она анонсировала новое поколение своих решений, основой которого стал чип SFX 3000. Новый процессор для «вычислительных» накопителей может похвастаться восемью ядрами ARM Cortex-A53 и массивом дополнительных ускорителей.

SFX 3000 имеет 16 каналов для флеш-памяти. Благодаря фирменной прослойке Variable-Length Mapping (изменяемая длина блока данных) чип эффективно использует все ресурсы флеш-массива. (Де-)шифрование и (де-)компрессия данных осуществляются им полностью прозрачно для остальной системы. Помимо этих функций в составе чипа имеются блоки хеширования и сравнения паттернов, есть также аппаратный RoT и собственное хранилище ключей.

Результаты тестов CSD 3000 в обычном режиме и при сжатии 2 к 1

Результаты тестов CSD 3000 в обычном режиме и при сжатии 2 к 1

Более высокоуровневые функции берут на себя Arm-ядра, которые разделены на два кластера по 4 ядра в каждом. Один кластер зарезервирован для пользовательских задач, второй же используется прошивкой ScaleFlux для внутренних целей, хотя в некоторых сценариях оба кластера могут быть задействованы пользователем. За общение с хост-системой отвечает конфигурируемый контроллер PCIe 4.0 (до 8 линий и до 2 портов). Заявлена скорость последовательной записи до 9 Гбайт/с, а скорость выполнения случайных операций составляет 2 и 1,1 млн IOPS на операциях чтения и записи соответственно.

Новинка будет доступна для разработчиков SSD и ускорителей, но представила компания также и собственные решения на основе SFX 3000. Это NVMe-модели CSD 3000, NSD 3000 и CSP 3000. Серия CSD 3000 заменяет упомянутую выше CSD 2000, это классические «вычислительные» SSD, могущие выполнять пользовательские сценарии, но, кроме этого, отличающиеся повышенной износостойкостью флеш-памяти (до 9 раз в сравнении с обычными SSD).

Новые накопители ScaleFlux будут выпускаться во всех популярных форм-факторах

Новые накопители ScaleFlux будут выпускаться во всех популярных форм-факторах

Серия NSD 3000 является конкурентом традиционных высокопроизводительных NVMe SSD. В сравнении с решениями других производителей, для которых заявлен ресурс на уровне 1 DWPD, NSD 3000 предлагают вдвое более высокую выносливость и производительность. А CSP 3000 вообще не является накопителем — он ближе скорее к DPU/SPU, поскольку выполнен в виде PCIe-ускорителя. Не имея собственного массива флеш-памяти, он располагает набортными 16 Гбайт DRAM.

Все новинки ScaleFlux доступны в бета-версии уже сейчас, массовые поставки запланированы на весну 2022 года. Благодаря продвинутым алгоритмам обработки данных, решения ScaleFlux должны помочь внедрению более дешёвой памяти QLC NAND без потерь в производительности и надёжности накопителей. Tencent Cloud уже сообщил о том, что даже с предыдущим поколением решений ScaleFlux ему удалось снизить затраты на инфраструктуру хранения данных. Компания весьма оптимистично настроена по отношению к CSD 3000.

Постоянный URL: http://servernews.ru/1053064
29.10.2021 [02:28], Игорь Осколков

Intel объявила о совместной работе с Google над IPU Mount Evans и анонсировала IPDK

Intel в рамках мероприятия Innovation раскрыла имя партнёра по разработке IPU Mount Evans — им оказалась компания Google. Впрочем, это не означает, что новинки будут доступны только ей и окажутся оптимизированы только под её задачи. IPU хоть и ориентированы в первую очередь на гиперскейлеров (среди возможных заказчиков называют и Facebook), но, по мнению Intel, будут интересны и менее крупным игрокам. Более того, было, наконец, прямо сказано, что ведётся работа и над Project Monterey от VMware.

Как пояснил Гвидо Аппенцеллер (Guido Appenzeller), технический директор подразделения Data Platforms Group Intel, название IPU (Infrastructure Processing Unit) было выбрано в противовес всё ещё относительно новому, но более привычному термину DPU (Data Processing Unit) именно потому, что IPU охватывает более широкий спектр задач по работе именно с инфраструктурой, а не только c данными.

Справедливости ради отметим, что и сами DPU, поначалу чаще ориентированные именно на ускорение работы с СХД и устранению узких мест в передаче данных, уже расширили свою функциональность и практически являются IPU именно в терминологии Intel — этот класс сопроцессоров независим от хост-системы и занимается обслуживанием инфраструктуры, включая работу с сетью и хранилищем, изоляцию и телеметрию, управление нагрузками и т.д.

У Intel достаточно богатый опыт работы по сетевому направлению с гиперскейлерами. По словам Аппенцеллера, семь из восьми крупнейших компаний этого класса используют решения Intel во всей или хотя бы в некоторых частях своей инфраструктуры. Так, Microsoft, Baidu и JD полагаются на SmartNIC на базе FPGA. Партнёрство же с Google будет выгодно для обеих компаний. Intel получит заказы, а Google, наконец, обретёт то, что давно есть у Amazon — аналог Nitro. На масштабе в миллионы серверов это очень важно.

Однако IPU (как аппаратные устройства) — только часть общей картины. Для полноты не хватает как минимум ещё двух компонентов: программного стека и сопутствующей инфраструктуру. Tofino-3 — анонсированный ранее чип или, как его называет сама Intel, Intelligent Fabric Processor — не только поддерживает коммутацию на скорости 25,6 Тбит/с с параллельным сбором телеметрии, но и является полностью P4-программируемым. А это позволяет организовать сквозные мониторинг, управление и оптимизацию трафика для конкретных задач.

Или, иными словам, IPU и подходящие коммутаторы позволяют сделать всю инфраструктуру практически полностью программно определяемой, но с аппаратной разгрузкой части функций и близкой к bare metal итоговой производительностью. Правда, в качестве демо Intel опять же приводит «классические» примеры с СХД и Open vSwitch, а также сценарии глубокого мониторинга производительности и быстрого поиска проблемных мест в сети. Но этим потенциальные возможности не ограничиваются.

Более того, со стороны ПО и средств разработки жёсткой привязки именно к «железу» Intel нет. Компания представила open source фреймворк IPDK (Infrastructure Programmer Development Kit) для упрощения переноса и, что важно, оптимизации наиболее тяжёлых или нетривиально реализуемых функций ПО на SmartNIC (с FPGA или иной программируемой логикой), IPU/DPU, коммутаторы или CPU. IPDK дополняет уже имеющиеся решения вроде DPDK, SPDK и т.д. возможностями работы с P4.

Постоянный URL: http://servernews.ru/1052487
20.10.2021 [20:16], Алексей Степин

Коммутаторы Aruba CX 10000 получили DPU Pensando Elba

Совсем молодой по меркам мира информационных технологий класс новых сопроцессоров, DPU, уже успел снискать популярность у разработчиков и производителей сетевого оборудования. Компания Aruba Networks анонсировала новые коммутаторы CX 10000, главной особенностью которых является наличие DPU от Pensando Systems.

Не столь давно Pensando заявила, что намерена потягаться с NVIDIA BlueField-2. По мнению компании, её процессор DSC-100 опережает соперника на целое поколение, и при потреблении 30 Вт способен на полной скорости обрабатывать сетевой поток 100 Гбит/с со средней задержкой не более 3 мкс. Ранее эти DPU уже «засветились» в некоторых серверах Dell и HPE и СХД NetApp. Теперь пришла очередь коммутаторов компании Aruba Networks, дочерней компании HPE.

Новая серия ToR-коммутаторов L2/L3 Aruba CX 10000 имеет суммарную пропускную способность до 3,2 Тбит/с. Новинка предоставляет 48 портов 10/25GbE, а со стороны агрегирующего слоя имеет 6 портов 40/100GbE. Но самое главное — это наличие в составе CX 1000 сопроцессора Pensando Elba, позволяющего избавиться от отдельных аппаратных устройств шифрования или обеспечения сетевой безопасности (брандмауэры и т.п.).

Elba: второе поколение DPU Pensando

Elba: второе поколение DPU Pensando

7-нм DPU Elba содержит четыре P4-конвейера для обработки пакетов, каждый из которых включает 32 ядра MPU, а также кеши, планировщики и прочую обвязку. Сами P4-ядра работают на частоте 1,5 ГГц. Дополнительно этот DPU имеет 16 ядер общего назначения Cortex-A72 с частотой 2,8 ГГц и контроллер DDR4/5. Есть и аппаратные блоки ускорения криптографии, сжатия/дедупликации, сверки контрольных сумм. Для связи с внешним миром есть 32 линии PCIe 4.0.

Архитектура Pensando Elba

Архитектура Pensando Elba

Собственно говоря, DPU способен обрабатывать трафик вплоть до L7 — всё зависит только от потребностей заказчика. Шифрование, инспекция трафика, брандмауэр, балансировка нагрузки, сегментация приложений на уровне порта, подробнейшая телеметрия — всё это может взять на себя именно Elba. А само устройство, CX 1000 при этом будет занимать всего 1U-место в стойке и, разумеется, потреблять меньше энергии, нежели классический набор отдельных устройств.

Полноценная поддержка Aruba Fabric Composer существенно упростит процесс интеграции коммутаторов нового поколения в существующие сети на базе оборудования Aruba Networks. Разумеется, за такие возможности придётся серьёзно заплатить: поставки Aruba CX 1000 начнутся в январе 2022 года, со стоимостью, стартующей с отметки $45000. Но в комплект уже будут входить реализации брандмауэра, zero trust сегментации, телеметрии, защиты от DDoS-атак.

Постоянный URL: http://servernews.ru/1051724
06.10.2021 [00:03], Илья Коваль

Программа раннего доступа к Project Monterey от NVIDIA и VMware пополнилась серверами Lenovo

NVIDIA объявила о расширении сотрудничества с Lenovo в рамках раннего доступа к решениям на базе VMware Project Monterey. Как и в случае аналогичного сотрудничества с Dell, предлагается готовый кластер из серверов с DPU NVIDIA BlueField-2 — на соответствующей странице теперь упомянуты модели PowerEdge R750 и ThinkSystem SR650 V2. Кроме того, обещан доступ и к системам ThinkAgile VX.

По словам компаний, NVIDIA, Lenovo и VMware совместно развивают новую архитектуру для современных рабочих нагрузок, включая ИИ и машинное обучение, охватывающую классические ЦОД, облака и периферийные вычисления. Такая архитектура должна быть, с одной стороны, программно определяемой, а с другой — полагаться на различные возможности современных аппаратных решений для ускорения выполнения конкретных задач, в том числе служебных.

Поэтому всем сторонам и интересен Project Monterey, который предполагает перенос части функций vSphere на DPU и SmartNIC, избавляя тем самым CPU от лишней работы. NVIDIA активно использует возможности DPU в своих собственных решениях, а партнёрство с VMware позволит ей лучше закрепиться на уже существующих и новых для неё рынках. Впрочем, VMware в рамках данного проекта сотрудничает и с другими игроками — Pensando, одним из пионеров в области DPU, и Intel, которая недавно анонсировала IPU Mount Evans.

Постоянный URL: http://servernews.ru/1050641
Система Orphus