Материалы по тегу: smartnic

14.08.2022 [14:50], Владимир Мироненко

SmartNIC будут драйверами роста рынка Ethernet-адаптеров в ближайшие годы

Согласно данным исследовательского центра Dell'Oro, SmartNIC будут одним из драйверов роста рынка Ethernet-адаптеров, объём которого, по его прогнозу, достигнет к 2026 году $5 млрд. Скорость подключения продолжит расти и на порты с поддержкой скорости 100 Гбит/с и выше будет приходиться почти половина поставок.

В отчёте Dell'Oro «Ethernet Adapter & Smart NIC 5-Year Forecast» за июль 2022 года сообщается, что на SmartNIC будет приходиться растущая доля рынка Ethernet-адаптеров, особенно это относится к гиперескейлерам и сегменту высокопроизводительных приложений. По словам директора по исследованиям Dell'Oro Барона Фунга (Baron Fung), к 2026 году доля SmartNIC составит 38 % всего рынка контроллеров и адаптеров Ethernet.

«SmartNIC заменят традиционные сетевые адаптеры для большей части облачной инфраструктуры гиперскейлеров для задач общего назначения и высокопроизводительных рабочих нагрузок», — сказал Фунг, отметив также перспективность использования SmartNIC облачными провайдерами второго эшелона, в корпоративных ЦОД и на телекоммуникационном рынке. SmartNIC позволяют разгрузить хост-систему, переложив на них часть задач, однако они всё ещё дороги, а сети на их основе сложны в реализации.

 Изображение: AMD

Изображение: AMD

Доходы от продаж SmartNIC, по прогнозам Dell'Oro, будут расти в течение ближайших пяти лет со среднегодовым темпом роста (CAGR) в 21 %, в то время как для традиционных сетевых адаптеров этот показатель составит 5 %. В Dell'Oro также ожидают, что стоимость высокоскоростных портов будет снижаться, поэтому пять лет около 44 % поставок будут приходиться на порты 100GbE+. Так, в США в течение следующих пяти лет в инфраструктуре основных гиперскейлеров — Amazon, Google, Meta* и Microsoft — будут преобладать порты 100GbE и 200GbE.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1072113
10.06.2022 [23:31], Алексей Степин

Решения Xilinx и Pensando помогут AMD завоевать рынок ЦОД

О грядущих серверных APU MI300, сочетающих архитектуры Zen 4 и CDNA 3, и сразу нескольких сериях процессоров EPYC мы уже рассказали, но на мероприятии Financial Analyst Day 2022 компания поделилась и другими планами относительно серверного рынка, которые весьма обширны. Они включают в себя использование разработок и технологий Xilinx и Pensando.

Фактически AMD теперь владеет полным портфолио аппаратных решений для ЦОД и рынка HPC: процессорами EPYC, ускорителями Instinct, SmartNIC и DPU на базе чипов Xilinx и Pensando и, наконец, FPGA всё той же Xilinx. Долгосрочные перспективы рынка ЦОД AMD оценивает в $125 млрд, из них на долю ускорителей приходится $64 млрд, а классические процессоры занимают лишь второе место с $42 млрд; остальное приходится на DPU, SmartNIC и FPGA.

 Источник: AMD

Источник: AMD

Теперь у AMD есть полный спектр «умных» сетевых решений практически для любой задачи, включая сценарии, требующие сверхнизкой латентности. Эту роль берут на себя адаптеры Solarflare. Более универсальные ускорители Xilix Alveo обеспечат поддержку кастомных сетевых функций и блоков ускорения, а также высокую производительность обработки пакетов. Ускорители могут быть перепрограммированы, что потенциально позволит существенно оптимизировать затраты на сетевую инфраструктуру крупных ЦОД.

 Источник: AMD

Источник: AMD

Гиперскейлерам они уже поставляются, в текущем виде они имеют до двух 200GbE-портов и совокупную скорость обработки до 400 млн пакетов в секунду. Следующее поколение должно увидеть свет в 2024 году, здесь AMD придерживается двухгодичного цикла. Выпускается и 7-нм DPU Pensando Elba, также предоставляющий пару 200GbE-портов. В отличие от Alveo, это более узкоспециализированное устройство, содержащее 144 P4-программируемых пакетных движка. Помимо них имеются выделенные аппаратные движки ускорения криптографии и сжатия/декомпрессии данных.

Уникальный программно-аппаратный стек Pensando, унаследованный AMD, обеспечивает ряд интересных возможностей, востребованных в крупных системах виртуализации на базе ПО VMware — например, полноценную поддержку виртуализации NVMe, поддержку NVMe-oF/RDMA, в том числе и NVMe/TCP, а также полноценное шифрование и туннели IPSec на полной линейной скорости 100 Гбит/с с временем отклика 3 мкс и джиттером в районе 35 нс.

Источник: AMD

Разработки Pensando уже используются такими крупными поставщиками сетевого оборудования и СХД, как Aruba (коммутаторы с DPU) и NetApp (системы хранения данных). Таким образом, AMD вполне вправе говорить о том, что современный высокопроизводительный ЦОД может быть целиком построен на базе технологий компании, от процессоров и ускорителей до интерконнекта и специфических акселераторов.

Современный безопасный ЦОД может быть целиком построен на базе технологий AMD. Источник: AMD

Поддержка доверенных вычислений, включая полное шифрование содержимого памяти делает такие ЦОД и более безопасными, что немаловажно в современном мире, полном кибер-угроз. В том же направлении движутся NVIDIA BlueField и Intel IPU, а также целый ряд других игроков.

Постоянный URL: http://servernews.ru/1067763
24.02.2022 [23:58], Алексей Степин

MikroTik CCR2004-1G-2XS-PCIe — маршрутизатор в форм-факторе PCIe-платы

Идеи о конвергенции и дезагрегации, занявшие сейчас ключевое место в концепции современных инфотехнологий, продолжают порождать новые интересные продукты и решения. Компания MikroTik представила новый маршрутизатор CCR2004-1G-2XS-PCIe, выполненный в форм-факторе обычной низкопрофильной платы расширения с интерфейсом PCIe 3.0 x8 и парой корзин для модулей SFP28 (до 25 Гбит/с).

В основе лежит процессор Annapurna Labs (сейчас принадлежит Amazon) AL32400, имеющий четыре ядра с архитектурой Arm Cortex-A57 с номинальной частотой 1,5 ГГц. Он дополнен банком оперативной памяти DDR4 объёмом 4 Гбайт, для хранения прошивки и конфигурации используется NAND объёмом 128 Мбайт.

Возможности конфигурации портов у новинки довольно гибкие: можно настроить до четырёх виртуальных интерфейсов Ethernet, причём два из них могут работать в режиме прямого проброса к SFP28. Отдельный 1GbE-порт (RJ-45) предназначен для удалённого управления, но и он может иметь выход на PCIe.

По сути, это вариация на тему уже имеющихся в арсенале компании бюджетных маршрутизаторов на базе такого же процессора (например, CCR2004-1G-12S+2XS), просто выполнена она в необычном для такого рода устройств форм-факторе, позволяющем сэкономить лишний юнит в серверной стойке.

Во всём, кроме поддержки PCI Express, это привычный маршрутизатор MikroTik, работающий под управлением фирменной RouterOS v7 со всеми присущими ей возможностями и особенностями. Правда, следует учитывать, что на инициализацию «железа» и загрузку ПО уходить больше времени, чем у других PCIe-устройств.

Постоянный URL: http://servernews.ru/1060889
10.02.2022 [23:14], Алексей Степин

CESNET и Reflex CES представили свой первый 400GbE-адаптер с PCIe 5.0 и CXL

CESNET, альянс чешских университетов и национальной академии наук, поставил перед собой задачу разработать высокоскоростные адаптеры для использования в современных СХД и HPC-системах. Совместно с французской компанией Reflex CES, специализирующейся на разработке FPGA-решений, они представили первый европейский SmartNIC XpressSX AGI-FH400G класса 400GbE. И это первое аппаратное решение в рамках проекта Liberouter, цель которого — создание высокоскоростных сетевых платформ на базе ПЛИС.

 Изображения: www.reflexces.com

Изображения: www.reflexces.com

Новый адаптер интересен тем, что он является одной из пока немногих карт расширения, поддерживающих PCIe 5.0 и CXL. В его основе лежит мощная ПЛИС Intel серии Agilex I-Series c 2,7 млн логических элементов, 8,5 тыс блоков DSP и 260 Мбит быстрой памяти на кристалле. Дополнительно она имеет собственный четырёхъядерный процессор Arm Cortex-A53.

 Блок-схема XpressSX AGI-FH400G

Блок-схема XpressSX AGI-FH400G

В качестве основного интерфейса используется стандартный разъём PCIe 5.0 x16, но на плате установлено ещё две пары HSI-коннекторов для подключений PCIe 5.0 и CXL. Подсистема памяти представлена тремя независимыми банками: 4 Гбайт DDR4-2666 на борту (общей для CPU и FPGA) + два слота SO-DIMM для 32-Гбайт модулей.

 Программно-аппаратная архитектура Liberouter NDK

Программно-аппаратная архитектура Liberouter NDK

Как уже было сказано, целью проекта было создание современного сетевого ускорителя, способного с минимальными задержками обрабатывать данные на скорости 400 Гбит/с, и разработчикам удалось создать базовый набор ядер для ПЛИС с поддержкой DMA.

 Новый ускоритель XpressSX AGI-FH400G имеет двухслотовый форм-фактор

Новый ускоритель XpressSX AGI-FH400G имеет двухслотовый форм-фактор

В комплект поставки входят все необходимые средства разработки, включая набор IP-блоков, скрипты для синтеза конечного дизайна ускорителя, драйверы и программный стек для Linux с поддержкой DPDK, а также пользовательские библиотеки и инструментарий для настройки компонентов. Программно архитектура новинки полностью модульная и масштабируемая, что позволит создавать на её основе гибкие и высокопроизводительные сетевые решения класса 400GbE, и не только их.

Постоянный URL: http://servernews.ru/1059952
02.02.2022 [21:53], Алексей Степин

Check Point представила межсетевые экраны Quantum Lightspeed

Известный разработчик решений в области информационной безопасности, компания Check Point Software, на днях представил новую серию устройств Quantum Lightspeed, которые, по словам создателей, установили новый стандарт производительности для брандмауэров.

Благодаря использованию контроллеров ConnectX от NVIDIA/Mellanox в серии Quantum Lightspeed удалось добиться обработки трафика на скорости до 3 Тбит/с и при задержке, не превышающей 3 мкс. Впрочем, в задачах NGFW или IPS показатели производительности новинок ожидаемо значительно скромнее.

 Изображения: Check Point Software

Изображения: Check Point Software

Новые решения Quantum Lightspeed представляют наибольший интерес для крупных предприятий, дата-центров, ритейла, финансовых организаций и прочих компаний, которым требуется и высокая пропускная способность, и низкая задержка. Сейчас в серии Quantum Lightspeed есть четыре базовые модели (число в названии указывает на пропускную способность в Гбит/с):

  • Quantum Lightspeed QLS250;
  • Quantum Lightspeed QLS450;
  • Quantum Lightspeed QLS650;
  • Quantum Lightspeed QLS800.

Также в серию входят два оркестратора Maestro Lightspeed MLS200 и MLS400, предназначенных специально для построения масштабируемых комплексов. Блоки MLS, выступающие в качестве «сердца» такой системы и работающие в том числе в режиме Active-Active, могут быть дополнены модулями расширения, что и даёт суммарную пропускную способность до 3 Тбит/с.

Подобные показатели, как уже отмечалось, во многом достигнуты благодаря использованию возможностей ConnectX. В схеме, реализованной Check Point, лишь первый пакет в каждом соединении проверяется силами CPU на соответствие политикам безопасности (в докладе говорится о связке IP-адрес+порт). Если проверка пройдена, то далее обработка трафика в обоих направлениях до закрытия соединения или сессии ложится на плечи ConneсtX. Идея, в целом, не нова.

Кроме того, шлюз занимается SPI, поддерживает NAT и может обрабатывать трафик VXLAN/GRE. Компания отдельно отмечает, что новинки хорошо подходят и для нагрузок с длительной передачей большого объёма трафика в рамках одной сессии, становящихся всё более актуальными. Впрочем, нельзя не отметить, что NVIDIA сотрудничает и с другими игроками в этой области, например, Palo Alto Networks.

Постоянный URL: http://servernews.ru/1059344
19.08.2021 [18:04], Алексей Степин

Intel представила IPU Mount Evans и Oak Springs Canyon, а также ODM-платформу N6000 Arrow Creek

Весной Intel анонсировала свои первые DPU (Data Processing Unit), которые она предпочитает называть IPU (Infrastructure Processing Unit), утверждая, что такое именования является более корректным. Впрочем, цели у этого класса устройств, как их не называй, одинаковые — перенос части функций CPU по обслуживанию ряда подсистем на выделенные аппаратные блоки и ускорители.

Классическая архитектура серверных систем такова, что при работе с сетью, хранилищем, безопасностью значительная часть нагрузки ложится на плечи центральных процессоров. Это далеко не всегда приемлемо — такая нагрузка может отъедать существенную часть ресурсов CPU, которые могли бы быть использованы более рационально, особенно в современных средах с активным использованием виртуализации, контейнеризации и микросервисов.

Для решения этой проблемы и были созданы DPU, которые эволюционировали из SmartNIC, бравших на себя «тяжёлые» задачи по обработке трафика и данных. DPU имеют на борту солидный пул вычислительных возможностей, что позволяет на некоторых из них запускать даже гипервизор. Однако Intel IPU имеют свои особенности, отличающие их и от SmartNIC, и от виденных ранее DPU.

Новый класс сопроцессоров Intel должен взять на себя все заботы по обслуживанию инфраструктуры во всех её проявлениях, будь то работа с сетью, с подсистемами хранения данных или удалённое управление. При этом и DPU, и IPU в отличие от SmartNIC полностью независим от хост-системы. Полное разделение инфраструктуры и гостевых задач обеспечивает дополнительную прослойку безопасности, поскольку аппаратный Root of Trust включён в IPU.

Это не единственное преимущество нового подхода. Компания приводит статистику Facebook*, из которой видно, что иногда более 50% процессорных тактов серверы тратят на «обслуживание самих себя». Все эти такты могут быть пущены в дело, если за это обслуживание возьмётся IPU. Кроме того, новый класс сетевых ускорителей открывает дорогу к бездисковой серверной инфраструктуре: виртуальные диски создаются и обслуживаются также чипом IPU.

Первый чип в новом семействе IPU, получивший имя Mount Evans, создавался в сотрудничестве с крупными облачными провайдерами. Поэтому в нём широко используется кремний специального назначения (ASIC), обеспечивающий, однако, и нужную степень гибкости, За основу взяты ядра общего назначения Arm Neoverse N1 (до 16 шт.), дополненные тремя банками памяти LPDRR4 и различными ускорителями.

Сетевая часть представлена 200GbE-интерфейсом с выделенным P4-программируемым движком для обработки сетевых пакетов и управления QoS. Дополняет его выделенный IPSec-движок, способный на лету шифровать весь трафик без потери скорости. Естественно, есть поддержка RDMA (RoCEv2) и разгрузки NVMe-oF, причём отличительной чертой является возможность создавать для хоста виртуальные NVMe-накопители — всё благодаря контроллеру, который был позаимствован у Optane SSD.

Дополняют этот комплекс ускорители (де-)компресии и шифрования данных на лету. Они базируются на технологиях Intel QAT и, в частности, предложат поддержку современного алгоритма сжатия Zstandard. Наконец, у IPU будет выделенный блок для независимого внешнего управления. Работать с устройством можно будет посредством привычных SPDK и DPDK. Один IPU Mount Evans может обслуживать до четырёх процессоров. В целом, новинку можно назвать интересной и более доступной альтернативной AWS Nitro.

Также Intel представила платформу Oak Springs Canyon с двумя 100GbE-интерфейсами, которая сочетает процессоры Xeon-D и FPGA семейства Agilex. Каждому чипу которых полагается по 16 Гбайт собственной памяти DDR4. Платформа может использоваться для ускорения Open vSwitch и NVMe-oF с поддержкой RDMA/RocE, имеет аппаратные криптодвижки т.д. Наличие FPGA позволяет выполнять специфичные для конкретного заказчика задачи, но вместе с тем совместимость с x86 существенно упрощает разработку ПО для этой платформы. В дополнение к SPDK и DPDK доступны и инструменты OFS.

Наконец, компания показала и референсную плаформу для разработчиков Intel N6000 Acceleration Development Platform (Arrow Creek). Она несколько отличается от других IPU и относится скорее к SmartNIC, посколько сочетает FPGA Agilex, CPLD Max10 и сетевые контроллеры Intel Ethernet 800 (2 × 100GbE). Дополняет их аппаратный Root of Trust, а также PTP-блок.

Работать с устройством можно также с помощью DPDK и OFS, да и функциональность во многом совпадает с Oak Springs Canyon. Но это всё же платформа для разработки конечных решений ODM-партнёрами Intel, которые могут с её помощью имплементировать какие-то специфические протоколы или функции с ускорением на FPGA, например, SRv6 или Juniper Contrail.

IPU могут стать частью высокоинтегрированной ЦОД-платформы Intel, и на этом поле она будет соревноваться в первую очередь с NVIDIA, которая активно продвигает DPU BluefIeld, а вскоре обзаведётся ещё и собственным процессором. Из ближайших интересных анонсов, вероятно, стоит ждать поддержку Project Monterey, о которой уже заявили NVIDIA и Pensando.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1047103
24.06.2021 [11:54], Владимир Агапов

BittWare представила FPGA-ускорители IA-420F и IA-220-U2 на базе Intel Agilex

Компания BitWare объявила о расширении серии ускорителей IA, основанных на программируемых матрицах Intel Agilex. Добавлено 2 новые модели: IA-420F (низкопрофильная PCIe-карта) и IA-220-U2 (U.2). Вместе с выпущенным ранее двухслотовым PCIe-ускорителем IA-840F, серия IA теперь охватывает 3 наиболее востребованных в ЦОД и сетевой инфраструктуре форм-фактора, что значительно повышает гибкость развёртывания.

Ускоритель IA-420F предназначен для использования в качестве SmartNIC и для вычислительных хранилищ (computational storage). Эта однослотовая HHHL-карта может быть установлена практически в любые серверные и периферийные устройства. В состав платы входят: микросхема FPGA Intel AGF 014 на 1,437 млн логических элементов, 2 Гбит загрузочной флеш-памяти, 2 банка DDR4 (до 16 ГБайт каждый), 8 линий GPIO. Для программирования и отладки на плату выведен порт USB, подключённый к набортному BMC.

Сетевой интерфейс представлен разъёмом QSFP-DD (200 Гбит/с), соединённым с FPGA через восемь 25G-трансиверов. Предусмотрена программируемые пользователем 10/25/40/100GbE-подключения, а также поддержка синхронизации с подавлением джиттера с внешним источником точного времени. FPGA напрямую подключена к линиям PCIe 4.0 x16. Максимальное энергопотребление составляет 75 Вт.

Модуль IA-220-U2 выполнен в форм-факторе U.2 (15 мм) и оптимизирован для работы с пассивным охлаждением — максимальное энергопотребление составляет 25 Вт. Он предназначен для рабочих нагрузок, связанных с NVMe СХД. Основной элемент платы — та же FPGA Intel AGF 014 с двумя банками памяти DRR4-2400 (до 8 ГБайт).

Кроме того, есть SMBus контроллер с поддержкой NVMe-MI 1.а, что позволяет легко обновлять ПО FPGA. Также есть выводы JTAG и GPIO. Ускоритель IA-220-U2 имеет интерфейс PCIe 4.0 x4 и может быть установлен в обычные 2U СХД. Его удобно использовать в платформах, где имеется избыток слотов U.2, но нет свободных слотов PCIe.

Благодаря использованию в обоих модулях ПЛИС Intel Agilex, пользователям доступен oneAPI — унифицированный набор средств разработки, который, по словам создателей, позволяет заказчикам быстро перейти от создания пробных образцов к массовому развёртыванию, успешно выполняя все требования по квалификации, проверке, управлению жизненным циклом и поддержкой. Впрочем, никто не мешает воспользоваться и Quartus Prime Pro.

Постоянный URL: http://servernews.ru/1042715
14.06.2021 [21:25], Владимир Мироненко

Intel анонсировала IPU, новый класс устройств для дата-центров будущего

Компания Intel в ходе саммита Six Five анонсировала IPU (Infrastructure Processing Unit), ещё одного представителя xPU в терминологии «синих». В данном случае — это программируемое сетевое устройство, разработанное c целью снизить накладные расходы и высвободить ресурсы CPU, перенеся задачи виртуализации хранилища и сети, управления безопасностью и изоляцией на выделенные аппаратные блоки в составе IPU.

Это позволит гиперскейлерам и облачным операторам перейти на полностью виртуализированные хранилище и сетевую архитектуру, сохранив при этом высокую производительность и предсказуемость работы, а также высокую степень контроля. IPU интеллектуально управляет ресурсами IT-инфраструктуры на системном уровне, позволяя гибко разворачивать и (пере-)конфигурировать рабочие нагрузки.

В условиях роста популярности микросервисных архитектур такой подход очень кстати — Intel приводит данные Google и Facebook* — от 22 до 80 % циклов CPU может уходить только на коммуникацию между микросервисами, а не на выполнение полезной нагрузки. ЦОД нового поколения потребуется новая же интеллектуальная архитектура, в которой масштабные распределённые и разнородные вычислительные системы работают вместе и легко сочетаются, формируя единую платформу.

«IPU — это новый класс технологий, который является одним из стратегических столпов нашей облачной стратегии. Он расширяет возможности SmartNIC и предназначен для устранения сложности и неэффективности современного дата-центра . В Intel стремятся создавать решения и внедрять инновации вместе со своими клиентами и партнерами — IPU является примером такого сотрудничества», — заявил Гвидо Аппенцеллер (Guido Appenzeller), технический директор Intel Data Platforms Group.

Если всё это вам кажется знакомым, то в этом нет ничего удивительного. Аналогичные по задачам и подходу решения, именуемые DPU (Data Processing Unit), активно развивают NVIDIA, Fungible и другие вендоры. DPU объединяет в рамках одного устройства сетевой контроллер, ядра общего назначения, ускоритель (GPU, FPGA, ASIC), память и движки для ускорения отдельных операций. Но в данном случае гораздо важнее программная, а не аппаратная часть, так как современные SmartNIC по «железу» недалеки от DPU.

У Intel уже есть свои варианты IPU/DPU на базе Xeon D и FPGA. По словам компании, в результате сотрудничества с большинством гиперскейлеров она уже является лидером по объёму продаж на рынке IPU. Первая IPU-платформа Intel на базе FPGA развёрнута у нескольких поставщиков облачных услуг, а вариант IPU с ASIC находится на стадии тестирования. Свои IPU-решения Intel тестирует совместно с Microsoft Azure, Baidu, JD Cloud&AI и VMware.

«Еще до 2015 года Microsoft впервые использовала реконфигурируемые SmartNIC в Intel-серверах нескольких поколений для разгрузки и ускорения сетевого стека и стека хранения. SmartNIC позволяет нам высвободить ядра CPU, увеличить пропускную способность и количество IOPS для хранилищ, добавлять новые возможности после развёртывания и обеспечивать предсказуемую производительность для наших облачных клиентов. — говорит Эндрю Патнэм (Andrew Putnam) из Microsoft. — Intel с самого начала является нашим надёжным партнером, и мы рады видеть, что Intel продолжает продвигать чёткое отраслевое видение ЦОД будущего с IPU».

Однако нельзя не отметить, что гиперскейлеры — это отдельный особый рынок, на котором кастомные решения являются нормой. Насколько обычные операторы ЦОД и корпоративные заказчики будут готовы внедрять IPU, вопрос открытый. Больше подробностей о программных и аппаратных особенностях новинок Intel обещала предоставить в октябре.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1041891
23.02.2021 [19:24], Сергей Карасёв

Xilinx представила 100GbE-адаптеры Alveo SN1000 с FPGA и 16-ядерным ARM CPU на борту

Компания Xilinx анонсировала «умные» сетевые адаптеры Alveo SN1000, рассчитанные на использование в современных центрах обработки данных с высокой нагрузкой. Пробные поставки изделий уже начались, а массовые продажи планируется организовать 31 марта.

Устройства относятся к решениям SmartNIC. Они позволяют перенести нагрузку с центральных процессоров серверов непосредственно на сетевые адаптеры, оптимизировав тем самым работу всей IT-инфраструктуры. Адаптеры Alveo SN1000 являются полностью программно-определяемыми и подходят для создания компонуемой инфраструктуры.

В их основу положена 16-нм FPGA XCU26 серии UltraScale+, дополненная SoC от NXP с 16 ядрами ARM Cortex-A72 (2 ГГц, 8 Мбайт кеш). Процессору выделен один, а FPGA — два 4-Гбайт модуля памяти DDR4-2400. Первенец семейства, адаптер SN1022, выполнен в виде FHHL-карты с интерфейсом PCIe 3.0 x16 / PCIe 4.0 x8 и двумя 100GbE-портами QSFP28.

Для набортной SoC заявлена совместимость с Ubuntu и Yocto Linux. В качестве основного хранилища есть 16-Гбайт NAND-модуль eMMC, а для загрузчика — NOR-чип ёмкостью 64 Мбайт. Среди совместимых ОС для хоста указаны RHEL, CentOS и Ubuntu.

Фактически в состав адаптера входят и control plane, и data plane. Поддерживается аппаратная разгрузка virtio-net, а также ускорение работы Intel DPDK и Onload TCPDirect, Open Virtual Switch, Ceph RDB, IPSec и так далее. Часть функциональности перешла по наследству от SolarFlare, но Xilinx пошла дальше и открыла доступ к готовым IP-решениям в магазине App Store.

В магазине пока нет готовых решений для SN1000, но для этой серии доступна платформа разработки Xilinx Vitis. Более подробную информацию о новинках можно найти здесь. Вместе с новыми SmartNIC и магазином компания также представила платформы Smart World и Accelerated Algorithmic Trading (ATT). Первая предназначена для ИИ-видеоаналитики в режиме реального времени, а вторая, как нетрудно догадаться, для высокочастотного трейдинга (HFT).

Постоянный URL: http://servernews.ru/1033338
18.11.2020 [12:18], Андрей Галадей

VMware перенесёт файрволы на SmartNIC и DPU для разгрузки CPU

Компания VMware сообщила, что её системы виртуализации будут использоваться в сетевых адаптерах SmartNIC и DPU. Это позволит снизить нагрузку на центральные процессоры серверов.

Адаптеры SmartNIC и DPU оснащены сопроцессорами для обратки данных, так что вполне логично задействовать их для виртуализации. Впервые VMware объявила об этом в сентябре 2020 года. Идея состоит в том, чтобы использовать эти мощности для управления хранилищем и виртуальными сетями, а также для выполнения некоторых функций безопасности. С этой целью VMware портировала свой флагманский гипервизор ESXi на архитектуру Arm, поскольку на ней базируются системы-на-чипе с таких адаптерах.

В компании отметили, что межсетевой экран NSX Services-Defined Firewall теперь будет работать на SmartNIC и предоставлять L4 SPI-файрвол. Кроме того, было заявлено, что те же адаптеры смогут запускать межсетевой экран L7. Всё это позволит ускорить работу серверов и повысить защищённость. Ведь в традиционных сценариях эту нагрузку берёт на себя CPU. Помимо этого, такой подход позволяет создавать шифрованные каналы для работы удалённых сотрудников, не опасаясь перехвата инофрмации.

Отметим, что компания VMware предлагает создавать новые сети, в которой системы сами определяют, какие приложения нужны, и самостоятельно настраиваются соответствующим образом. Проще говоря, речь идёт о распределённых защитных системах. ARM-версия гипервизора ESXi и сетевого экрана NSX Services-Defined Firewall — первые шаги к этому.

Постоянный URL: http://servernews.ru/1025651
Система Orphus