Материалы по тегу: smartnic

19.08.2021 [18:04], Алексей Степин

Intel представила IPU Mount Evans и Oak Springs Canyon, а также ODM-платформу N6000 Arrow Creek

Весной Intel анонсировала свои первые DPU (Data Processing Unit), которые она предпочитает называть IPU (Infrastructure Processing Unit), утверждая, что такое именования является более корректным. Впрочем, цели у этого класса устройств, как их не называй, одинаковые — перенос части функций CPU по обслуживанию ряда подсистем на выделенные аппаратные блоки и ускорители.

Классическая архитектура серверных систем такова, что при работе с сетью, хранилищем, безопасностью значительная часть нагрузки ложится на плечи центральных процессоров. Это далеко не всегда приемлемо — такая нагрузка может отъедать существенную часть ресурсов CPU, которые могли бы быть использованы более рационально, особенно в современных средах с активным использованием виртуализации, контейнеризации и микросервисов.

Для решения этой проблемы и были созданы DPU, которые эволюционировали из SmartNIC, бравших на себя «тяжёлые» задачи по обработке трафика и данных. DPU имеют на борту солидный пул вычислительных возможностей, что позволяет на некоторых из них запускать даже гипервизор. Однако Intel IPU имеют свои особенности, отличающие их и от SmartNIC, и от виденных ранее DPU.

Новый класс сопроцессоров Intel должен взять на себя все заботы по обслуживанию инфраструктуры во всех её проявлениях, будь то работа с сетью, с подсистемами хранения данных или удалённое управление. При этом и DPU, и IPU в отличие от SmartNIC полностью независим от хост-системы. Полное разделение инфраструктуры и гостевых задач обеспечивает дополнительную прослойку безопасности, поскольку аппаратный Root of Trust включён в IPU.

Это не единственное преимущество нового подхода. Компания приводит статистику Facebook, из которой видно, что иногда более 50% процессорных тактов серверы тратят на «обслуживание самих себя». Все эти такты могут быть пущены в дело, если за это обслуживание возьмётся IPU. Кроме того, новый класс сетевых ускорителей открывает дорогу к бездисковой серверной инфраструктуре: виртуальные диски создаются и обслуживаются также чипом IPU.

Первый чип в новом семействе IPU, получивший имя Mount Evans, создавался в сотрудничестве с крупными облачными провайдерами. Поэтому в нём широко используется кремний специального назначения (ASIC), обеспечивающий, однако, и нужную степень гибкости, За основу взяты ядра общего назначения Arm Neoverse N1 (до 16 шт.), дополненные тремя банками памяти LPDRR4 и различными ускорителями.

Сетевая часть представлена 200GbE-интерфейсом с выделенным P4-программируемым движком для обработки сетевых пакетов и управления QoS. Дополняет его выделенный IPSec-движок, способный на лету шифровать весь трафик без потери скорости. Естественно, есть поддержка RDMA (RoCEv2) и разгрузки NVMe-oF, причём отличительной чертой является возможность создавать для хоста виртуальные NVMe-накопители — всё благодаря контроллеру, который был позаимствован у Optane SSD.

Дополняют этот комплекс ускорители (де-)компресии и шифрования данных на лету. Они базируются на технологиях Intel QAT и, в частности, предложат поддержку современного алгоритма сжатия Zstandard. Наконец, у IPU будет выделенный блок для независимого внешнего управления. Работать с устройством можно будет посредством привычных SPDK и DPDK. Один IPU Mount Evans может обслуживать до четырёх процессоров. В целом, новинку можно назвать интересной и более доступной альтернативной AWS Nitro.

Также Intel представила платформу Oak Springs Canyon с двумя 100GbE-интерфейсами, которая сочетает процессоры Xeon-D и FPGA семейства Agilex. Каждому чипу которых полагается по 16 Гбайт собственной памяти DDR4. Платформа может использоваться для ускорения Open vSwitch и NVMe-oF с поддержкой RDMA/RocE, имеет аппаратные криптодвижки т.д. Наличие FPGA позволяет выполнять специфичные для конкретного заказчика задачи, но вместе с тем совместимость с x86 существенно упрощает разработку ПО для этой платформы. В дополнение к SPDK и DPDK доступны и инструменты OFS.

Наконец, компания показала и референсную плаформу для разработчиков Intel N6000 Acceleration Development Platform (Arrow Creek). Она несколько отличается от других IPU и относится скорее к SmartNIC, посколько сочетает FPGA Agilex, CPLD Max10 и сетевые контроллеры Intel Ethernet 800 (2 × 100GbE). Дополняет их аппаратный Root of Trust, а также PTP-блок.

Работать с устройством можно также с помощью DPDK и OFS, да и функциональность во многом совпадает с Oak Springs Canyon. Но это всё же платформа для разработки конечных решений ODM-партнёрами Intel, которые могут с её помощью имплементировать какие-то специфические протоколы или функции с ускорением на FPGA, например, SRv6 или Juniper Contrail.

IPU могут стать частью высокоинтегрированной ЦОД-платформы Intel, и на этом поле она будет соревноваться в первую очередь с NVIDIA, которая активно продвигает DPU BluefIeld, а вскоре обзаведётся ещё и собственным процессором. Из ближайших интересных анонсов, вероятно, стоит ждать поддержку Project Monterey, о которой уже заявили NVIDIA и Pensando.

Постоянный URL: http://servernews.ru/1047103
24.06.2021 [11:54], Владимир Агапов

BittWare представила FPGA-ускорители IA-420F и IA-220-U2 на базе Intel Agilex

Компания BitWare объявила о расширении серии ускорителей IA, основанных на программируемых матрицах Intel Agilex. Добавлено 2 новые модели: IA-420F (низкопрофильная PCIe-карта) и IA-220-U2 (U.2). Вместе с выпущенным ранее двухслотовым PCIe-ускорителем IA-840F, серия IA теперь охватывает 3 наиболее востребованных в ЦОД и сетевой инфраструктуре форм-фактора, что значительно повышает гибкость развёртывания.

Ускоритель IA-420F предназначен для использования в качестве SmartNIC и для вычислительных хранилищ (computational storage). Эта однослотовая HHHL-карта может быть установлена практически в любые серверные и периферийные устройства. В состав платы входят: микросхема FPGA Intel AGF 014 на 1,437 млн логических элементов, 2 Гбит загрузочной флеш-памяти, 2 банка DDR4 (до 16 ГБайт каждый), 8 линий GPIO. Для программирования и отладки на плату выведен порт USB, подключённый к набортному BMC.

Сетевой интерфейс представлен разъёмом QSFP-DD (200 Гбит/с), соединённым с FPGA через восемь 25G-трансиверов. Предусмотрена программируемые пользователем 10/25/40/100GbE-подключения, а также поддержка синхронизации с подавлением джиттера с внешним источником точного времени. FPGA напрямую подключена к линиям PCIe 4.0 x16. Максимальное энергопотребление составляет 75 Вт.

Модуль IA-220-U2 выполнен в форм-факторе U.2 (15 мм) и оптимизирован для работы с пассивным охлаждением — максимальное энергопотребление составляет 25 Вт. Он предназначен для рабочих нагрузок, связанных с NVMe СХД. Основной элемент платы — та же FPGA Intel AGF 014 с двумя банками памяти DRR4-2400 (до 8 ГБайт).

Кроме того, есть SMBus контроллер с поддержкой NVMe-MI 1.а, что позволяет легко обновлять ПО FPGA. Также есть выводы JTAG и GPIO. Ускоритель IA-220-U2 имеет интерфейс PCIe 4.0 x4 и может быть установлен в обычные 2U СХД. Его удобно использовать в платформах, где имеется избыток слотов U.2, но нет свободных слотов PCIe.

Благодаря использованию в обоих модулях ПЛИС Intel Agilex, пользователям доступен oneAPI — унифицированный набор средств разработки, который, по словам создателей, позволяет заказчикам быстро перейти от создания пробных образцов к массовому развёртыванию, успешно выполняя все требования по квалификации, проверке, управлению жизненным циклом и поддержкой. Впрочем, никто не мешает воспользоваться и Quartus Prime Pro.

Постоянный URL: http://servernews.ru/1042715
14.06.2021 [21:25], Владимир Мироненко

Intel анонсировала IPU, новый класс устройств для дата-центров будущего

Компания Intel в ходе саммита Six Five анонсировала IPU (Infrastructure Processing Unit), ещё одного представителя xPU в терминологии «синих». В данном случае — это программируемое сетевое устройство, разработанное c целью снизить накладные расходы и высвободить ресурсы CPU, перенеся задачи виртуализации хранилища и сети, управления безопасностью и изоляцией на выделенные аппаратные блоки в составе IPU.

Это позволит гиперскейлерам и облачным операторам перейти на полностью виртуализированные хранилище и сетевую архитектуру, сохранив при этом высокую производительность и предсказуемость работы, а также высокую степень контроля. IPU интеллектуально управляет ресурсами IT-инфраструктуры на системном уровне, позволяя гибко разворачивать и (пере-)конфигурировать рабочие нагрузки.

В условиях роста популярности микросервисных архитектур такой подход очень кстати — Intel приводит данные Google и Facebook — от 22 до 80 % циклов CPU может уходить только на коммуникацию между микросервисами, а не на выполнение полезной нагрузки. ЦОД нового поколения потребуется новая же интеллектуальная архитектура, в которой масштабные распределённые и разнородные вычислительные системы работают вместе и легко сочетаются, формируя единую платформу.

«IPU — это новый класс технологий, который является одним из стратегических столпов нашей облачной стратегии. Он расширяет возможности SmartNIC и предназначен для устранения сложности и неэффективности современного дата-центра . В Intel стремятся создавать решения и внедрять инновации вместе со своими клиентами и партнерами — IPU является примером такого сотрудничества», — заявил Гвидо Аппенцеллер (Guido Appenzeller), технический директор Intel Data Platforms Group.

Если всё это вам кажется знакомым, то в этом нет ничего удивительного. Аналогичные по задачам и подходу решения, именуемые DPU (Data Processing Unit), активно развивают NVIDIA, Fungible и другие вендоры. DPU объединяет в рамках одного устройства сетевой контроллер, ядра общего назначения, ускоритель (GPU, FPGA, ASIC), память и движки для ускорения отдельных операций. Но в данном случае гораздо важнее программная, а не аппаратная часть, так как современные SmartNIC по «железу» недалеки от DPU.

У Intel уже есть свои варианты IPU/DPU на базе Xeon D и FPGA. По словам компании, в результате сотрудничества с большинством гиперскейлеров она уже является лидером по объёму продаж на рынке IPU. Первая IPU-платформа Intel на базе FPGA развёрнута у нескольких поставщиков облачных услуг, а вариант IPU с ASIC находится на стадии тестирования. Свои IPU-решения Intel тестирует совместно с Microsoft Azure, Baidu, JD Cloud&AI и VMware.

«Еще до 2015 года Microsoft впервые использовала реконфигурируемые SmartNIC в Intel-серверах нескольких поколений для разгрузки и ускорения сетевого стека и стека хранения. SmartNIC позволяет нам высвободить ядра CPU, увеличить пропускную способность и количество IOPS для хранилищ, добавлять новые возможности после развёртывания и обеспечивать предсказуемую производительность для наших облачных клиентов. — говорит Эндрю Патнэм (Andrew Putnam) из Microsoft. — Intel с самого начала является нашим надёжным партнером, и мы рады видеть, что Intel продолжает продвигать чёткое отраслевое видение ЦОД будущего с IPU».

Однако нельзя не отметить, что гиперскейлеры — это отдельный особый рынок, на котором кастомные решения являются нормой. Насколько обычные операторы ЦОД и корпоративные заказчики будут готовы внедрять IPU, вопрос открытый. Больше подробностей о программных и аппаратных особенностях новинок Intel обещала предоставить в октябре.

Постоянный URL: http://servernews.ru/1041891
23.02.2021 [19:24], Сергей Карасёв

Xilinx представила 100GbE-адаптеры Alveo SN1000 с FPGA и 16-ядерным ARM CPU на борту

Компания Xilinx анонсировала «умные» сетевые адаптеры Alveo SN1000, рассчитанные на использование в современных центрах обработки данных с высокой нагрузкой. Пробные поставки изделий уже начались, а массовые продажи планируется организовать 31 марта.

Устройства относятся к решениям SmartNIC. Они позволяют перенести нагрузку с центральных процессоров серверов непосредственно на сетевые адаптеры, оптимизировав тем самым работу всей IT-инфраструктуры. Адаптеры Alveo SN1000 являются полностью программно-определяемыми и подходят для создания компонуемой инфраструктуры.

В их основу положена 16-нм FPGA XCU26 серии UltraScale+, дополненная SoC от NXP с 16 ядрами ARM Cortex-A72 (2 ГГц, 8 Мбайт кеш). Процессору выделен один, а FPGA — два 4-Гбайт модуля памяти DDR4-2400. Первенец семейства, адаптер SN1022, выполнен в виде FHHL-карты с интерфейсом PCIe 3.0 x16 / PCIe 4.0 x8 и двумя 100GbE-портами QSFP28.

Для набортной SoC заявлена совместимость с Ubuntu и Yocto Linux. В качестве основного хранилища есть 16-Гбайт NAND-модуль eMMC, а для загрузчика — NOR-чип ёмкостью 64 Мбайт. Среди совместимых ОС для хоста указаны RHEL, CentOS и Ubuntu.

Фактически в состав адаптера входят и control plane, и data plane. Поддерживается аппаратная разгрузка virtio-net, а также ускорение работы Intel DPDK и Onload TCPDirect, Open Virtual Switch, Ceph RDB, IPSec и так далее. Часть функциональности перешла по наследству от SolarFlare, но Xilinx пошла дальше и открыла доступ к готовым IP-решениям в магазине App Store.

В магазине пока нет готовых решений для SN1000, но для этой серии доступна платформа разработки Xilinx Vitis. Более подробную информацию о новинках можно найти здесь. Вместе с новыми SmartNIC и магазином компания также представила платформы Smart World и Accelerated Algorithmic Trading (ATT). Первая предназначена для ИИ-видеоаналитики в режиме реального времени, а вторая, как нетрудно догадаться, для высокочастотного трейдинга (HFT).

Постоянный URL: http://servernews.ru/1033338
18.11.2020 [12:18], Андрей Галадей

VMware перенесёт файрволы на SmartNIC и DPU для разгрузки CPU

Компания VMware сообщила, что её системы виртуализации будут использоваться в сетевых адаптерах SmartNIC и DPU. Это позволит снизить нагрузку на центральные процессоры серверов.

Адаптеры SmartNIC и DPU оснащены сопроцессорами для обратки данных, так что вполне логично задействовать их для виртуализации. Впервые VMware объявила об этом в сентябре 2020 года. Идея состоит в том, чтобы использовать эти мощности для управления хранилищем и виртуальными сетями, а также для выполнения некоторых функций безопасности. С этой целью VMware портировала свой флагманский гипервизор ESXi на архитектуру Arm, поскольку на ней базируются системы-на-чипе с таких адаптерах.

В компании отметили, что межсетевой экран NSX Services-Defined Firewall теперь будет работать на SmartNIC и предоставлять L4 SPI-файрвол. Кроме того, было заявлено, что те же адаптеры смогут запускать межсетевой экран L7. Всё это позволит ускорить работу серверов и повысить защищённость. Ведь в традиционных сценариях эту нагрузку берёт на себя CPU. Помимо этого, такой подход позволяет создавать шифрованные каналы для работы удалённых сотрудников, не опасаясь перехвата инофрмации.

Отметим, что компания VMware предлагает создавать новые сети, в которой системы сами определяют, какие приложения нужны, и самостоятельно настраиваются соответствующим образом. Проще говоря, речь идёт о распределённых защитных системах. ARM-версия гипервизора ESXi и сетевого экрана NSX Services-Defined Firewall — первые шаги к этому.

Постоянный URL: http://servernews.ru/1025651
16.10.2020 [23:17], Юрий Поздеев

DPU в стиле Intel: сетевые адаптеры с Xeon D, FPGA, HBM и SSD

Мир сетевых карт становится умнее. Это следующий шаг в дезагрегации ресурсов центров обработки данных. Наличие расширенных возможностей сетевых карт позволяет разгрузить центральный процессор, при этом специализированные сетевые адаптеры обеспечивают более совершенные функции и безопасность. В этой новости мы познакомим вас сразу с двумя адаптерами: Silicom SmartNIC N5010 и Inventec SmartNIC C5020X.

Silicom FPGA SmartNIC N5010 предназначена для систем крупных коммуникационных провайдеров. Операторы все чаще стремятся заменить проприетарные форм-факторы от поставщиков телекоммуникационного оборудования на более стандартные варианты. В рамках этого мы видим, что производители ПЛИС не прочи освоить и эту нишу.

В Silicom FPGA SmartNIC N5010 используется Intel Stratix 10 DX с 8 Гбайт памяти HBM. Поскольку пропускная способность памяти становится все большим аспектом производительности системы, HBM будет продолжать распространяться за пределы графических процессоров и FPGA. В SmartNIC и DPU память HBM может использоваться для размещения индексных таблиц поиска и других функций для интенсивных сетевых нагрузок. Помимо HBM SmartNIC N5010 имеет еще 32 Гбайт памяти DDR4 ECC.  SmartNIC N5010 потребляет до 225 Вт, что предполагает несколько вариантов исполнения карты, в том числе и с активным охлаждением.

Самая интересная особенность новой карты — 4 сетевых порта по 100 Гбит/с. На плате SmartNIC N5010 установлены две базовые сетевые карты Intel E810 (Columbiaville). На приведенной схеме можно заметить, что используется интерфейс PCIe Gen4 x16, причем их тут сразу два. Для работы четырех 100GbE-портов уже недостаточно одного интерфейса PCIe 4.0 x16. Второй порт PCIe 4.0 x16 может быть подключен через дополнительный кабель к линиям второго процессора, чтобы избежать межпроцессорного взаимодействия для передачи данных.

Вторая новинка, Inventec FPGA SmartNIC C5020X, совмещает на одной плате процессор Intel Xeon D и FPGA Intel Stratix 10. Этот адаптер предназначен для разгрузки центрального процессора в серверах крупных облачных провайдеров. На плате установлен процессор Intel Xeon D-1612 с 32-Гбайт SSD и 16 Гбайт DDR4, подключение к ПЛИС Intel Stratix 10 DX 1100 осуществляется через PCIe 3.0 x8. Нужно отметить, что FPGA Stratix имеет свои собственные 16 Гбайт памяти DDR4, а также обеспечивает сетевые подключения 25/50 Гбит/с и оснащен интерфейсом PCIe 4.0 x8, через который адаптер подключается к хосту.

У Inventec уже есть решение на базе Arm (Inventec X250), которое использует ПЛИС Arria 10 GX660 вместе с сетевым адаптером Broadcom Stingray BCM8804, которое имеет аналогичный форм-фактор и TPD не более 75 Вт. Однако для некоторых организаций наличие единой x86 платформы, включая SmartNIC, упрощает развертывание, поэтому вариант C5020X для таких компаний более предпочтителен.

Решение получилось очень интересным, однако вряд ли его можно назвать адаптером для массового рынка, как Intel Columbiaville. На примере этого адаптера Intel показала, что может объединить элементы своего портфеля для создания комплексных решений. Inventec FPGA SmartNIC C5020X является хорошей альтернативой предложению на базе Broadcom, что позволит крупным облачным провайдерам диверсифицировать свои платформы.

Несмотря на то, что обе новинки классифицируются как «умные» сетевые адаптеры SmartNIC, вторая, пожалуй, уже ближе к DPU, если сравнивать её с адаптерами NVIDIA DPU, в которых сетевая часть дополнена Arm-процессором и GPU-ускорителем. В данном случае есть и x86-ядра общего назначения, и ускоритель, хотя и на базе ПЛИС. Впрочем, устоявшегося определения DPU и списка критериев соответствия этому классу процессоров пока нет.

Постоянный URL: http://servernews.ru/1023157
29.09.2020 [19:57], Алексей Степин

VMware возложит часть нагрузки vSphere на DPU и SmartNIC

Когда-то архитектура x86 была очень простой, хотя её CISC-основа и была сложнее пути, по которому пошли процессоры RISC. Но за всё время своей эволюции она постоянно усложнялась и на процессоры возлагались всё новые и новые задачи, требующие дополнительных расширений, а то и перекладывались задачи с плеч специализированных чипов. Эта тенденция сохраняется и поныне, однако один из лидеров в мире виртуализации, компания VMware, имеет иное видение.

Сложность приложений и сценариев растёт, x86 может не успевать за возрастающей нагрузкой

Сложность приложений и сценариев растёт, x86 может не успевать за возрастающей нагрузкой

Перекладывание на x86 несвойственных этой архитектуре задач началось с внедрения расширений MMX. Сегодня современные серверные процессоры умеют практически всё и продолжают усложняться — достаточно вспомнить Intel VNNI, подмножество AVX-512, ускоряющее работу с всё более популярными задачами машинного обучения. Однако VMware считает, что x86 не успевает за усложнением программного обеспечения и полагает, что будущее ЦОД лежит в дезагрегации вычислительных ресурсов.

С учётом того, что задачи перед серверами и ЦОД встают всё более и более сложные, неудивительно, что наблюдается расцвет всевозможных ускорителей и сопроцессоров, от умных сетевых адаптеров и уже ставших привычными ГП-ускорителей до относительно экзотических идей, вроде «процессора обработки данных» (DPU). Последнюю концепцию на конференции VMworld 2020 поддержал такой гигант в сфере виртуализации, как VMware.

Но ряд задач можно переложить на плечи ускорителей типа SmartNIC или DPU

Но ряд задач можно переложить на плечи ускорителей типа SmartNIC или DPU

Переработкой своей основной платформы виртуализации vSphere компания занимается уже давно, и в проекте прошлого года под кодовым названием Pacific переработано было многое. В частности, в основу системы управления была окончательно положена контейнерная модель на базе коммерческой системы для Kubernetes под названием Tanzu. Проект этого года, получивший имя Monterey, ознаменовал дальнейшее движение в этом направлении.

Теперь Kubernetes стал не дополнением, пусть и включенным изначально, но единственным движком для управления как виртуальными машинами первого поколения, так и более современными контейнерами. Но из этого следует дальнейшее повышение вычислительной нагрузки на серверы.

Новая версия платформы vSphere проще, но она эффективнее использует имеющиеся вычислительные ресурсы

Новая версия платформы vSphere проще, но она эффективнее использует имеющиеся вычислительные ресурсы

В частности, как отмечает VMware, обработка данных ввода-вывода становится всё сложнее. Как мы уже знаем, это привело к зарождению таких устройств, как «умные сетевые адаптеры» (SmartNIC) и даже специализированных чипов DPU. Как первые, так и вторые, как правило, содержат ядра на базе архитектуры ARM, и именно их-то и предлагает использовать для разгрузки основных процессоров VMware. Информация о том, что компания работает над переносом гипервизора ESXi на архитектуру ARM официально подтвердилась.

Важной частью ESXi, как известно, является виртуализация сетевой части — «коммутаторов» и «микро-файрволлов», и в Project Monterey появилась возможность запускать сетевую часть ESXi полностью на ресурсах DPU или SmartNIC, благо современные ускорители этих классов имеют весьма солидную производительность, а иногда и превосходят в этом плане классические центральные процессоры.

Новое видение кластера по версии VMware: каждый процессор и сопроцессор занят своим делом

Новое видение кластера по версии VMware: каждый процессор и сопроцессор занят своим делом

Сама идея ускорения сетевой части, в частности, задач обеспечения сетевой безопасности в серверах за счёт SmartNIC не нова. Новизна подхода VMware заключается в другом: теперь реализация ESXi-on-ARM позволит не просто снять нагрузку в этих сценариях с плеч основных процессоров, но и представить за счёт виртуализации все сетевые ресурсы безопасно, в виде единого унифицированного пула и вне зависимости от типа процессоров, занятых в этих задачах. Среди уже существующих на рынке устройств, совместимых с новой концепцией VMware числятся, к примеру, и NVIDIA BlueField-2 — «умный сетевой адаптер», разработанный Mellanox — и решения Intel.

Как считает VMware, такой подход кардинально изменит архитектуру и экономику ЦОД нового поколения. На это есть основания, ведь если объединить пару 64-ядерных процессоров AMD EPYC второго поколения с сетевым ускорителем или DPU, работающим под управлением ESXi в составе единой платформы vSphere, то эту систему можно будет с полным правом назвать «ЦОД в коробке». Такое сочетание позволит запускать множество виртуальных машин с достаточным уровнем производительности, ведь основным x86-процессорам не придётся вывозить на себе виртуализацию сети, функционирование файрволлов и задачи класса data storage.

Демонстрация ESXi-on-ARM выглядит скромно, но это только начало

Демонстрация ESXi-on-ARM выглядит скромно, но это только начало

Пока Project Monterey имеет статус «технологического демо», но сама идея дизагрегации серверов, над которой продолжает работу VMware, выглядит логичной и законченной. Каждый процессор будет выполнять ту задачу, к которой он лучше всего приспособлен, но за счёт единой системы виртуализации платформа не будет выглядеть сегментировано, и разработка ПО не усложнится. Кроме того, VMware уже подтвердила возможность запуска на SmartNIC и DPU приложений сторонних разработчиков, так что лёд явно тронулся.

Постоянный URL: http://servernews.ru/1021812
27.05.2020 [20:54], Алексей Степин

Новая ПЛИС Xilinx Virtex UltraScale+ оптимизирована для сетей и СХД

С момента своего появления программируемые логические схемы проделали большой путь. В конце прошлого года рекорд Xilinx, составивший 9 млн. логических ячеек был побит Intel, представившей Stratix 10 GX 10M с 10 миллионами ячеек.

Сейчас один из самых известных разработчиков ПЛИС в мире подтверждает звание лидера, анонсируя новую микросхему в серии Virtex UltraScale+ — VU23P.

Предыдущая модель, Virtex UltraScale+ VU19P, представляла собой высокопроизводительную ПЛИС общего назначения, предназначенную для разработки и прототипирования однокристальных платформ и чипов ASIC. Новая VU23P более специализирована: компания-разработчик нацелила её на использование в производительных сетевых решениях, а также для ускорения крупных систем хранения данных. Специально оговаривается тот факт, что по соотношению LUT и DSP-ячеек новинка уступает VU19P, но превосходит остальные ПЛИС в серии UltraScale+.

Зато коммуникационные возможности у VU32P развиты великолепно: в ней реализованы новейшие PAM4-трансиверы со скоростью 58 Гбит/с, поддержка шины PCI Express 4.0 и интегрированный MAC-контроллер класса 100G; конфигурация в качестве «умного» сетевого процессора допускает использование скоростей 200 Гбит/с. Всё это довольно компактно упаковано: размер кристалла не превышает 35 × 35 мм.

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Комплект разработчика на базе старшей ПЛИС с PAM4-трансиверами класса 58G, VU29P

Virtex UltraScale+ VU23P ориентирована не только на работу в качестве сетевого ускорителя. Она с тем же успехом может выполнять и роль акселератора в масштабных сетевых системах хранения данных. Для этого в ней реализована полноценная поддержка технологии NVMe over Fabrics, ведь уже очевидно, что протокол NVMe одержал победу в сфере накопителей и именно за ним будущее.

В VU23P поддерживается ряд сценариев ускорения, востребованных в таких системах: сжатие и декомпрессия данных, их дедупликация, выстраивание очередей (sequencer functionality) и других. Также новинка найдёт своё место в конвергентных сетях, поскольку может работать в качестве шлюза, позволяющего объединять все используемые в такой сети службы в едином интерфейсе без потери производительности.

Информацию о новинке можно найти на веб-сайте компании-разработчика. Там же имеется обзор архитектуры UltraScale в целом и руководство по выбору наиболее подходящей под ваши задачи ПЛИС.

Постоянный URL: http://servernews.ru/1012016
14.05.2020 [19:35], Алексей Степин

NVIDIA представила «умный» сетевой 25GbE-контроллер Mellanox ConnectX-6 Lx

Помимо ускорителей NVIDIA A100 и систем одноимённых систем DGX на их основе компания сегодня официально представила новую разработку принадлежащей ей Mellanox — «умный» сетевой контроллер ConnectX-6 Lx, дополняющий анонсированный в конце февраля ConnectX-6 Dx.

По аналогии с серией ConnectX-4 новый процессор с суффиксом Lx представляет собой несколько упрощённый вариант старшей модели. Если ConnectX-6 Dx рассчитан на работу в сетях со скоростями 100 и 200 Гбит/с, то ConnectX-6 Lx ориентирован на сети 25/50GbE.

Популярность сетей класса 25GbE в последнее время серьёзно растёт, поскольку растут и нагрузки в различных сценариях, от бизнес-приложений и организации удалённых рабочих мест до задач машинного интеллекта и аналитики реального времени. Именно ответом на этот запрос рынка и является анонсConnectX-6 Lx : это основа массовых и доступных по цене, но при этом достаточно производительных, сетевых адаптеров.

Технически чипы ConnectX-6 Lx относится к 11 поколению сетевых процессоров Mellanox и могут обслуживать либо один порт 50GbE, либо два порта 25GbE. В качестве системного интерфейса используется 8 линий PCIe 3.0/4.0. Имеется аппаратная реализация RDMA, латентность не превышает 0,8 мкс. Также поддерживаются технологии NVMe over Fabrics и GPUDirect.

Уделено серьёзное внимание вопросам безопасности: в чипе аппаратно реализован блок Root of Trust и ускоритель шифрования IPSec, а также функция Stateful Packet Inspection, полезная для организации коммутации. ConnectX-6 Lx поддерживает аппаратное ускорение обработки и коммутации пакетов ASAP2 и технологии SR-IOV/VirtIO для работы в виртуализованных и контейнерных средах.

В настоящее время образцы ConnectX-6 Lx уже доступны, массовые поставки должны начаться в третьем квартале текущего года. На базе нового процессора будут выпускаться сетевые адаптеры в различных форм-факторах, включая низкопрофильный PCIe и OCP 3.0 с интерфейсами SFP28 или QSFP28.

Постоянный URL: http://servernews.ru/1010954
Система Orphus