Материалы по тегу: smartnic
12.03.2023 [14:18], Владимир Мироненко
100GbE и выше: рост популярности ИИ-ботов подстегнёт продажи SmartNIC/DPUРастущая популярность генеративного ИИ и поддержка интеллектуальных функций платформами виртуализации, такими как VMware vSphere, будут способствовать росту продаж боле скоростных сетевых адаптеров Ethernet, считают в аналитической фирме Dell'Oro Group. Согласно прогнозу Dell'Oro Group, к концу 2023 года сетевые адаптеры Ethernet со скоростью 100 Гбит/с или выше будут приносить почти половину всех доходов в этом сегменте, даже несмотря на то, что их доля в продажах сетевых карт составляет менее 20 %. Аналитики утверждают, что бум машинного обучения, отчасти вызванный ажиотажем вокруг ChatGPT, Midjourney и других моделей генеративного ИИ, будет стимулировать спрос на оборудование, обеспечивающее более быструю работу сети. По словам аналитика, поскольку рабочие нагрузки AI/ML часто распределяются между несколькими узлами или даже между несколькими стойками, для них обычно требуется более высокая пропускная способность. Например, ИИ/HPC-платформа NVIDIA DGX H100 оснащена восемью 400G-адаптерами, по одному на каждый из её ускорителей H100. ![]() Источник изображения: NVIDIA Ожидается, что в этом году SmartNIC будут применяться в большем количестве решений благодаря более широкому распространению программных платформ, способных использовать их преимущества. «Я думаю, что в этом году мы можем получить больше поддержки DPU и SmartNIC. Проекты вроде Project Monterey приносят много преимуществ», — отмечают в Dell'Oro Group. Dell'Oro прогнозирует, что в 2023 году выручка на рынке NIC достигнет двузначного роста, несмотря ожидаемое сокращение поставок на 9 % в годовом исчислении. По словам аналитиков, из-за снижения спроса провайдеры отдают предпочтение оборудованию более высокого класса с более скоростными интерфейсами на 100GbE, 200GbE или даже 400GbE и соответствующей функциональностью, которая обеспечивает более высокую среднюю цену. При этом у дорогих NIC стоимость обработки бита, как правило, ниже. Это означает, что сервер с поддержкой более высокой скорости передачи данных может оказаться дешевле нескольких серверов с установленными более дешёвыми и соответственно более медленными NIC. Аппаратное ускорение в SmartNIC также может позволить клиентам обойтись процессорами более низкого уровня, поскольку в этом случае часть задач адаптер забирает у CPU. Кроме того, поскольку большинство компаний покупают NIC в составе более крупной системы, они могут получить дополнительную экономию в виде скидки если не на сетевую карту, то на DRAM или SSD/HDD.
14.08.2022 [14:50], Владимир Мироненко
SmartNIC будут драйверами роста рынка Ethernet-адаптеров в ближайшие годыСогласно данным исследовательского центра Dell'Oro, SmartNIC будут одним из драйверов роста рынка Ethernet-адаптеров, объём которого, по его прогнозу, достигнет к 2026 году $5 млрд. Скорость подключения продолжит расти и на порты с поддержкой скорости 100 Гбит/с и выше будет приходиться почти половина поставок. В отчёте Dell'Oro «Ethernet Adapter & Smart NIC 5-Year Forecast» за июль 2022 года сообщается, что на SmartNIC будет приходиться растущая доля рынка Ethernet-адаптеров, особенно это относится к гиперескейлерам и сегменту высокопроизводительных приложений. По словам директора по исследованиям Dell'Oro Барона Фунга (Baron Fung), к 2026 году доля SmartNIC составит 38 % всего рынка контроллеров и адаптеров Ethernet. «SmartNIC заменят традиционные сетевые адаптеры для большей части облачной инфраструктуры гиперскейлеров для задач общего назначения и высокопроизводительных рабочих нагрузок», — сказал Фунг, отметив также перспективность использования SmartNIC облачными провайдерами второго эшелона, в корпоративных ЦОД и на телекоммуникационном рынке. SmartNIC позволяют разгрузить хост-систему, переложив на них часть задач, однако они всё ещё дороги, а сети на их основе сложны в реализации. Доходы от продаж SmartNIC, по прогнозам Dell'Oro, будут расти в течение ближайших пяти лет со среднегодовым темпом роста (CAGR) в 21 %, в то время как для традиционных сетевых адаптеров этот показатель составит 5 %. В Dell'Oro также ожидают, что стоимость высокоскоростных портов будет снижаться, поэтому пять лет около 44 % поставок будут приходиться на порты 100GbE+. Так, в США в течение следующих пяти лет в инфраструктуре основных гиперскейлеров — Amazon, Google, Meta* и Microsoft — будут преобладать порты 100GbE и 200GbE. * Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».
10.06.2022 [23:31], Алексей Степин
Решения Xilinx и Pensando помогут AMD завоевать рынок ЦОДО грядущих серверных APU MI300, сочетающих архитектуры Zen 4 и CDNA 3, и сразу нескольких сериях процессоров EPYC мы уже рассказали, но на мероприятии Financial Analyst Day 2022 компания поделилась и другими планами относительно серверного рынка, которые весьма обширны. Они включают в себя использование разработок и технологий Xilinx и Pensando. Фактически AMD теперь владеет полным портфолио аппаратных решений для ЦОД и рынка HPC: процессорами EPYC, ускорителями Instinct, SmartNIC и DPU на базе чипов Xilinx и Pensando и, наконец, FPGA всё той же Xilinx. Долгосрочные перспективы рынка ЦОД AMD оценивает в $125 млрд, из них на долю ускорителей приходится $64 млрд, а классические процессоры занимают лишь второе место с $42 млрд; остальное приходится на DPU, SmartNIC и FPGA. Теперь у AMD есть полный спектр «умных» сетевых решений практически для любой задачи, включая сценарии, требующие сверхнизкой латентности. Эту роль берут на себя адаптеры Solarflare. Более универсальные ускорители Xilix Alveo обеспечат поддержку кастомных сетевых функций и блоков ускорения, а также высокую производительность обработки пакетов. Ускорители могут быть перепрограммированы, что потенциально позволит существенно оптимизировать затраты на сетевую инфраструктуру крупных ЦОД. Гиперскейлерам они уже поставляются, в текущем виде они имеют до двух 200GbE-портов и совокупную скорость обработки до 400 млн пакетов в секунду. Следующее поколение должно увидеть свет в 2024 году, здесь AMD придерживается двухгодичного цикла. Выпускается и 7-нм DPU Pensando Elba, также предоставляющий пару 200GbE-портов. В отличие от Alveo, это более узкоспециализированное устройство, содержащее 144 P4-программируемых пакетных движка. Помимо них имеются выделенные аппаратные движки ускорения криптографии и сжатия/декомпрессии данных. Уникальный программно-аппаратный стек Pensando, унаследованный AMD, обеспечивает ряд интересных возможностей, востребованных в крупных системах виртуализации на базе ПО VMware — например, полноценную поддержку виртуализации NVMe, поддержку NVMe-oF/RDMA, в том числе и NVMe/TCP, а также полноценное шифрование и туннели IPSec на полной линейной скорости 100 Гбит/с с временем отклика 3 мкс и джиттером в районе 35 нс. Разработки Pensando уже используются такими крупными поставщиками сетевого оборудования и СХД, как Aruba (коммутаторы с DPU) и NetApp (системы хранения данных). Таким образом, AMD вполне вправе говорить о том, что современный высокопроизводительный ЦОД может быть целиком построен на базе технологий компании, от процессоров и ускорителей до интерконнекта и специфических акселераторов. Поддержка доверенных вычислений, включая полное шифрование содержимого памяти делает такие ЦОД и более безопасными, что немаловажно в современном мире, полном кибер-угроз. В том же направлении движутся NVIDIA BlueField и Intel IPU, а также целый ряд других игроков.
24.02.2022 [23:58], Алексей Степин
MikroTik CCR2004-1G-2XS-PCIe — маршрутизатор в форм-факторе PCIe-платыИдеи о конвергенции и дезагрегации, занявшие сейчас ключевое место в концепции современных инфотехнологий, продолжают порождать новые интересные продукты и решения. Компания MikroTik представила новый маршрутизатор CCR2004-1G-2XS-PCIe, выполненный в форм-факторе обычной низкопрофильной платы расширения с интерфейсом PCIe 3.0 x8 и парой корзин для модулей SFP28 (до 25 Гбит/с). В основе лежит процессор Annapurna Labs (сейчас принадлежит Amazon) AL32400, имеющий четыре ядра с архитектурой Arm Cortex-A57 с номинальной частотой 1,5 ГГц. Он дополнен банком оперативной памяти DDR4 объёмом 4 Гбайт, для хранения прошивки и конфигурации используется NAND объёмом 128 Мбайт. ![]() Возможности конфигурации портов у новинки довольно гибкие: можно настроить до четырёх виртуальных интерфейсов Ethernet, причём два из них могут работать в режиме прямого проброса к SFP28. Отдельный 1GbE-порт (RJ-45) предназначен для удалённого управления, но и он может иметь выход на PCIe. ![]() По сути, это вариация на тему уже имеющихся в арсенале компании бюджетных маршрутизаторов на базе такого же процессора (например, CCR2004-1G-12S+2XS), просто выполнена она в необычном для такого рода устройств форм-факторе, позволяющем сэкономить лишний юнит в серверной стойке. ![]() Во всём, кроме поддержки PCI Express, это привычный маршрутизатор MikroTik, работающий под управлением фирменной RouterOS v7 со всеми присущими ей возможностями и особенностями. Правда, следует учитывать, что на инициализацию «железа» и загрузку ПО уходить больше времени, чем у других PCIe-устройств.
10.02.2022 [23:14], Алексей Степин
CESNET и Reflex CES представили свой первый 400GbE-адаптер с PCIe 5.0 и CXLCESNET, альянс чешских университетов и национальной академии наук, поставил перед собой задачу разработать высокоскоростные адаптеры для использования в современных СХД и HPC-системах. Совместно с французской компанией Reflex CES, специализирующейся на разработке FPGA-решений, они представили первый европейский SmartNIC XpressSX AGI-FH400G класса 400GbE. И это первое аппаратное решение в рамках проекта Liberouter, цель которого — создание высокоскоростных сетевых платформ на базе ПЛИС. ![]() Изображения: www.reflexces.com Новый адаптер интересен тем, что он является одной из пока немногих карт расширения, поддерживающих PCIe 5.0 и CXL. В его основе лежит мощная ПЛИС Intel серии Agilex I-Series c 2,7 млн логических элементов, 8,5 тыс блоков DSP и 260 Мбит быстрой памяти на кристалле. Дополнительно она имеет собственный четырёхъядерный процессор Arm Cortex-A53. ![]() Блок-схема XpressSX AGI-FH400G В качестве основного интерфейса используется стандартный разъём PCIe 5.0 x16, но на плате установлено ещё две пары HSI-коннекторов для подключений PCIe 5.0 и CXL. Подсистема памяти представлена тремя независимыми банками: 4 Гбайт DDR4-2666 на борту (общей для CPU и FPGA) + два слота SO-DIMM для 32-Гбайт модулей. ![]() Программно-аппаратная архитектура Liberouter NDK Как уже было сказано, целью проекта было создание современного сетевого ускорителя, способного с минимальными задержками обрабатывать данные на скорости 400 Гбит/с, и разработчикам удалось создать базовый набор ядер для ПЛИС с поддержкой DMA. ![]() Новый ускоритель XpressSX AGI-FH400G имеет двухслотовый форм-фактор В комплект поставки входят все необходимые средства разработки, включая набор IP-блоков, скрипты для синтеза конечного дизайна ускорителя, драйверы и программный стек для Linux с поддержкой DPDK, а также пользовательские библиотеки и инструментарий для настройки компонентов. Программно архитектура новинки полностью модульная и масштабируемая, что позволит создавать на её основе гибкие и высокопроизводительные сетевые решения класса 400GbE, и не только их.
02.02.2022 [21:53], Алексей Степин
Check Point представила межсетевые экраны Quantum LightspeedИзвестный разработчик решений в области информационной безопасности, компания Check Point Software, на днях представил новую серию устройств Quantum Lightspeed, которые, по словам создателей, установили новый стандарт производительности для брандмауэров. Благодаря использованию контроллеров ConnectX от NVIDIA/Mellanox в серии Quantum Lightspeed удалось добиться обработки трафика на скорости до 3 Тбит/с и при задержке, не превышающей 3 мкс. Впрочем, в задачах NGFW или IPS показатели производительности новинок ожидаемо значительно скромнее. ![]() Изображения: Check Point Software Новые решения Quantum Lightspeed представляют наибольший интерес для крупных предприятий, дата-центров, ритейла, финансовых организаций и прочих компаний, которым требуется и высокая пропускная способность, и низкая задержка. Сейчас в серии Quantum Lightspeed есть четыре базовые модели (число в названии указывает на пропускную способность в Гбит/с):
![]() Также в серию входят два оркестратора Maestro Lightspeed MLS200 и MLS400, предназначенных специально для построения масштабируемых комплексов. Блоки MLS, выступающие в качестве «сердца» такой системы и работающие в том числе в режиме Active-Active, могут быть дополнены модулями расширения, что и даёт суммарную пропускную способность до 3 Тбит/с. ![]() Подобные показатели, как уже отмечалось, во многом достигнуты благодаря использованию возможностей ConnectX. В схеме, реализованной Check Point, лишь первый пакет в каждом соединении проверяется силами CPU на соответствие политикам безопасности (в докладе говорится о связке IP-адрес+порт). Если проверка пройдена, то далее обработка трафика в обоих направлениях до закрытия соединения или сессии ложится на плечи ConneсtX. Идея, в целом, не нова. Кроме того, шлюз занимается SPI, поддерживает NAT и может обрабатывать трафик VXLAN/GRE. Компания отдельно отмечает, что новинки хорошо подходят и для нагрузок с длительной передачей большого объёма трафика в рамках одной сессии, становящихся всё более актуальными. Впрочем, нельзя не отметить, что NVIDIA сотрудничает и с другими игроками в этой области, например, Palo Alto Networks.
19.08.2021 [18:04], Алексей Степин
Intel представила IPU Mount Evans и Oak Springs Canyon, а также ODM-платформу N6000 Arrow CreekВесной Intel анонсировала свои первые DPU (Data Processing Unit), которые она предпочитает называть IPU (Infrastructure Processing Unit), утверждая, что такое именования является более корректным. Впрочем, цели у этого класса устройств, как их не называй, одинаковые — перенос части функций CPU по обслуживанию ряда подсистем на выделенные аппаратные блоки и ускорители. Классическая архитектура серверных систем такова, что при работе с сетью, хранилищем, безопасностью значительная часть нагрузки ложится на плечи центральных процессоров. Это далеко не всегда приемлемо — такая нагрузка может отъедать существенную часть ресурсов CPU, которые могли бы быть использованы более рационально, особенно в современных средах с активным использованием виртуализации, контейнеризации и микросервисов. Для решения этой проблемы и были созданы DPU, которые эволюционировали из SmartNIC, бравших на себя «тяжёлые» задачи по обработке трафика и данных. DPU имеют на борту солидный пул вычислительных возможностей, что позволяет на некоторых из них запускать даже гипервизор. Однако Intel IPU имеют свои особенности, отличающие их и от SmartNIC, и от виденных ранее DPU. Новый класс сопроцессоров Intel должен взять на себя все заботы по обслуживанию инфраструктуры во всех её проявлениях, будь то работа с сетью, с подсистемами хранения данных или удалённое управление. При этом и DPU, и IPU в отличие от SmartNIC полностью независим от хост-системы. Полное разделение инфраструктуры и гостевых задач обеспечивает дополнительную прослойку безопасности, поскольку аппаратный Root of Trust включён в IPU. Это не единственное преимущество нового подхода. Компания приводит статистику Facebook*, из которой видно, что иногда более 50% процессорных тактов серверы тратят на «обслуживание самих себя». Все эти такты могут быть пущены в дело, если за это обслуживание возьмётся IPU. Кроме того, новый класс сетевых ускорителей открывает дорогу к бездисковой серверной инфраструктуре: виртуальные диски создаются и обслуживаются также чипом IPU. Первый чип в новом семействе IPU, получивший имя Mount Evans, создавался в сотрудничестве с крупными облачными провайдерами. Поэтому в нём широко используется кремний специального назначения (ASIC), обеспечивающий, однако, и нужную степень гибкости, За основу взяты ядра общего назначения Arm Neoverse N1 (до 16 шт.), дополненные тремя банками памяти LPDRR4 и различными ускорителями. Сетевая часть представлена 200GbE-интерфейсом с выделенным P4-программируемым движком для обработки сетевых пакетов и управления QoS. Дополняет его выделенный IPSec-движок, способный на лету шифровать весь трафик без потери скорости. Естественно, есть поддержка RDMA (RoCEv2) и разгрузки NVMe-oF, причём отличительной чертой является возможность создавать для хоста виртуальные NVMe-накопители — всё благодаря контроллеру, который был позаимствован у Optane SSD. Дополняют этот комплекс ускорители (де-)компресии и шифрования данных на лету. Они базируются на технологиях Intel QAT и, в частности, предложат поддержку современного алгоритма сжатия Zstandard. Наконец, у IPU будет выделенный блок для независимого внешнего управления. Работать с устройством можно будет посредством привычных SPDK и DPDK. Один IPU Mount Evans может обслуживать до четырёх процессоров. В целом, новинку можно назвать интересной и более доступной альтернативной AWS Nitro. Также Intel представила платформу Oak Springs Canyon с двумя 100GbE-интерфейсами, которая сочетает процессоры Xeon-D и FPGA семейства Agilex. Каждому чипу которых полагается по 16 Гбайт собственной памяти DDR4. Платформа может использоваться для ускорения Open vSwitch и NVMe-oF с поддержкой RDMA/RocE, имеет аппаратные криптодвижки т.д. Наличие FPGA позволяет выполнять специфичные для конкретного заказчика задачи, но вместе с тем совместимость с x86 существенно упрощает разработку ПО для этой платформы. В дополнение к SPDK и DPDK доступны и инструменты OFS. Наконец, компания показала и референсную плаформу для разработчиков Intel N6000 Acceleration Development Platform (Arrow Creek). Она несколько отличается от других IPU и относится скорее к SmartNIC, посколько сочетает FPGA Agilex, CPLD Max10 и сетевые контроллеры Intel Ethernet 800 (2 × 100GbE). Дополняет их аппаратный Root of Trust, а также PTP-блок. Работать с устройством можно также с помощью DPDK и OFS, да и функциональность во многом совпадает с Oak Springs Canyon. Но это всё же платформа для разработки конечных решений ODM-партнёрами Intel, которые могут с её помощью имплементировать какие-то специфические протоколы или функции с ускорением на FPGA, например, SRv6 или Juniper Contrail. IPU могут стать частью высокоинтегрированной ЦОД-платформы Intel, и на этом поле она будет соревноваться в первую очередь с NVIDIA, которая активно продвигает DPU BluefIeld, а вскоре обзаведётся ещё и собственным процессором. Из ближайших интересных анонсов, вероятно, стоит ждать поддержку Project Monterey, о которой уже заявили NVIDIA и Pensando. * Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».
24.06.2021 [11:54], Владимир Агапов
BittWare представила FPGA-ускорители IA-420F и IA-220-U2 на базе Intel AgilexКомпания BitWare объявила о расширении серии ускорителей IA, основанных на программируемых матрицах Intel Agilex. Добавлено 2 новые модели: IA-420F (низкопрофильная PCIe-карта) и IA-220-U2 (U.2). Вместе с выпущенным ранее двухслотовым PCIe-ускорителем IA-840F, серия IA теперь охватывает 3 наиболее востребованных в ЦОД и сетевой инфраструктуре форм-фактора, что значительно повышает гибкость развёртывания. Ускоритель IA-420F предназначен для использования в качестве SmartNIC и для вычислительных хранилищ (computational storage). Эта однослотовая HHHL-карта может быть установлена практически в любые серверные и периферийные устройства. В состав платы входят: микросхема FPGA Intel AGF 014 на 1,437 млн логических элементов, 2 Гбит загрузочной флеш-памяти, 2 банка DDR4 (до 16 ГБайт каждый), 8 линий GPIO. Для программирования и отладки на плату выведен порт USB, подключённый к набортному BMC. Сетевой интерфейс представлен разъёмом QSFP-DD (200 Гбит/с), соединённым с FPGA через восемь 25G-трансиверов. Предусмотрена программируемые пользователем 10/25/40/100GbE-подключения, а также поддержка синхронизации с подавлением джиттера с внешним источником точного времени. FPGA напрямую подключена к линиям PCIe 4.0 x16. Максимальное энергопотребление составляет 75 Вт. Модуль IA-220-U2 выполнен в форм-факторе U.2 (15 мм) и оптимизирован для работы с пассивным охлаждением — максимальное энергопотребление составляет 25 Вт. Он предназначен для рабочих нагрузок, связанных с NVMe СХД. Основной элемент платы — та же FPGA Intel AGF 014 с двумя банками памяти DRR4-2400 (до 8 ГБайт). Кроме того, есть SMBus контроллер с поддержкой NVMe-MI 1.а, что позволяет легко обновлять ПО FPGA. Также есть выводы JTAG и GPIO. Ускоритель IA-220-U2 имеет интерфейс PCIe 4.0 x4 и может быть установлен в обычные 2U СХД. Его удобно использовать в платформах, где имеется избыток слотов U.2, но нет свободных слотов PCIe. Благодаря использованию в обоих модулях ПЛИС Intel Agilex, пользователям доступен oneAPI — унифицированный набор средств разработки, который, по словам создателей, позволяет заказчикам быстро перейти от создания пробных образцов к массовому развёртыванию, успешно выполняя все требования по квалификации, проверке, управлению жизненным циклом и поддержкой. Впрочем, никто не мешает воспользоваться и Quartus Prime Pro.
14.06.2021 [21:25], Владимир Мироненко
Intel анонсировала IPU, новый класс устройств для дата-центров будущегоКомпания Intel в ходе саммита Six Five анонсировала IPU (Infrastructure Processing Unit), ещё одного представителя xPU в терминологии «синих». В данном случае — это программируемое сетевое устройство, разработанное c целью снизить накладные расходы и высвободить ресурсы CPU, перенеся задачи виртуализации хранилища и сети, управления безопасностью и изоляцией на выделенные аппаратные блоки в составе IPU. Это позволит гиперскейлерам и облачным операторам перейти на полностью виртуализированные хранилище и сетевую архитектуру, сохранив при этом высокую производительность и предсказуемость работы, а также высокую степень контроля. IPU интеллектуально управляет ресурсами IT-инфраструктуры на системном уровне, позволяя гибко разворачивать и (пере-)конфигурировать рабочие нагрузки. ![]() В условиях роста популярности микросервисных архитектур такой подход очень кстати — Intel приводит данные Google и Facebook* — от 22 до 80 % циклов CPU может уходить только на коммуникацию между микросервисами, а не на выполнение полезной нагрузки. ЦОД нового поколения потребуется новая же интеллектуальная архитектура, в которой масштабные распределённые и разнородные вычислительные системы работают вместе и легко сочетаются, формируя единую платформу. «IPU — это новый класс технологий, который является одним из стратегических столпов нашей облачной стратегии. Он расширяет возможности SmartNIC и предназначен для устранения сложности и неэффективности современного дата-центра . В Intel стремятся создавать решения и внедрять инновации вместе со своими клиентами и партнерами — IPU является примером такого сотрудничества», — заявил Гвидо Аппенцеллер (Guido Appenzeller), технический директор Intel Data Platforms Group. ![]() Если всё это вам кажется знакомым, то в этом нет ничего удивительного. Аналогичные по задачам и подходу решения, именуемые DPU (Data Processing Unit), активно развивают NVIDIA, Fungible и другие вендоры. DPU объединяет в рамках одного устройства сетевой контроллер, ядра общего назначения, ускоритель (GPU, FPGA, ASIC), память и движки для ускорения отдельных операций. Но в данном случае гораздо важнее программная, а не аппаратная часть, так как современные SmartNIC по «железу» недалеки от DPU. У Intel уже есть свои варианты IPU/DPU на базе Xeon D и FPGA. По словам компании, в результате сотрудничества с большинством гиперскейлеров она уже является лидером по объёму продаж на рынке IPU. Первая IPU-платформа Intel на базе FPGA развёрнута у нескольких поставщиков облачных услуг, а вариант IPU с ASIC находится на стадии тестирования. Свои IPU-решения Intel тестирует совместно с Microsoft Azure, Baidu, JD Cloud&AI и VMware. «Еще до 2015 года Microsoft впервые использовала реконфигурируемые SmartNIC в Intel-серверах нескольких поколений для разгрузки и ускорения сетевого стека и стека хранения. SmartNIC позволяет нам высвободить ядра CPU, увеличить пропускную способность и количество IOPS для хранилищ, добавлять новые возможности после развёртывания и обеспечивать предсказуемую производительность для наших облачных клиентов. — говорит Эндрю Патнэм (Andrew Putnam) из Microsoft. — Intel с самого начала является нашим надёжным партнером, и мы рады видеть, что Intel продолжает продвигать чёткое отраслевое видение ЦОД будущего с IPU». Однако нельзя не отметить, что гиперскейлеры — это отдельный особый рынок, на котором кастомные решения являются нормой. Насколько обычные операторы ЦОД и корпоративные заказчики будут готовы внедрять IPU, вопрос открытый. Больше подробностей о программных и аппаратных особенностях новинок Intel обещала предоставить в октябре. * Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».
23.02.2021 [19:24], Сергей Карасёв
Xilinx представила 100GbE-адаптеры Alveo SN1000 с FPGA и 16-ядерным ARM CPU на бортуКомпания Xilinx анонсировала «умные» сетевые адаптеры Alveo SN1000, рассчитанные на использование в современных центрах обработки данных с высокой нагрузкой. Пробные поставки изделий уже начались, а массовые продажи планируется организовать 31 марта. Устройства относятся к решениям SmartNIC. Они позволяют перенести нагрузку с центральных процессоров серверов непосредственно на сетевые адаптеры, оптимизировав тем самым работу всей IT-инфраструктуры. Адаптеры Alveo SN1000 являются полностью программно-определяемыми и подходят для создания компонуемой инфраструктуры. В их основу положена 16-нм FPGA XCU26 серии UltraScale+, дополненная SoC от NXP с 16 ядрами ARM Cortex-A72 (2 ГГц, 8 Мбайт кеш). Процессору выделен один, а FPGA — два 4-Гбайт модуля памяти DDR4-2400. Первенец семейства, адаптер SN1022, выполнен в виде FHHL-карты с интерфейсом PCIe 3.0 x16 / PCIe 4.0 x8 и двумя 100GbE-портами QSFP28. Для набортной SoC заявлена совместимость с Ubuntu и Yocto Linux. В качестве основного хранилища есть 16-Гбайт NAND-модуль eMMC, а для загрузчика — NOR-чип ёмкостью 64 Мбайт. Среди совместимых ОС для хоста указаны RHEL, CentOS и Ubuntu. Фактически в состав адаптера входят и control plane, и data plane. Поддерживается аппаратная разгрузка virtio-net, а также ускорение работы Intel DPDK и Onload TCPDirect, Open Virtual Switch, Ceph RDB, IPSec и так далее. Часть функциональности перешла по наследству от SolarFlare, но Xilinx пошла дальше и открыла доступ к готовым IP-решениям в магазине App Store. В магазине пока нет готовых решений для SN1000, но для этой серии доступна платформа разработки Xilinx Vitis. Более подробную информацию о новинках можно найти здесь. Вместе с новыми SmartNIC и магазином компания также представила платформы Smart World и Accelerated Algorithmic Trading (ATT). Первая предназначена для ИИ-видеоаналитики в режиме реального времени, а вторая, как нетрудно догадаться, для высокочастотного трейдинга (HFT). |
|