Материалы по тегу: dpu

30.11.2022 [16:55], Алексей Степин

AWS представила пятое поколение аппаратных гипервизоров Nitro

На днях крупный провайдер облачных услуг, компания Amazon Web Services представила новые варианты инстансов на базе новейших процессоров Graviton3E, но данный чип — не единственная новинка AWS.

Одновременно с Graviton3E было представлено и пятое поколение аппаратных гипервизоров Nitro, существенно выигрывающих по ключевым показателям у решений предыдущего, четвёртого поколения.

 Здесь и далее источник изображений: ServeTheHome

Здесь и далее источник изображений: ServeTheHome

Главная идея Nitro — сочетание «кремния» гипервизора, DPU и сопроцессора безопасности с поддержкой Root of Trust в едином чипе. В системах AWS плата с чипом Nitro полностью управляет распределением вычислительных ресурсов и памяти, избавляя от этой нагрузки хост-процессоры.

По результатам тестов, проведённых AWS, производительность облачных инстансов с использованием ускорителей Nitro практически не отличается от производительности классической bare metal-системы.

AWS Nitro v5 использует кастомный кристалл, разработанный Annapurna Labs. По сравнению с Nitro v4, количество транзисторов было удвоено, но за счёт этого удалось на 60 % поднять скорость обработки сетевых пакетов, на 30 % снизить латентность, а также, благодаря продвинутому техпроцессу, обеспечить лучшую удельную производительность.

 Платы AWS Nitro v5 используют проприетарные разъёмы

Платы AWS Nitro v5 используют проприетарные разъёмы

Улучшились и другие характеристики: на 50 % выросла пропускная способность памяти и вдвое возросла производительность подсистемы PCI Express. Платы Nitro v5 станут сердцем новых инстансов C7gn, где обеспечат полную изоляцию критически важных подсистем, таких, как прошивки BIOS, BMC и накопителей от гостевого доступа извне и позволят обновлять эти прошивки без влияния на клиентские нагрузки.

Также они возьмут на себя обслуживание сетей VPC/EBS, включая переход на использование SRD вместо TCP, и накопителей Nitro SSD. AWS уже объявила о возможности предварительного тестирования систем C7gn на базе Nitro v5 и новейших процессоров Graviton3/3E.

Постоянный URL: http://servernews.ru/1078147
14.11.2022 [20:56], Сергей Карасёв

Разработчик DPU-чипов Kalray заключил крупный контракт

Базирующийся во Франции разработчик DPU — компания Kalray — объявил о заключении крупного и важного контракта, который в обозримом будущем сулит получение многомиллионных доходов. С кем именно подписано соглашение, не уточняется. Но говорится, что это крупная американская компания, зарегистрированная на бирже NASDAQ. В 2021 году она получила выручку в несколько десятков миллиардов долларов, а её рыночная капитализация превышает $100 млрд.

Контрактом предусмотрены разработка и поставки решений на базе DPU Kalray. В соглашении прописаны технические, коммерческие и финансовые условия. Отмечается, что у Kalray нет собственного производства: изготовлением продукции занимаются контрактные поставщики, включая TSMC и Wistron.

 Источник изображения: Kalray

Источник изображения: Kalray

Контракт предусматривает три ключевые фазы. Первая уже началась: она включает выпуск сверхвысокопроизводительного ускорителя с четырьмя процессорами Kalray MPPA DPU. Заказчик уже выделил $1 млн Kalray на расходы в рамках данного этапа, который будет завершён во второй половине 2023 года.

Второй фазой станет запуск предсерийного производства продукта нового поколения после подтверждения его производительности. Это обеспечит многомиллионные заказы в евро. На третьем этапе в 2025 году будет освоен массовый выпуск продуктов, благодаря чему, как ожидает Kalray, выручка вырастет до десятков миллионов евро в год.

Постоянный URL: http://servernews.ru/1077330
12.10.2022 [15:55], Владимир Мироненко

В Google Cloud появились инстансы C3 на базе Intel Xeon Sapphire Rapids и IPU E2000 (Mount Evans)

Google Cloud объявила на мероприятии Google Cloud Next 22 о новой серии инстансов C3, первой среди публичных облаков на базе процессоров Intel Xeon Sapphire Rapids, которые дополнены 200G IPU (DPU) Intel E2000, ранее известным под кодовым именем Mount Evans и разработанных совместно Intel и Google. Одновременно было анонсировано блочное хранилище Hyperdisk, которое по сравнению с конкурирующми облачными решениями обеспечивает на 80 % больше IOPS на vCPU. Сейчас инстансы C3 доступны в режиме ограниченного предварительного доступа.

 Источник: Google

По словам компании, инстансы C3 с Hyperdisk обеспечивают в 4 раза более высокую пропускную способность и в 10 раз более высокий показатель IOPS по сравнению с предыдущим поколением инстансов C2. Экземпляры C3 способны обеспечить значительный прирост производительности для высокопроизводительных вычислений и рабочих нагрузок с интенсивным использованием данных. Особую роль в этом играют IPU, которые берут на себя часть нагрузки и позволяют добиться более предсказуемой производительности, высокой скорости работы хранилищем, а также обеспечивают программируемую обработку сетевых пакетов с малой задержкой и усиленной безопасностью.

Постоянный URL: http://servernews.ru/1075615
31.08.2022 [16:06], Алексей Степин

AMD готовит новые DPU Pensando: Giglio и Salina

Как известно, один из пионеров концепции DPU, Pensando Systems теперь принадлежит AMD. Поглощение состоялось весной этого года и обошлось «красным» в $1,9 млрд. На мероприятии VMware Explore 2022 были озвучены весьма обширные планы AMD относительно технологического наследия Pensando, передаёт ServeTheHome.

Напомним, первое поколение сопроцессоров данных, разработанное Pensando, получило кодовое имя Capri, оно использовало 16-нм техпроцесс и поддерживало скорость 100 Гбит/с. Второе поколение, Elba, уже получило 7-нм «кремний», поддержку 200GbE, четыре P4-программируемых конвейера с 32 ядрами MPU для обработки сетевых пакетов, а также 16 ядер Arm Cortex-A72 для пользовательских приложений.

 Здесь и далее источник изображений: AMD (via ServeTheHome)

Здесь и далее источник изображений: AMD (via ServeTheHome)

Сопроцессоры Elba нашли своё место в коммутаторах Aruba CX 10000. Но доступны они и в виде обычных карт расширения: так, младший вариант DSC2-25G в форм-факторе HHHL имеет две корзины SFP56 и поддерживает конфигурации 2×10G или 2×25G. Старший вариант оснащён портами QSFP28 и поддерживает установку трансиверов со скоростями вплоть до 100 Гбит/с.

Но самое интересное, чем поделилась AMD на VMware Explore 2022 — планы по развитию DPU на базе наработок Pensando. Новый чип под кодовым названием Giglio должен будет увидеть свет уже в следующем, 2023 году. Относится он к поколению 2+, и является оптимизированной версией Elba. При этом в планах у AMD есть и 400G-платформа Adaptive Exotic SmartNIC.

А вот на 2024 год запланирован DPU следующего поколения: 5-нм процессор под кодовым именем Salina сразу получит поддержку скорости 800 Гбит/с. При этом сохранится программная совместимость с DPU Pensando предыдущего поколения. Любопытно, что в презентации AMD присутствует упоминание «AMD EPYC Solution (Future)». Каким образом платформа Pensando будет интегрирована с EPYC, пока не уточняется.

Отметим, что AMD планирует гораздо быстрее Intel освоить 400G и 800G — первую планку «синие» собираются взять в 2023–24 гг., а вторую только двумя годами позже. И у обеих компания есть целый ряд конкурентов в лице Chelsio, Fungible, Kalray, Marvell, Nebulon, NVIDIA и др. При этом у AMD и NVIDIA уже есть важное преимущество — их решения теперь совместимы с VMware vSphere 8.

Постоянный URL: http://servernews.ru/1073294
30.08.2022 [20:50], Игорь Осколков

vSphere 8 с поддержкой DPU и другие анонсы VMware

VMware представила vSphere 8, vSAN 8, Cloud Foundation+, а также обновления для ряда своих продуктов и сервисов. Новые решения компании ориентированы на эффективное управление нагрузками в современных распределённых средах, объединяющих локальные, облачные и периферийные системы.

 Изображения: VMware

Изображения: VMware

Пожалуй, ключевым нововведением в vSphere 8 стало появление службы Distributed Services Engine, ранее известной как Project Monterey. Фактически это означает поддержку DPU со стороны vSphere, что позволяет разгрузить CPU, передав DPU часть служебных функций. Пока что поддерживается разгрузка vSphere Distributed Switch и NSX, но в будущем появятся и другие возможности. По данным VMware, использование Redis на хосте с DPU позволяет высвободить 20 % ядер CPU, попутно ускорив выполнения запросов на 36 % и снизив задержку на 27 %.

Кроме того, DPU повышают защищённость и надёжность, обеспечивают лучшую изоляцию, предлагают большую прозрачность при контроле за трафиком, а также упрощают работу vSphere DRS и vMotion и улучшают эффективность утилизации ресурсов. Партнёрами VMware выступают со стороны производителей DPU выступают AMD, Intel и NVIDIA, а со стороны вендоров оборудования — Dell, HPE и Lenovo. Первыми комплексны решения представили Dell (VxRail с AMD Pensando или NVIDIA BlueField) и HPE (ProLiant c Pensando).

Ещё одно новшество для vSphere 8 — Tanzu Kubernetes Grid 2.0. Данное решение консолидирует отдельные службы Tanzu для упрощения управлением всё более сложными и комплексными средами. В частности, появились новые возможности для управления кластерами, отслеживания жизненного цикла, повышения отказоустойчивости и безопасности, управления пакетами и ПО и т.д.

Tanzu Kubernetes Grid 2.0 является важной частью VMware Edge Compute Stack 2, интегрированной платформы для периферийных вычислений. Новая платформа может быть запущена всего на двух узлах, предлагает проброс GPU и поддержку «малых» узлов на базе Intel Atom или Core, к которым вскоре присоединятся и Arm-процессоры. Новая платформа также позволяет лучше справляться с нагрузками реального времени благодаря возможности «прибить» vCPU к конкретному SMT/HT-потоку в ядре и настроить vNUMA-топологию.

В целом, в vSphere есть целый ряд полезных нововведений, касающихся работы с «железом». Так, количество GPU NVIDIA, работающих в режиме проброса, выросло до 32, а виртуальной машине (ВМ) теперь можно выделить до 8 vGPU. Устройства (GPU, NIC), подключённые к одному PCIe-свитчу, можно объединять в группы. DRS при наличии PMem-модулей научился более эффективно распределять нагрузки между разными типами памяти без ущерба для производительности. При клонировании ВМ с Windows 11 теперь доступна опция замены vTPM на новый. К слову, использование хостов с модулями TPM 1.2 теперь запрещено.

В vMotion добавлена миграция ВМ, запущенных на хостах с Intel SIOV. Естественно, в новом релизе появилась поддержка самых современных аппаратных платформ AMD и Intel и свежих релизов ОС. Можно отметить и новую, более «умную» систему доставки обновлений (в том числе прошивок), ускоряющую этот процесс и снижающую время простоя. Наконец, VMware предлагает разработчикам аппаратных и программных решений новые инструменты для создания продуктов, изначально рассчитанных на виртуальные среды и более полно учитывающих особенности таких сред.

В части безопасности также есть несколько нововведений. В ESXi 8.0 по умолчанию будет запрещён запуск недоверенных бинарных файлов, а демоны и процессы ESXi будут работать в отдельных «песочницах» с минимально доступными разрешениями. Поддержка TLS 1.0 и TLS 1.1 не просто отключена, а вовсе убрана из vSphere 8. Из прочих интересных новинок можно также отметить появление инструмента мониторинга энергопотребления хостов и ВМ для оценки энергоэффективности и углеродного следа.

Что касается vSAN 8, то VMware обещает кратное повышение производительности, снижение TCO, повышение доступности и защищённости данных, ускорение работы с пулами хранения и т.д. — всё благодаря разработанной с нуля архитектуре. Упомянутый в начале продукт Cloud Foundation+ объединяет анонсированные ранее решения vSphere+ и vSAN+. Cloud Foundation+, vSphere 8, vSAN 8 и Edge Compute Stack 2 будут доступны к концу октября этого года. Бета-версия решения для развёртывания частных мобильных сетей VMware Private Mobile Network на базе Edge Compute Stack 2 должно появиться тогда же.

Другие анонсы включают: обновление NSX; Project Northstar (будущая версия NSX); Project Watch, новое решения для организации защищённой мультиоблачной сетевой платформы; хранилище Aria Graph; Aria Hub (Project Ensemble), решения для централизованного мониторинга и управления мультиоблачными окружениями; следующее поколение Horizon Cloud; поддержка мобильных устройств и сторонних приложений для Workspace ONE Freestyle Orchestrator; новые услуги VMware Cross-Cloud и т.д.

Постоянный URL: http://servernews.ru/1073244
29.08.2022 [18:34], Алексей Степин

AMD представила DPU-платформу 400G Adaptive Exotic SmartNIC

На конференция Hot Chips 34 AMD представила новую платформу 400G Adaptive Exotic SmartNIC. В самой концепции формально нет ничего нового, поскольку DPU уже снискали популярность в среде гиперскейлеров, но вариант AMD сочетает достоинства не двух, а трёх миров: классического ASIC, программируемой логики на базе FPGA и Arm-процессора общего назначения.

На деле процессор (PSX) новинки AMD устроен ещё интереснее: он делится на два домена. В первом домене имеется шестнадцать ядер Arm Cortex-A78, организованных в четыре кластера по четыре ядра. Сюда же входят аппаратные движки для ускорения TLS 1.3. Второй домен состоит из четырёх ядер Arm Cortex-R52 и различных контроллеров низкоскоростных шин, таких как UART, USB 2.0, I2C/I3C, SPI, MIO и прочих.

 Изображения: AMD (via ServeTheHome)

Изображения: AMD (via ServeTheHome)

Посредством высокоскоростной программируемой внутренней шины блок PSX соединён с другими компонентами: модулем взаимодействия с хост-системой (CPM5N), подсистемой памяти, сетевым модулем HNICX и блоком программируемой логики. CPM5N реализует поддержку PCIe 5.0/CXL 2.0, причём доступен режим работы в качестве корневого (root) комплекса PCIe. Тут же находится настраиваемый DMA-движок.

Блок фиксированных сетевых функций представляет собой классический ASIC, обслуживающий пару портов 200GbE. Подсистема памяти представлена 8 каналами DDR5/LPDDR5 с поддержкой 32-бит DDR5-5600 ECC или 160-бит LPDDR5-6400, но говорится и совместимости с другими вариантами памяти, в то числе SCM. Здесь же имеется блок шифрования содержимого памяти с поддержкой стандартов AES-GCM/AES-XTS.

400G Adaptive Exotic SmartNIC имеет развитую поддержку VirtIO и OVS. Также поддерживается виртуализация NVMe-устройств, тоже с шифрованием. Особое внимание AMD уделила тесному взаимодействию всех частей Adaptive Exotic SmartNIC: наличие выделенных линков между блоками хост-контроллера, PSX и FPGA обеспечивает работу на полной скорости в средах, действительно требующих прокачки данных на скоростях в районе 400 Гбит/с.

Благодаря наличию FPGA-части 400G новинка можно легко адаптировать к новым требованиям со стороны заказчиков. В частности, решения на базе ПЛИС Xilinx активно поставляются в Китай, где требования к шифрованию существенно отличаются от предъявляемых к аппаратному обеспечению в Европе или США, но наличие блока FPGA позволяет решить эту проблему. У Intel уже есть в сём-то похожая платформа, но более скромная по техническим характеристикам — Oak Springs Canyon (C6000X).

Постоянный URL: http://servernews.ru/1072858
18.08.2022 [17:26], Игорь Осколков

Стартап Pliops получил ещё $100 млн инвестиций и нацелился на североамериканский рынок

Израильская компания Pliops в рамках очередного раунда (D) инвестиций получила $100 млн. В этом раунде к прежним инвесторам примкнули Koch Disruptive Technologies (KDT), SK Hynix, State of Mind Ventures, а также глава Walden International и председатель правления Cadence Лип-Бу Тан (Lip-Bu Tan), недавно присоединившийся к совету директоров Intel.

Компания Pliops была основана в 2017 году специалистами в области хранения данных. Впоследствии к стартапу присоединился основатель Mellanox, покинувший последнюю вскоре после того, как она была поглощена NVIDIA. На текущий момент Pliops суммарно получила около $215 млн инвестиций, причём предыдущий раунд ($65 млн) был завершён только в прошлом году. В число инвесторов компании входят AMD, Intel Capital, NVIDIA, SoftBank Ventures Asia, Western Digital и др.

 Источник: Pliops

Источник: Pliops

Pliops разрабатывает сопроцессоры серии XDP, предназначенные, в частности, для ускорения работы Key-Value СУБД на флеш-массивах. Но в будущем возможности этих DPU будут расширены — решения следующего поколения выйдут уже в 2023 году. Полученные в раунде D средства компания потратит на освоение рынка США. Компания надеется привлечь корпоративных заказчиков, гиперскейлеров и разработчиков HPC-решений. Правда, как сообщает местное издание CTech, в отделе продаж и маркетинга были проведены сокращения персонала.

Постоянный URL: http://servernews.ru/1072446
14.08.2022 [14:50], Владимир Мироненко

SmartNIC будут драйверами роста рынка Ethernet-адаптеров в ближайшие годы

Согласно данным исследовательского центра Dell'Oro, SmartNIC будут одним из драйверов роста рынка Ethernet-адаптеров, объём которого, по его прогнозу, достигнет к 2026 году $5 млрд. Скорость подключения продолжит расти и на порты с поддержкой скорости 100 Гбит/с и выше будет приходиться почти половина поставок.

В отчёте Dell'Oro «Ethernet Adapter & Smart NIC 5-Year Forecast» за июль 2022 года сообщается, что на SmartNIC будет приходиться растущая доля рынка Ethernet-адаптеров, особенно это относится к гиперескейлерам и сегменту высокопроизводительных приложений. По словам директора по исследованиям Dell'Oro Барона Фунга (Baron Fung), к 2026 году доля SmartNIC составит 38 % всего рынка контроллеров и адаптеров Ethernet.

«SmartNIC заменят традиционные сетевые адаптеры для большей части облачной инфраструктуры гиперскейлеров для задач общего назначения и высокопроизводительных рабочих нагрузок», — сказал Фунг, отметив также перспективность использования SmartNIC облачными провайдерами второго эшелона, в корпоративных ЦОД и на телекоммуникационном рынке. SmartNIC позволяют разгрузить хост-систему, переложив на них часть задач, однако они всё ещё дороги, а сети на их основе сложны в реализации.

 Изображение: AMD

Изображение: AMD

Доходы от продаж SmartNIC, по прогнозам Dell'Oro, будут расти в течение ближайших пяти лет со среднегодовым темпом роста (CAGR) в 21 %, в то время как для традиционных сетевых адаптеров этот показатель составит 5 %. В Dell'Oro также ожидают, что стоимость высокоскоростных портов будет снижаться, поэтому пять лет около 44 % поставок будут приходиться на порты 100GbE+. Так, в США в течение следующих пяти лет в инфраструктуре основных гиперскейлеров — Amazon, Google, Meta* и Microsoft — будут преобладать порты 100GbE и 200GbE.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1072113
08.08.2022 [20:02], Алексей Степин

MaxLinear представила DPU Panther III

Не столь давно концепция сопроцессора данных, DPU, была новинкой, но в 2022 году, пожалуй, уже можно говорить о её вхождении в мейнстрим: подобного рода сопроцессоры представили практически все полупроводниковые гиганты. И на рынке продолжают появляться новые продукты.

Так, на конференции Flash Memory Summit 2022 компания MaxLinear представила свой DPU под названием Panther III, который предназначен для ускорения работы с массивами накопителей. Новый чип выполнен с использованием 16-нм техпроцесса и компания-разработчик заявляет о надёжности класса «шесть девяток». Архитектура Panther III включает в себя 16 аппаратных движков-ускорителей для хеширования, (де-)шифрования, (де-)компрессии и сквозной защиты данных (RTV), причём все эти операции делаются за один проход.

 Panther III MxL8807A-EA-B. Источник: MaxLinear

Panther III MxL8807A-EA-B. Источник: MaxLinear

Последняя функция гарантирует повышенную надёжность, в реальном времени отслеживая правильность выполнения всех операций и корректной работы NVMe-накопителей. Из 16 блоков 8 работают в обе стороны, а другие 8 лишь в одном направлении: расшифровки, декомпрессии и т.д. Фирменная низколатентная архитектура позволяет говорить о задержках в районе 27 мкс при пропускной способности более 200 Гбит/c. При этом новый ускоритель обеспечивает дедупликацию данных вплоть до 12:1.

 Архитектура Panther III. Источник: MaxLinear

Архитектура Panther III. Источник: MaxLinear

Поддерживается каскадирование нескольких DPU, позволяющее достичь скорости 3200 Гбит/с. Поскольку целью MaxLinear являлось создание недорогого DPU c быстрой интеграцией в существующие системы хранения данных, компания представила сразу несколько вариантов новинки: HHHL PCIe-плата и модуль OCP 3.0. В обоих случаях использован интерфейс PCIe 4.0 x16. При этом в различных вариантах пиковая пропускная способность сопроцессора может составлять 75, 100, либо 200 Гбит/с.

 Характеристики ускорителей на базе Panther III. Источник: MaxLinear

Характеристики ускорителей на базе Panther III. Источник: MaxLinear

В комплект поставки входят средства разработчика, API, драйверы и примеры исходного кода. Поддерживаются различные варианты ядра Linux, а также FreeBSD версий 11.х, 12.х и 13.х. В настоящее время доступны образцы модели MxL8807A-EA-B, старшего варианта в исполнении OCP 3.0. Массовые поставки начнутся позднее, но точных сроков и цены компания пока не называет.

Постоянный URL: http://servernews.ru/1071795
26.07.2022 [22:23], Алексей Степин

На базе DPU Fungible готовятся «вычислительные» хранилища для СУБД

Популярность «вычислительных накопителей» продолжает расти и эту концепцию сегодня прорабатывают многие, включая таких гигантов, как Samsung. Занимается этой проблемой и компания Fungible, некогда стоявшая у истоков самой концепции DPU.

Современную инфраструктуру компания видит составной (composable), работающей под управлением фирменного ПО FunOS и использующим аппаратные ускорители, разработанные Fungible. В настоящее время она тестирует свои DPU в качестве ускорителей операций с базами данных. Во флеш-хранилище F1600 используется чип F1, хост-системы, участвующие в тестах, оснащены ускорителями на базе S1.

 Клиенский ускоритель на базе DPU S1. Источник: Fungible

Клиенский ускоритель на базе DPU S1. Источник: Fungible

Главное в концепции «вычислительных накопителей» — то, что данные, хранящиеся на массиве накопителей, не надо куда-то перемещать для первичной обработки, загружая тем самым интерконнекты всех уровней. Её можно производить прямо на месте. И для этого DPU, разработанные Fungible, подходят как нельзя лучше.

 Флеш-хранилище FS1600 содержит DPU F1. Источник: Fungible

Флеш-хранилище FS1600 содержит DPU F1. Источник: Fungible

Флагманский чип F1 содержит 48 ядер MIPS64 с поддержкой мультипоточности SMT4 с аппаратным планировщиком, а также набором движков-ускорителей криптографии, хеширования, поддержки RAID и многих других возможностей. Как сообщает Blocks & Files, перекладывание вычислений на эти движки даёт впечатляющие результаты, в частности, в ускорении обращений к базам данных MySQL.

 Архитектура чипов Fungible DPU. Источник: Fungible

Архитектура чипов Fungible DPU. Источник: Fungible

Даже при однопоточной обработке на DPU время обработки запроса удалось снизить в 75 раз в сравнении с классическим сервером с архитектурой x86. В тесте с использованием регулярных выражений выигрыш составил 27 раз. Сам чип F1 может исполнять 192 потока, но разработчики сомневаются, что целесообразно задействовать их все под одну задачу.

Однако даже тестовый прототип показывает отличные результаты. В настоящее время проект «вычислительного хранилища» на базе решений Fungible имеет статус бета-версии, но о нём уже поставлены в известность сообщества Practice and Experience in Advanced Research Computing (PEARC) и OpenInfra Foundation.

Постоянный URL: http://servernews.ru/1070876
Система Orphus