Лента новостей

13.04.2021 [19:52], Андрей Галадей

В ядре Linux появилась ранняя поддержка секретных областей памяти

Более года шла разработка функции, которая позволит создавать секретные области памяти в Linux. Эти области будут видны только процессу-владельцу и не будут показываться другим процессам, а их содержимое будет недоступно ядру. Задачей этой подсистемы является повышение защиты.

К примеру, при использовании OpenSSL в пользовательском пространстве в этой области можно хранить закрытые ключи, что уменьшает вероятность их компрометации. Отдельно стоит отметить, что для скрытых таким образом областей памяти не предполагается использование шифрования или иных методов дополнительной защиты.

linuxhint.com

linuxhint.com

При этом по умолчанию эта функция отключена. Для её запуска во время загрузки системы нужно передать особый параметр. Функциональность секретной памяти и системный вызов memfd_secret скрыты за параметром secretmem_enable, по крайней мере, на данный момент. Само собой, пока это ранняя версия функции. Однако не стоит исключать, что в сборке ядра Linux 5.13 она уже станет доступна для использования.

Постоянный URL: https://servernews.ru/1037249
13.04.2021 [17:16], Владимир Мироненко

Отпочковавшееся от IBM подразделение инфраструктурных услуг получит имя Kyndryl

Компания IBM сообщила название своего нового дочернего предприятия, сформированного на базе подразделения управляемых инфраструктурных услуг, — Kyndryl. В прошлом году IBM объявила, что выделит этот бизнес в отдельную компанию, поскольку после приобретения Red Hat она сосредоточилась на программном обеспечении, сервисах и гибридном облаке. До сих пор эта компания была известна под условным названием NewCo.

Как объяснила IBM, бренд Kyndryl представляет собой современную адаптацию двух слов, «являющуюся центральным элементом идентичности и миссии компании». «Kyn» происходит от слова «kinship» (родство), а «dryl» происходит от слова «tendril» (побег) и идеи о том, что бизнес всегда работает над продвижением человеческого прогресса.

«Выбор названия — это только начало нашего пути как бренда, — отметила директор по маркетингу Kyndryl Мария Бартоломе Винанс (Maria Bartolome Winans). — Это поможет идентифицировать нас и поддержать узнаваемость, но смысл названия со временем будет развиваться и расширяться за счёт наших поступков, стремлений и действий, а также возможностей, которые мы предоставим нашим клиентам».

Ожидается, что разделение IBM на две компании произойдёт к концу 2021 года. Штаб-квартира Kyndryl, как и у IBM, будет находиться в Нью-Йорке. «Решение разместить нашу корпоративную команду в одном из самых динамичных и глобальных городских центров мира подчёркивает нашу приверженность экономическому здоровью городов», — заявил гендиректор Kyndryl Мартин Шретер (Martin Schroeter).

Постоянный URL: https://servernews.ru/1037243
13.04.2021 [16:59], Алексей Степин

РСК микроЦОД помогает ФТИ им. А.Ф. Иоффе обуздать термоядерный синтез и лучше понять устройство Вселенной

РСК заслуженно занимает ведущее место в индустрии российских разработчиков систем высокопроизводительных вычислений (HPC). А без таких вычислений современные научные исследования зачастую немыслимы. Уникальный микроЦОД, разработанный и установленный силами RSC в Физико-техническом институте имени А.Ф. Иоффе, помогает российским учёным в астрофизике и исследованиях термоядерного синтеза.

Новая система РСК МикроЦОД была смонтирована в Физико-техническом институте имени А.Ф. Иоффе ещё в сентябре прошлого года, а вскоре после этого вошла в рейтинг Top50 наиболее производительных HPC-систем России и стран СНГ с показателем производительности 66,12 Тфлопс.

РСК МикроЦОД представляет собой полностью законченный и готовый к работе сверхкомпактный кластер, который можно разместить практически в любом помещении. Физически он представляет собой шкаф с вычислительными узлами «РСК Торнадо», объединёнными общей СЖО с поддержкой охлажденгия «горячей водой», то есть с температурой входящего теплоносителя +65 °C. При этом конструктив шкафа выполнен таким образом, что замена вычислительных узлов, модулей СЖО или блоков питания не требует остановки системы и может выполняться «на горячую».

РСК МикроЦОД

РСК МикроЦОД

Такой шкаф высотой 42U может содержать до 153 узлов, а общий показатель энергоэффективности PUE — достигаться значения менее 1,06. За управление и мониторинг в РСК микроЦОД отвечает фирменная модульная программная платформа «БазИС» с открытым исходным кодом. В духе времени большинство компонентов в новой системе реализовано как программно определяемые, что также упрощает развёртывание, обслуживание и модернизацию данной HPC-платформы.

Система также может масштабироваться до 51 «большого» узла, а вариант, установленный в ФТИ, содержит 20 узлов с двумя Intel Xeon Gold 6248R (24C/48T, 3,0-4,0 GHz, 35,75 Мбайт кеша, 205 Ватт TDP) и 384 Гбайт RAM. Для хранения данных используются SSD Intel, межузловая связь построена на базе технологии Intel Omni-Path. МикроЦОД легко поддаётся модернизации и может быть усилен новейшими Xeon Scalable третьего поколения, а также накопителями Optane 200.

В ФТИ имени А.Ф. Иоффе этот суперкомпьютер участвует в ряде ключевых физических и астрофизических исследований, проводимых в России сегодня. К примеру, он задействован в задаче по созданию управляемой среды для термоядерного синтеза, и этот вклад трудно переоценить — ведь за термоядерным синтезом будущее энергетики. Традиционно ещё со времён СССР ставка делается на токамаки, для запуска термоядерной реакции в плазме применяется её нагрев с помощью высокочастотного излучения.

Плазма — объект крайне сложный и капризный в поведении, но новый суперкомпьютер позволил лаборатории физики высокотемпературной плазмы ФТИ создать полную трёхмерную модель поведения ВЧ в плазме токамака. Такая модель уже рассчитана для малого токамака ФТ-2, а также для куда более крупного Т-15МД, установленного в Курчатовском институте в Москве.

Применяется новая система и в фундаментальных астрофизических исследованиях. Уже представлены уникальные результаты МГД-моделирования структуры магнитных полей в пульсарных туманностях Vela и PSR B1929+10. Также проведено кинетическое моделирование спектров электронов и позитронов, испускаемых быстродвижущимися пульсарами в подобного класса туманностях. Составлены модельные карты излучения для пульсаров Vela и PSR J0437-4715 Это позволит учёным лучше понять устройство Вселенной, частью которой все мы являемся.

Постоянный URL: https://servernews.ru/1037237
13.04.2021 [00:28], Андрей Галадей

Дистрибутивы SUSE SLES  появились в маркетплейсе Yandex.Cloud

В маркетплейсе Yandex.Cloud появились коммерческие продукты компании SUSE: дистрибутивы SUSE Linux Enterprise Server 15 SP2 и SUSE Linux Enterprise Server 15 SP2 for SAP. Доступ к ним можно будет получить в рамках почасовой оплаты (Pay-as-you Go): от 4 249 руб./мес. и от 13 702 руб./мес. соответственно. Для первого варианта также доступна подписка с приоритетной поддержкой от 6 610 руб./мес. Ранее в Yandex.Cloud была доступна только бесплатная версия дистрибутива — openSUSE 15.2.

documentation.suse.com

«SUSE уже давно и довольно активно развивает свои продукты на публичных облачных платформах. Yandex.Cloud станет нашим крупнейшим облачным партнером на российском рынке. Благодаря облачной витрине Yandex.Cloud, продуктами SUSE смогут воспользоваться и те компании, которых останавливали сложности настройки и управления инфраструктурой на базе продуктов SUSE, а также отсутствие глубокой внутренней компетенции», — заявил Владимир Главчев, управляющий директор SUSE в России и СНГ.

Постоянный URL: https://servernews.ru/1037175
12.04.2021 [20:00], Сергей Карасёв

NVIDIA представила младшие серверные ускорители A10 и A30

Компания NVIDIA в рамках конференции GPU Technology Conference 2021 анонсировала ускорители A10 и A30, предназначенные для обработки приложений искусственного интеллекта и других задач корпоративного класса.

Модель NVIDIA A10 использует 72 ядра RT и может оперировать 24 Гбайт памяти GDDR6 с пропускной способностью до 600 Гбайт/с. Максимальное значение TDP составляет 150 Вт. Новинка выполнена в виде полноразмерной карты расширения с интерфейсом PCIe 4.0: в корпусе сервера устройство займёт один слот расширения. Производительность в вычислениях одинарной точности (FP32) заявлена на уровне 31,2 терафлопса. Новинку можно рассматривать как замену NVIDIA T4.

Модель NVIDIA A30, в свою очередь, получила исполнение в виде двухслотовой карты расширения с интерфейсом PCIe 4.0. Задействованы 24 Гбайт памяти HBM2 с пропускной способностью до 933 Гбайт/с. Показатель TDP равен 165 Вт. Обе новинки используют архитектуру Ampere с тензорными ядрами третьего поколения.

Решения подходят для применения в серверах массового сегмента, рабочих станциях, а также в составе платформы NVIDIA EGX и для периферийных вычислений.

Постоянный URL: https://servernews.ru/1037122
12.04.2021 [20:00], Сергей Карасёв

Ускоритель NVIDIA A16 рассчитан на инфраструктуры VDI

Компания NVIDIA представила сегодня акселератор корпоративного класса A16: анонс новинки состоялся в рамках мероприятия GPU Technology Conference 2021. Ускоритель поможет в организации дистанционной работы, что актуально в текущей эпидемиологической обстановке. В такой ситуации востребованы платформы виртуальных рабочих столов (VDI).

В инфраструктуре VDI среды виртуальных рабочих мест размещаются на централизованном сервере и развёртываются по запросу. Для поддержания работы таких систем как раз и предназначен ускоритель NVIDIA A16. Решение объединяет четыре графических процессора с архитектурой Ampere. Также имеются аппаратные (де-)кодеры NVENC (x4) и NVDEC (x8).

Используется 64 Гбайт памяти GDDR6 — по 16 Гбайт на процессор.Устройство позволяет формировать виртуальные GPU (vGPU) с памятью объёмом 1, 2, 4, 8 или 16 Гбайт. Имеется поддержка технологий NVIDIA Virtual PC (vPC), Virtual Applications (vApps), RTX Workstation (vWS), Virtual Compute Server (vCS).

Ускоритель выполнен в виде карты расширения с интерфейсом PCIe 4.0. В компьютерном корпусе новинка займёт два слота. Для дополнительного питания служит 8-контактный разъём; заявленный показатель TDP — 250 Вт. Поставки акселератора NVIDIA A16 начнутся в текущем году. Более точные сроки начала продаж и стоимость разработчик раскроет позднее.

Постоянный URL: https://servernews.ru/1037129
12.04.2021 [19:48], Владимир Мироненко

NVIDIA TAO, Triton и Fleet Command помогут компаниям в выборе, дообучении, оптимизации и развёртывании моделей ИИ

«Путь к созданию предприятия, основанного на искусственном интеллекте, не должен быть долгим или трудным, если вы знаете, как использовать предварительно обученные модели и инструменты, такие как NVIDIA TAO и Fleet Command», — заявил Адель Эль-Халлак (Adel El-Hallak), директор по управлению продуктами NGC.

По его словам, теперь компаниям не придётся проектировать и обучать собственную нейронную сеть с нуля, так как можно будет выбрать одну из множества доступных в каталоге NGC. Предлагаемые NVIDIA модели, охватывают широкий спектр задач ИИ — от компьютерного зрения и разговорного ИИ до понимания естественного языка и многого другого.

Многие модели в каталоге предлагаются с расширенной информацией о наборе данных для обучения, о частоте использования и с прогнозом результатов использования. Это обеспечивает прозрачность и уверенность в том, что вы выбираете подходящую модель для своего варианта использования. Выбрав модель, клиент сможет её настроить в соответствии с конкретными потребностями с помощью NVIDIA TAO.

С помощью NVIDIA Transfer Learning Toolkit предобученную модель из каталога NGC можно будет дообучить на небольших наборах данных, которые есть у пользователей, чтобы индивидуально подстроить модели под нужды клиента. Кроме того, TAO предлагает и Federated learning (федеративное обучение), которое позволяет безопасно обучить модель на данных от различных пользователей внутри зашифрованных анклавов в GPU, не открывая их никому из участников процесса.

После точной настройки модели её необходимо оптимизировать для развёртывания — сделать более компактной без ущерба для качества и возможности эффективного функционирования на целевой платформе клиента, будь то массив графических процессоров в сервере или робот с приводом от Jetson в заводском цехе. С помощью NVIDIA Triton пользователи смогут выбрать оптимальную конфигурацию для развёртывания, независимо от архитектуры модели, используемой инфраструктуры, целевого процессора или графического ускорителя, на котором она будет работать.

После того, как модель оптимизирована и готова к развёртыванию, пользователи могут легко интегрировать её с любой инфраструктурой, которая соответствует их сценарию использования или отрасли. На завершающем этапе с выбранной платформой пользователи смогут запустить NVIDIA Fleet Command для развёртывания и управления приложением ИИ на различных устройствах с графическим процессором.

Fleet Command объединяет сертифицированные NVIDIA серверы, развёрнутые на границе сети, с облаком, используя протоколы сквозной безопасности для защиты данных приложений и интеллектуальной собственности. Данные передаются между периферией и облаком в полностью зашифрованном виде. А перед развёртыванием приложения сканируются на наличие вредоносных программ и уязвимостей.

Fleet Command и элементы TAO уже используются на складах, в розничной торговле, в больницах и в производственных цехах. В числе их пользователей такие компании, как Accenture, BMW и Siemens Industrial. Основные компоненты TAO, включая инструментарий Transfer Learning Toolkit и федеративное обучение, на данный момент уже доступны клиентам.

Постоянный URL: https://servernews.ru/1037137
12.04.2021 [19:34], Владимир Мироненко

NVIDIA развивает Arm-экосистему: GPU-инстансы с Graviton2, набор HPC-разработчика на базе Ampere Altra и новые партнёрства с Marvell, MediaTek и SiPearl

Собственный серверный Arm-процессор NVIDIA Grace ещё не вышел, но компания уже формирует экосистему вокруг Arm и собственных ускорителей. NVIDIA анонсировала серию совместных проектов с использованием своих GPU и программного обеспечения с процессорами на базе Arm для широкого круга рабочих нагрузок — от облака до периферии.

В частности, анонсированы инстансы Amazon EC2 на базе AWS Graviton2 с графическими процессорами NVIDIA, поддержка разработки научных приложений и ИИ-приложений с помощью нового набора разработчиков HPC, повышение уровня видеоаналитики и функций безопасности на границе сети, а также создание нового класса ПК на базе Arm с графическими процессорами NVIDIA RTX.

В частности, NVIDIA и AWS объявили о совместном проекте по развёртыванию Arm-экземпляров с графическими процессорами в облаке. Новые экземпляры Amazon EC2 позволят разработчикам запускать Android-игры в AWS, ускорять рендеринг и кодирование, а также транслировать игры на мобильные устройства.

Также NVIDIA представила набор NVIDIA Arm HPC Developer Kit, который включает сервер с 80-ядерным процессором Ampere Altra с тактовой частотой до 3,3 ГГц, два ускорителя NVIDIA A100, а также два DPU NVIDIA BlueField-2, которые ускоряют решение ключевых задач безопасности, передачи и хранения данных в ЦОД, включая изоляцию, , управление ключами, RDMA / RoCE, GPU Direct, хранение эластичных блоков, сжатие данных и многое другое.

Для этой платформы компания предлагает NVIDIA HPC SDK: набор компиляторов, библиотек и инструментов, которые позволяют создавать и переносить GPU-приложения HPC и ИИ в Arm-окружение. Среди первых ведущих вычислительных центров, развернувших новые платформы разработки, есть Ок-Риджская национальная лаборатория, Национальная лаборатория Лос-Аламоса и Университет Стоуни-Брук в США, а также Национальный центр высокопроизводительных вычислений на Тайване и Корейский институт науки и техники. NVIDIA Arm HPC Developer Kit будет доступен в 3 квартале 2021 года.

В области периферийных вычислений NVIDIA объявила о расширении сотрудничества с Marvell с целью объединения DPU OCTEON с графическими процессорами для ускорения облачных, корпоративных, операторских и пограничных приложений, и, в целом, повышения производительности систем и сокращения задержек от периферии до облака.

В категории ПК компания сотрудничает с MediaTek, одним из крупнейших мировых поставщиков SoC на базе Arm, чтобы создать эталонную платформу, поддерживающую Chromium, Linux и NVIDIA SDK. Сочетание графических процессоров NVIDIA RTX с высокопроизводительными, энергоэффективными процессорами Arm Cortex позволит использовать в ноутбуках графику с трассировкой лучей и искусственный интеллект.

Кроме того, NVIDIA сотрудничает и с другими партнёрами, включая Fujitsu и SiPearl. Первая, напомним, разработала самый мощный в мире суперкомпьютер Fugaku, который по совместительству является и самой производительной системой на базе Arm-процессоров, пусть и довольно специфичных. Вторая же пока всё ещё занимается разработкой Arm-процессоров SiPearl Rhea для будущих европейских суперкомпьютеров.

Постоянный URL: https://servernews.ru/1037079
12.04.2021 [19:26], Игорь Осколков

NVIDIA анонсировала серверные Arm-процессоры Grace и будущие суперкомпьютеры на их базе

В рамках GTC’21 NVIDIA анонсировала Arm-процессоры Grace серверного класса, которые станут компаньонами будущих ускорителей компании. Это не означает полный отказ от x86-64, но это позволит компании предложить клиентам более глубоко оптимизированные, а, значит, и более быстрые решения. NVIDIA говорит, что новый CPU позволит на порядок повысить производительность систем на его основе в ИИ и HPC-задачах в сравнении с современными решениями.

Процессор назван в честь Грейс Хоппер (Grace Hopper), одного из пионеров информатики и создательницы целого ряда основополагающих концепций и инструментов программирования. И это имя нам уже встречалось в контексте NVIDIA — в конце 2019 года компания зарегистрировала торговую марку Hopper для MCM-решений.

Компания не готова раскрыть полные технически характеристики новинки, которая станет доступна в начале 2023 года, но приводит некоторые интересные детали. В частности, процессор будет использовать Arm-ядра Neoverse следующего поколения (надо полагать, уже на базе ARMv9),  которые позволят получить в SPECrate2017_int_base результат выше 300. Для сравнения — система с парой современных AMD EPYC 7763 в том же бенчмарке показывает результат на уровне 800.

Вторая особенность Grace — использование памяти LPDRR5X (с ECC, естественно). В сравнении с DDR4 она будет иметь вдвое большую пропускную способность (ПСП) и в 10 раз меньшее энергопотребление. Число и скорость каналов памяти не уточняются, но говорится о суммарной ПСП в более чем 500 Гбайт/с на процессор. А у того же EPYC 7763 теоретический пик ПСП чуть больше 200 Гбайт/с. Очевидно, что другие процессоры к моменту выхода NVIDIA Grace тоже увеличат и производительность, и пропускную способность памяти. Гораздо более интересный вопрос, сколько линий PCIe 5.0 они смогут предложить. Если допустить, что у них будет 128 линий, то общая скорость для них составит чуть больше 500 Гбайт/с.

И NVIDIA этого мало — процессоры Grace получат прямое, кеш-когерентное подключение к GPU по NVLInk 4.0 (14x) с суммарной пропускной способностью боле 900 Гбайт/с. GPU тоже, как и прежде, будут общаться напрямую друг с другом по NVLink. Скорость связи между двумя CPU превысит 600 Гбайт/с, а в сборке из четырёх модулей CPU+GPU суммарная скорость обмена данными между системной памятью процессоров и GPU в такой mesh-сети составит 2 Тбайт/с. Но самое интересное тут то, что у памяти CPU (LPDDR5X) и GPU (HBM2e) в такой системе будет единое адресное пространство. Собственно говоря, таким образом компания решает давно назревшую проблему дисбаланса между скоростью обмена данными и доступным объёмом памяти в различных частях вычислительного комплекса.

Для сравнения можно посмотреть на архитектуру нынешних DGX A100 или HGX. У каждого ускорителя A100 есть 40 или 80 Гбайт набортной памяти HBM2e (1555 или 2039 Гбайт/с соответственно) и NVLInk-подключение на 600 Гбайт/c, которое идёт к коммутатору NVSwitch, имеющего суммарную пропускную способность 1,8 Тбайт/с. Всего таких коммутаторов шесть, а объединяют они восемь ускорителей. Внутри этой NVLInk-фабрики сохраняется достаточно высокая скорость обмена данными, но как только мы выходим за её пределы, ситуация меняется.

Схема NVIDIA DGX A100. Источник: Microway

Схема NVIDIA DGX A100. Источник: Microway

Каждый ускоритель A100 имеет второй интерфейс — PCIe 4.0 x16 (64 Гбайт/с), который уходит к PCIe-коммутатору, каковых в DGX A100 имеется четыре. Коммутаторы, в свою очередь, объединяют между собой сетевые 200GbE-адаптеры (суммарно в дуплексе до 1,6 Тбайт/с для связи с другими DGX A100), NVMe-накопители и CPU. У каждого CPU может быть довольно много памяти (от 512 Гбайт), но её скорость ограничена упомянутыми выше 200 Гбайт/c.

Узким местом во всей этой схеме является как раз PCIe, поэтому переход исключительно на NVLInk позволит NVIDIA получить большой объём памяти при сохранении приемлемой ПСП, не тратясь лишний раз на дорогую локальную HBM2e у каждого GPU. Впрочем, если компания не переведёт на NVLink и собственные будущие DPU Bluefield-3 (400GbE), которые будут скармливать связке CPU+GPU по, например, GPUDirect Storage данные из внешних NVMe-oF хранилищ и объединять узлы DGX POD, то PCIe 5.0 в составе Grace стоит ждать. Это опять-таки упростит и повысит эффективность масштабирования.

В целом, всё это необходимо из-за быстрого роста объёма ИИ-моделей — в GPT-3 уже 175 млрд параметров, а в течение пары лет можно ожидать модели уже с 0,5-1 трлн параметров. Им потребуются не только новые решения для обучения, но и для инференса. То же касается и физических расчётов — модели становятся всё больше и требовательнее + ИИ здесь тоже активно внедряется. Параллельно с разработкой Grace NVIDIA развивает программную экосистему вокруг Arm и своих решений, готовя почву для будущих систем на их основе.

Одной из такой систем станет суперкомпьютер Alps в Швейцарском национальном компьютерном центре (Swiss National Computing Centre, CSCS), который придёт на смену Piz Daint (12 место в нынешнем рейтинге TOP500). Этот суперкомпьютер серии HPE Cray EX, в частности, сможет в семь раз быстрее обучить модель GPT-3, чем машина NVIDIA Selene (5 место в TOP500). Впрочем, на нём будут выполняться и классические HPC-задачи в области метеорологии, физики, химии, биологии, экономики и так далее. Ввод в эксплуатацию намечен на 2023 год. Тогда же в США появится аналогичная машина от HPE в Лос-Аламосской национальной лаборатории (LANL). Она дополнит систему Crossroads, использующую исключительно процессоры Intel Xeon Sapphire Rapids.

Постоянный URL: https://servernews.ru/1037136
12.04.2021 [19:21], Алексей Степин

NVIDIA анонсировала DPU BlueField-3: 400 Гбит/с, 16 ядер Cortex-A78 и PCIe 5.0

Идея «сопроцессора данных», озвученная всерьёз в 2020 году компанией Fungible, продолжает активно развиваться и прокладывать себе дорогу в жизнь. На конференции GTC 2021 корпорация NVIDIA анонсировала новое поколение «умных» сетевых карт BlueField-3, способное работать на скорости 400 Гбит/с.

Изначально серия ускорителей BlueField разрабатывалась компанией Mellanox, и одной из целей создания столь продвинутых сетевых адаптеров стала реализация концепции «нулевого доверия» (zero trust) для сетевой инфраструктуры ЦОД нового поколения. Адаптеры BlueField-2 были анонсированы в начале прошлого года. Они поддерживали два 100GbE-порта, микросегментацию, и могли осуществлять глубокую инспекцию пакетов полностью автономно, без нагрузки на серверные ЦП. Шифрование TLS/IPSEC такие карты могли выполнять на полной скорости, не создавая узких мест в сети.

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП — 22 млрд транзисторов

Но на сегодня 100 и даже 200 Гбит/с уже не является пределом мечтаний — провайдеры и разработчики ЦОД активно осваивают скорости 400 и 800 Гбит/с. Столь скоростные сети требуют нового уровня производительности от DPU, и NVIDIA вскоре сможет предложить такой уровень: на конференции GTC 2021 анонсировано новое, третье поколение карт BlueField.

Если BlueField-2 могла похвастаться массивом из восьми ядер ARM Cortex-A72, объединённых когерентной сетью, то BlueField-3 располагает уже шестнадцатью ядрами Cortex-A78 и в четыре раза более мощными блоками криптографии и DPI. Совокупно речь идёт о росте производительности на порядок, что позволяет новинке работать без задержек на скорости 400 Гбит/с — и это первый в индустрии адаптер класса 400GbE со столь продвинутыми возможностями, поддерживающий, к тому же, стандарт PCI Express 5.0. Известно, что столь быстрым сетевым решениям PCIe 5.0 действительно необходим.

С точки зрения поддерживаемых возможностей BlueField-3 обратно совместим с BlueField-2, что позволит использовать уже имеющиеся наработки в области программного обеспечения для DPU. Одновременно с анонсом нового DPU компания представила и открытую программную платформу DOCA, упрощающую разработку ПО для таких сопроцессоров, поскольку они теперь занимаются не просто обработкой сетевого трафика, а оркестрацией работы серверов, приложений и микросервисов в рамках всего дата-центра.

В настоящее время NVIDIA сотрудничает с такими крупными поставщиками серверных решений, как Dell EMC, Inspur, Lenovo и Supermicro, со стороны разработчиков ПО интерес к BlueField проявляют Canonical, VMWare, Red Hat, Fortinet, NetApp и ряд других компаний. О массовом производстве BlueField-3 речи пока не идёт, поставка малыми партиями ожидается в первом квартале 2022 года, но карты BlueField-2 доступны уже сейчас. А в 2024 году появятся BlueField-4 с портами 800 Гбит/с.

Постоянный URL: https://servernews.ru/1037156
Система Orphus