Материалы по тегу: rockport networks

26.05.2022 [23:16], Алексей Степин

Институт вычислительной космологии протестирует безкоммутаторную сеть Rockport Networks

Из всех существующих сетевых технологий большая часть полагается на два типа устройств: сетевые адаптеры и коммутаторы, но Rockport Networks идёт дальше и предлагает отказаться от последних. В её технологии используются только пассивные оптоволоконные разветвители, в которых топология сети задается пассивными оптическим модулями.

У такого подхода есть свои достоинства, которые уже оценили некоторые разработчики суперкомпьютеров. К примеру, такая сеть позволяет обойтись существенно меньшим количеством кабелей, а производительность оказывается в ряде случаев даже выше, нежели у InfiniBand класса 200G. Список заинтересованных в технологиях Rockport пополнился Институтом вычислительной космологии (ICC) Даремского университета, который решил протестировать их в одной из итераций своей «космологической машины» (COSMA).

 Пассивный разветвитель Rockport Networks. Источник: Rockport

Пассивный разветвитель Rockport Networks. Источник: Rockport

В течение года безкоммутаторная сеть Rockport проходила проверку на тестовом кластере DINE (Durham Intelligent NIC Environment) и были получены обнадёживающие результаты, давшие в итоге этой технологии «зелёный свет» в более масштабный проект.

 Источник: Durham University

Источник: Durham University

Вкратце, перевод 16 узлов тестовой системы из 24 на технологии Rockport позволил существенно снизить негативное влияние «сетевых заторов» (network congestion) на время обсчёта задачи; в некоторых сценариях традиционная архитектура IB оказалась хуже почти на 30%. В связи с позитивными результатами ICC получила финансирование сразу от двух научных программ Соединённого Королевства — DiRAC и ExCALIBUR.

 Адаптер Rockport NC1225: всё дело в волшебной ПЛИС. Источник: Rockport

Адаптер Rockport NC1225: всё дело в волшебной ПЛИС. Источник: Rockport

Целью является модернизация COSMA7, кластера из 452 двухпроцессорных узлов на базе Intel Xeon Gold 5120. На первой стадии половина узлов будет переведена с использования InfiniBand на сеть Rockport, что позволит провести более масштабное сравнение технологий, причём на реальных научных задачах, а не синтетических тестах. При этом модернизации системного и прикладного ПО не потребуется, поскольку со стороны хост-системы адаптеры Rockport видны как обычные карты Mellanox ConnectX-5, а весь роутинг и обработка пакетов осуществляется уровнем выше, силами набортной ПЛИС.

Похожий эксперимент проходит в Техасском центре продвинутых вычислений (Texas Advanced Computing Center), где 396 из 8008 узлов суперкомпьютера Frontera также были переведены на использование интерконнекта Rockport Networks.

Постоянный URL: http://servernews.ru/1066764
16.12.2021 [20:34], Владимир Мироненко

Rockport Networks получила $48 млн инвестиций и содиректора-выходца из Mellanox

Стартап Rockport Networks объявил о назначении Марка Сульцбау (Marc Sultzbaugh) вторым генеральным содиректором (co-CEO). Являющийся членом совета директоров Rockport с декабря 2020 года, Сульцбау будет руководить компанией вместе с соучредителем и первым генеральным содиректором Rockport Networks Дугом Карвардином (Doug Carwardine).

До прихода в Rockport Сульцбау 20 лет проработал в Mellanox Technologies, известном поставщике сетевых решений InfiniBand и Ethernet. Он начал работу в компании на должности директора по продажам в 2001 году и покинул её в 2020 году, будучи на тот момент старшим вице-президентом по маркетингу. На новой должности в Rockport Сульцбау будет отвечать за все аспекты роста компании, включая управление продуктами, маркетинг, продажи, производство и отношения с клиентами.

 Изображения: Rockport

Изображения: Rockport

В свою очередь, Карвардин будет курировать научно-исследовательские и опытно-конструкторские работы, а также отвечать за финансовое управление компании. О кадровых изменениях было объявлено через неделю после того, как Rockport закрыла раунд финансирования на $48 млн, который возглавила Northern Private Capital, в результате чего общий объём финансирования стартапа составил чуть менее $100 млн.

Полученные инвестиции стартап направит на коммерциализацию своего продукта: безкоммутаторной сетевой 300GbE-платформы, представленной в октябре. Вместо того, чтобы полагаться на коммутаторы, Rockport предложил распределять сетевые функции по каждому узлу, которые напрямую связаны друг с другом через пассивные оптические кабели. Фактически управление трафиком осуществляется на уровне узла с помощью сетевых адаптеров Rockport NC1225 на базе чипов Mellanox.

Постоянный URL: http://servernews.ru/1056102
28.10.2021 [17:02], Алексей Степин

Rockport Networks представила интерконнект с пассивным оптическим коммутатором

Производительность любого современного суперкомпьютера или кластера во многом зависит от интерконнекта, объединяющего вычислительные узлы в единое целое, и практически обязательным компонентом такой сети является коммутатор. Однако последнее не аксиома: компания Rockport Networks представила своё видение HPC-систем, не требующее использования традиционных коммутирующих устройств.

Проблема межсоединений существовала в мире суперкомпьютеров всегда, даже в те времена, когда сам процессор был набором более простых микросхем, порой расположенных на разных платах. В любом случае узлы требовалось соединять между собой, и эта подсистема иногда бывала неоправданно сложной и проблемной. Переход на стандартные сети Ethernet, Infiniband и их аналоги многое упростил — появилась возможность собирать суперкомпьютеры по принципу конструктора из стандартных элементов.

 Пассивный оптический коммутатор SHFL

Пассивный оптический коммутатор SHFL

Тем не менее, проблема масштабирования (в том числе и на физическом уровне кабельной инфраструктуры), повышения скорости и снижения задержек никуда не делась. У DARPA даже есть особый проект FastNIC, нацеленный на 100-кратное ускорение сетевых интерфейсов, чтобы в конечном итоге сгладить разницу в скорости обмена данными внутри узлов и между ними.

Сам по себе высокоскоростной коммутатор для HPC-систем — устройство непростое, требующее использования недешёвого и сложного кремния, и вкупе с остальными компонентами интерконнекта может составлять заметную долю от стоимости всего кластера в целом. При этом коммутаторы могут вносить задержки, по определению являясь местами избыточной концентрации данных, а также требуют дополнительных мощностей подсистем питания и охлаждения.

Подход, продвигаемый компанией Rockport Networks, свободен от этих недостатков и изначально нацелен на минимизацию точек избыточности и возможных коллизий. А достигнуто это благодаря архитектуре, в которой концепция традиционного сетевого коммутатора отсутствует изначально. Вместо этого имеется специальный модуль SHFL, в котором топология сети задаётся оптически, а все логические задачи берут на себя специализированные сетевые адаптеры, работающие под управлением фирменной ОС rNOS и имеющие на борту сконфигурированную нужным образом ПЛИС.

Модуль SHFL даже не требует отдельного электропитания, а вот адаптеры Rockport NC1225 его хотя и требуют, но умещаются в конструктив низкопрофильного адаптера с разъёмом PCIe x16 и потребляют всего 36 Вт. Правда, в настоящий момент речь идёт только о PCIe 3.0, поэтому полнодуплексного подключения на скорости 200 Гбит/с пока нет. Тем не менее, Техасский центр передовых вычислений (TACC) посчитал, что этого уже достаточно и стал одним из первых заказчиков — 396 узлов суперкомпьютера Frontera используют решение Rockport.

Использование не совсем традиционной оптической сети, впрочем, накладывает свои особенности: вместо популярных *SFP-корзин используются разъёмы MTP/MPO-24, а каждый кабель даёт для подключения 12 отдельных волокон, что при скорости 25 Гбит/с на волокно позволит достичь совокупной пропускной способности 300 Гбит/с. ОС и приложениям адаптер «представляется» как чип Mellanox ConnectX-5, который и входит в его состав, а потому не требует каких-то особых драйверов или модулей ядра.

Rockport фактически занимается транспортировкой Ethernet и реализует уровень OSI 1/1.5, однако традиционной коммутации как таковой нет — адаптеры самостоятельно определяют конфигурацию сети и оптимальные маршруты передачи сигнала по отдельным волокнам с возможностью восстановления связности на лету при каких-либо проблемах. Весь трафик разбивается на маленькие кусочки (FLIT'ы) и отправляется по виртуальным каналам (VC) с чередованием, что позволяет легко управлять приоритизацией (в том числе на L2/L3) и снизить задержки.

SHFL имеет 24 разъёма для адаптеров и ещё 9 для объединения с другими SHFL и Ethernet-шлюзами для подключения к основной сети ЦОД (в ней сеть Rockport видна как обычная L2). Таким образом, в составе кластера каждый узел может быть подключён как минимум к 12 другим узлам на скорости 25 Гбит/с. Однако топологию можно менять по своему усмотрению. Компания-разработчик заявляет о преимуществе своего интерконнекта на классических HPC-задачах, могущем достигать почти 30% при сравнении c InfiniBand класса 100G и даже 200G. Кроме того, для Rockport требуется на 72% меньше кабелей.

Постоянный URL: http://servernews.ru/1052362
Система Orphus