Материалы по тегу: коммутатор
18.10.2023 [13:07], Сергей Карасёв
N3COM представила управляемые коммутаторы L2+ серии N3-S5600 с поддержкой 10 GbEРоссийская компания N3COM, специализирующаяся на разработке, производстве и поставке сетевого телекоммуникационного оборудования операторского класса, анонсировала управляемые коммутаторы L2+ семейства N3-S5600. Устройства предназначены для использования в корпоративных сетях на уровне доступа и агрегации. В серию вошли модели, оснащённые 24 или 48 портами RJ-45 или SFP стандарта 1GbE, а также четырьмя разъёмами 10GbE SFP+. Таким образом, суммарное количество портов составляет 28 или 52. На модуле расширения также доступны порты стандарта 40GbE. Коммутаторы получили конструкцию со сменными блоками питания и охлаждения. В семейство входят модели с поддержкой PoE и клиентских портов SFP с резервированием по питанию: это позволяет использовать устройства в различных применениях — от корпоративных локальных сетей до ШПД агрегации в операторских сетях и ЦОД. ![]() Источник изображения: N3COM Доступны различные варианты модуля расширения, включая 8 портов 10GbE/1GbE с интерфейсами SFP+/SFP, 8 портов 1GbE на базе RJ-45 или два порта 40GbE QSFP+. Коммутаторы серии N3-S5600 поддерживают стекирование до трёх устройств через линейные порты на скоростях до 80 Гбит/c, что обеспечивает возможность расширения портовой ёмкости и резервирование подключения к серверной инфраструктуре или к вышестоящим сетям. Коммутаторы работают под управлением ПО N3VIEW. Реализована поддержка нескольких технологий контроля доступа и аутентификации пользователей, таких как динамическая проверка ARP, Dot1X, RADIUS, TACACS+, IP Source Guard и Secure MAC. Кроме того, упомянуты различные алгоритмы профилирования QoS, в том числе SP, WRR, DRR, SP+WRR, и SP+DRR.
17.10.2023 [12:05], Сергей Карасёв
QNAP представила коммутатор QSW-M3212R-8S4T стандарта 10GbE для бизнес-сферыВслед за коммутаторами QSW-M3216R-8S8T и QSW-3216R-8S8T компания QNAP Systems представила управляемую L2-модель QSW-M3212R-8S4T, рассчитанную на предприятия малого и среднего бизнеса, а также на небольшие и домашние офисы. Устройство оборудовано 12 сетевыми портами стандарта 10GbE: это восемь разъёмов SFP+ (обратно совместимы с 1GbE) и четыре коннектора RJ-45 (обратно совместимы с 5GbE, 2.5GbE, 1GbE и 100MbE). Кроме того, есть порт управления 1GbE (RJ-45) и консольный порт RJ-45. ![]() Источник изображения: QNAP Коммутатор имеет половинную ширину: общие габариты составляют 43,3 × 207 × 199,5 мм. Благодаря этому два устройства могут монтироваться в стандартную серверную стойку бок о бок. Вес равен 1,48 кг. Диапазон рабочих температур — от 0 до +40 °C; за охлаждение отвечают два вентилятора с ШИМ-контролем. Максимальное заявленное энергопотребление находится на отметке 80 Вт. Для управления есть веб-интерфейс. Возможно использование кабелей Cat 6a или Cat 7 для портов 10GbE RJ-45. Коммутатор совместим со стандартами IEEE 802.3az и IEEE 802.3x. Гарантия производителя составляет два года.
13.10.2023 [12:50], Сергей Карасёв
QNAP выпустила L2-коммутаторы половинной ширины с 16 портами 10GbEКомпания QNAP Systems анонсировала управляемый L2-коммутатор QSW-M3216R-8S8T и неуправляемую модель QSW-3216R-8S8T для сферы малого и среднего бизнеса. Устройства имеют половинную ширину, благодаря чему могут монтироваться в стандартную стойку бок о бок. Кроме того, допускается настольное размещение. Обе новинки располагают 16 портами 10GbE: по восемь разъёмов SFP+ и RJ-45. Обеспечивается обратная совместимость со стандартами 5GbE, 2.5GbE и 1GbE. Устройство QSW-M3216R-8S8T дополнительно снабжено портом управления 1GbE с гнездом RJ-45 и консольным портом RJ-45. ![]() Источник изображения: QNAP Коммутаторы оборудованы внутренним блоком питания; максимальное заявленное энергопотребление — 80 Вт. В системе охлаждения задействованы два вентилятора с ШИМ-управлением. Габариты составляют 43,3 × 207 × 199,5 мм, вес — приблизительно 1,5 кг. Диапазон рабочих температур — от 0 до +40 °C. Реализована поддержка стандарта 802.3az, говорится о совместимости со стандартом 802.3x Flow Control. На устройства предоставляется двухлетняя гарантия.
26.08.2022 [12:45], Алексей Степин
Интерконнект NVIDIA NVLink 4 открывает новые горизонты для ИИ и HPCПотребность в действительно быстром интерконнекте для ускорителей возникла давно, поскольку имеющиеся шины зачастую становились узким местом, не позволяя «прокормить» данными вычислительные блоки. Ответом NVIDIA на эту проблему стало создание шины NVLink — и компания продолжает активно развивать данную технологию. На конференции Hot Chips 34 было продемонстрировано уже четвёртое поколение, наряду с новым поколением коммутаторов NVSwitch. ![]() Изображения: NVIDIA Возможность использования коммутаторов для NVLink появилась не сразу, изначально использовалось соединение блоков ускорителей по схеме «точка-точка». Но дальнейшее наращивание числа ускорителей по этой схеме стало невозможным, и тогда NVIDIA разработала коммутаторы NVSwitch. Они появились вместе с V100 и предлагали до 50 Гбайт/с на порт. Нынешнее же, третье поколение NVSwitch и четвёртое поколение NVLink сделали важный шаг вперёд — теперь они позволяют вынести NVLink-подключения за пределы узла. Так, совокупная пропускная способность одного чипа NVSwitch теперь составляет 3,2 Тбайт/с в обе стороны в 64 портах NVLink 4 (x2). Это, конечно, отразилось и на сложности самого «кремния»: 25,1 млрд транзисторов (больше чем у V100), техпроцесс TSMC 4N и площадь 294мм2. Скорость одной линии NVLink 4 осталась равной 50 Гбайт/с, но новые ускорители H100 имеют по 18 линий NVLink, что даёт впечатляющие 900 Гбайт/с. В DGX H100 есть сразу четыре NVSwitch-коммутатора, которые объединяют восемь ускорителей по схеме каждый-с-каждым и дополнительно отдают ещё 72 NVLink-линии (3,6 Тбайт/с). При этом у DGX H100 сохраняются прежние 400G-адаптеры Ethernet/InfiniBand (ConnectX-7), по одному на каждый ускоритель, и пара DPU BlueField-3, тоже класса 400G. Несколько упрощает физическую инфраструктуру то, что для внешних NVLink-подключений используются OSFP-модули, каждый из которых обслуживает 4 линии NVLink. Любопытно, что электрически интерфейсы совместимы с имеющейся 400G-экосистемой (оптической и медной), но вот прошивки для модулей нужны будут кастомные. Подключаются узлы DGX H100 к 1U-коммутатору NVLink Switch, включающему два чипа NVSwitch третьего поколения: 32 OSFP-корзины, 128 портов NVLink 4 и агрегированная пропускная способность 6,4 Тбайт/с. В составе DGX SuperPOD есть 18 коммутаторов NVLink Switch и 256 ускорителей H100 (32 узла DGX). Таким образом, можно связать ускорители и узлы 900-Гбайт/с каналом. Как конкретно, остаётся на усмотрение пользователя, но сама NVLink-сеть поддерживает динамическую реконфигурацию на лету. Ещё одна особенность нового поколения NVLink — продвинутые аппаратные SHARP-движки, которые избавляют CPU/GPU от части работ по подготовке и предобработки данных и избавляющие саму сеть от ненужных передач. Кроме того, в NVLink-сети реализованы разделение и изоляция, брандмауэр, шифрование, глубокая телеметрия и т.д. В целом, новое поколение NVLink получило полуторакратный прирост в скорости обмена данными, а в отношении дополнительных сетевых функций он стал трёхкратным. Всё это позволит освоить новые класса HPC- и ИИ-нагрузок, однако надо полагать, что удовольствие это будет недешёвым.
09.11.2021 [12:17], Алексей Степин
NVIDIA представила Quantum-2, первый 400G-коммутатор InfiniBand NDRNVIDIA, нынешний владелец Mellanox, представила обновления своих решений InfiniBand NDR: коммутаторы Quantum-2, сетевые адаптеры ConnectX-7 и ускорители DPU BlueField-3. Это весьма своевременный апдейт, поскольку 400GbE-решения набирают популярность, а с приходом PCIe 5.0 в серверный сегмент станут ещё более актуальными. ![]() NVIDIA Quantum-2 (Здесь и ниже изображения NVIDIA) Первый и самый важный анонс — это платформа Quantum-2. Новый коммутатор не только обеспечивает вдвое более высокую пропускную способность на порт (400 Гбит/с против 200 Гбит/c), но также предоставляет в три раза больше портов, нежели предыдущее поколение. Это сочетание позволяет снизить потребность в коммутаторах в 6 раз при той же суммарной ёмкости сети. При этом новая более мощная инфраструктура также окажется более экономичной и компактной. ![]() Более того, Quantum-2 относится к серии «умных» устройств и содержит в 32 раза больше акселераторов, нежели Quantum HDR первого поколения. В нём также реализована предиктивная аналитика, позволяющая избежать проблем с сетевой инфраструктурой ещё до их возникновения; за это отвечает технология UFM Cyber-AI. Также коммутатор предлагает синхронизацию времени с наносекундной точностью, что важно для распределённых нагрузок. ![]() 7-нм чип Quantum-2 содержит 57 млрд транзисторов, то есть он даже сложнее A100 с 54 млрд транзисторов. В стандартной конфигурации чип предоставляет 64 порта InfiniBand 400 Гбит/с, однако может работать и в режиме 128 × 200 Гбит/с. Коммутаторы на базе нового сетевого процессора уже доступны у всех крупных поставщиков серверного оборудования, включая Inspur, Lenovo, HPE и Dell Technologies. Возможно масштабирование вплоть 2048 × 400 Гбит/с или 4096 × 200 Гбит/с. ![]() NVIDIA ConnectX-7 Конечные устройства для новой инфраструктуры InfiniBand доступны в двух вариантах: это относительно простой сетевой адаптер ConnectX-7 и куда более сложный BlueField-3. В первом случае изменения, в основном, количественные: новый чип, состоящий из 8 млрд транзисторов, позволил вдвое увеличить пропускную способность, равно как и вдвое же ускорить RDMA и GPUDirect. ![]() NVIDIA BlueField-3 DPU BlueField-3, анонсированный ещё весной этого года, куда сложнее с его 22 млрд транзисторов. Он предоставляет гораздо больше возможностей, чем обычный сетевой адаптер или SmartNIC, и крайне важен для будущего развития инфраструктурных решений NVIDIA. Начало поставок ConnectX-7 намечено на январь, а вот BlueField-3 появится только в мае 2022 года. Оба адаптера совместимы с PCIe 5.0.
28.10.2021 [17:02], Алексей Степин
Rockport Networks представила интерконнект с пассивным оптическим коммутаторомПроизводительность любого современного суперкомпьютера или кластера во многом зависит от интерконнекта, объединяющего вычислительные узлы в единое целое, и практически обязательным компонентом такой сети является коммутатор. Однако последнее не аксиома: компания Rockport Networks представила своё видение HPC-систем, не требующее использования традиционных коммутирующих устройств. Проблема межсоединений существовала в мире суперкомпьютеров всегда, даже в те времена, когда сам процессор был набором более простых микросхем, порой расположенных на разных платах. В любом случае узлы требовалось соединять между собой, и эта подсистема иногда бывала неоправданно сложной и проблемной. Переход на стандартные сети Ethernet, Infiniband и их аналоги многое упростил — появилась возможность собирать суперкомпьютеры по принципу конструктора из стандартных элементов. ![]() Пассивный оптический коммутатор SHFL Тем не менее, проблема масштабирования (в том числе и на физическом уровне кабельной инфраструктуры), повышения скорости и снижения задержек никуда не делась. У DARPA даже есть особый проект FastNIC, нацеленный на 100-кратное ускорение сетевых интерфейсов, чтобы в конечном итоге сгладить разницу в скорости обмена данными внутри узлов и между ними. ![]() Сам по себе высокоскоростной коммутатор для HPC-систем — устройство непростое, требующее использования недешёвого и сложного кремния, и вкупе с остальными компонентами интерконнекта может составлять заметную долю от стоимости всего кластера в целом. При этом коммутаторы могут вносить задержки, по определению являясь местами избыточной концентрации данных, а также требуют дополнительных мощностей подсистем питания и охлаждения. ![]() Подход, продвигаемый компанией Rockport Networks, свободен от этих недостатков и изначально нацелен на минимизацию точек избыточности и возможных коллизий. А достигнуто это благодаря архитектуре, в которой концепция традиционного сетевого коммутатора отсутствует изначально. Вместо этого имеется специальный модуль SHFL, в котором топология сети задаётся оптически, а все логические задачи берут на себя специализированные сетевые адаптеры, работающие под управлением фирменной ОС rNOS и имеющие на борту сконфигурированную нужным образом ПЛИС. Модуль SHFL даже не требует отдельного электропитания, а вот адаптеры Rockport NC1225 его хотя и требуют, но умещаются в конструктив низкопрофильного адаптера с разъёмом PCIe x16 и потребляют всего 36 Вт. Правда, в настоящий момент речь идёт только о PCIe 3.0, поэтому полнодуплексного подключения на скорости 200 Гбит/с пока нет. Тем не менее, Техасский центр передовых вычислений (TACC) посчитал, что этого уже достаточно и стал одним из первых заказчиков — 396 узлов суперкомпьютера Frontera используют решение Rockport. Использование не совсем традиционной оптической сети, впрочем, накладывает свои особенности: вместо популярных *SFP-корзин используются разъёмы MTP/MPO-24, а каждый кабель даёт для подключения 12 отдельных волокон, что при скорости 25 Гбит/с на волокно позволит достичь совокупной пропускной способности 300 Гбит/с. ОС и приложениям адаптер «представляется» как чип Mellanox ConnectX-5, который и входит в его состав, а потому не требует каких-то особых драйверов или модулей ядра. Rockport фактически занимается транспортировкой Ethernet и реализует уровень OSI 1/1.5, однако традиционной коммутации как таковой нет — адаптеры самостоятельно определяют конфигурацию сети и оптимальные маршруты передачи сигнала по отдельным волокнам с возможностью восстановления связности на лету при каких-либо проблемах. Весь трафик разбивается на маленькие кусочки (FLIT'ы) и отправляется по виртуальным каналам (VC) с чередованием, что позволяет легко управлять приоритизацией (в том числе на L2/L3) и снизить задержки. SHFL имеет 24 разъёма для адаптеров и ещё 9 для объединения с другими SHFL и Ethernet-шлюзами для подключения к основной сети ЦОД (в ней сеть Rockport видна как обычная L2). Таким образом, в составе кластера каждый узел может быть подключён как минимум к 12 другим узлам на скорости 25 Гбит/с. Однако топологию можно менять по своему усмотрению. Компания-разработчик заявляет о преимуществе своего интерконнекта на классических HPC-задачах, могущем достигать почти 30% при сравнении c InfiniBand класса 100G и даже 200G. Кроме того, для Rockport требуется на 72% меньше кабелей. |
|