Материалы по тегу: сетевые технологии

11.05.2018 [13:25], Алексей Степин

NXP Semiconductors работает над новым сетевым процессором

Современные высокоскоростные сети требуют от коммутаторов и маршрутизаторов серьёзных мощностей, поэтому появление специализированных сетевых процессоров и ускорителей уже достаточно давно никого не удивляет. Над одним из таких процессоров в настоящее время работает компания NXP Semiconductors. Новинка под названием QorIQ LayerScape LX2160A будет обладать весьма серьёзной конфигурацией. В основе нового процессора лежит суперскалярная архитектура ARM Cortex-A72, это одна из самых производительных реализаций ARM на сегодняшний день, поддерживающая внеочередное исполнение инструкций и умеющая оперировать объёмными кешами (до 4 Мбайт L2 и более).

Таких ядер с частотой до 2,2 ГГц у LayerScape LX2160A запланировано 16, объём кеша L2 увеличен до 8 Мбайт, кроме того, SoC получит и 8 Мбайт общего кеша. Двухканальный контроллер DDR4 с поддержкой ECC позволит подключить до 256 Гбайт оперативной памяти. Сетевая часть у LX2160A весьма развита: дизайн включает в себя 16 конфигурируемых портов Ethernet. В зависимости от модели и пожеланий заказчика они могут работать в режимах вплоть до 100G. Имеется встроенный коммутатор второго уровня с производительностью 130 Гбит/с. Расширяемость новому сетевому процессору обеспечат шесть выделенных линий PCIe 4.0 и 24 линии SerDes с частотой до 28 ГГц.

Выделенный ускоритель средств безопасности обладает производительностью 50 Гбит/с, а блок компрессии‒декомпрессии способен пропустить через себя 100 Гбит/с без загрузки основных ядер. Для подключения периферийных устройств и подсистем предусмотрено 4 порта SATA 3.0, а также интерфейсы SD, eMMC, DUART, I2C, CAN и USB 3.0. Процессор получит упаковку с 1517 контактами размером 40 × 40 миллиметров. Благодаря использованию 16-нм техпроцесса FinFET теплопакет не превысит 30 ватт. Программную поддержку обеспечит Linux SDK for QorIQ, заявлена совместимость с пакетом разработки CodeWarrior для ARMv8. Помимо 16-ядерного LX2160A будут выпущены и менее мощные, но более доступные 12- и 8-ядерные варианты — LX2120A и LX2080A. Образцы станут доступны к заказу уже в 1 квартале текущего года, а массовое производство новинок намечено на 2019 год. Ожидается, что в партиях от 1000 чипов стоимость старшей версии составит около $350 за процессор, что весьма скромно для устройства с такими характеристиками.

Постоянный URL: http://servernews.ru/969533
30.01.2018 [12:12], Дмитрий Приходько

Базовые станции Nokia AirScale получат фирменные 5G-чипсеты ReefShark

Результатом подписанного руководством Nokia договора о сотрудничестве с тремя десятками партнёрских организаций должен стать ввод в эксплуатацию полномасштабных 5G-сетей, намеченный на вторую половину 2018 года. В их основу лягут передовые технологические решения финского производителя, среди которых центральное место будет отведено чипсету ReefShark.

ReefShark разработан для использования в качестве одного из компонентов фирменных базовых станций. Главным преимуществом чипсета значится троекратный прирост пропускной способности каждой ячейки сети. При этом достигнутая авторами проекта результативность сопровождалась изменениями показателя энергоэффективности — снижением энергопотребления на 64 %. Проделанная инженерами работа по модернизации антенн MIMO — уменьшения их размеров почти в два раза — положительным образом скажется на габаритах оборудования. 

nokiamob.net

nokiamob.net

Чипсет ReefShark выполнен в виде подключаемого модуля для систем радиодоступа Nokia AirScale, которые готовятся прийти на смену базовым станциям Flexi и предоставить полноценный доступ к 5G после внесения корректировок в программную часть. Итогом такого апдейта станет рекордная скорость передачи данных: вместо предлагаемых сегодня 28 Гбит/с инженеры Nokia называют текущим пределом для каждого модуля цифру в 84 Гбит/с.  

Как уже было отмечено выше, организацию всей необходимой инфраструктуры для выхода на обозначенную скорость 5G-сети Nokia развернёт в текущем году — активная фаза реализации задуманного придётся на III квартал. Более подробно об успехах финнов в обозначенном направлении мы сможем узнать в рамках барселонской выставки Mobile World Congress 2018, которая откроет свои двери 26 февраля. 

Постоянный URL: http://servernews.ru/964826
16.11.2017 [19:00], Алексей Степин

77 % новых кластерных систем и суперкомпьютеров используют InfiniBand

Как мы уже неоднократно отмечали, одной из важнейших частей любого суперкомпьютера или кластера является система межузловых соединений. Именно от неё зависит то, насколько эффективно будут распараллеливаться ресурсы, ведь медленная сеть легко может свести на нет все преимущества самых мощных процессоров и ускорителей. Сегодня Ethernet претендует на эту роль весьма активно благодаря развитию новых стандартов и достижению скоростей уровня 200 Гбит/с. Но другая технология, исторически раньше укоренившаяся в суперкомпьютерной отрасли, InfiniBand, похоже, не собирается сдавать позиции.

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Говорим InfiniBand, подразумеваем Mellanox. Именно эта компания является самым активным разработчиком соответствующих устройств на рынке InfiniBand. Такое название, как ConnectX, знакомо любому, кто когда-либо интересовался тематикой высокоскоростных межсерверных соединений. Компания опубликовала последнюю статистику, согласно которой, 77 % всех суперкомпьютеров, вошедших в список TOP500 последними, в период с июня по ноябрь текущего года, используют именно InfiniBand. Таких систем в шесть раз больше, нежели применяющих сети собственной разработки и в 15 раз больше, нежели платформ, объединённых стандартом Ethernet.

А вот новейшие модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

А вот последние модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

Всего на долю InfiniBand приходится 60 % всех систем в списке, из этих 60 % две системы входят в пятёрку наиболее производительных суперкомпьютеров в мире. Как считают представители Mellanox, это закономерно, поскольку InfiniBand обладает рядом преимуществ перед Ethernet. Как минимум, данный протокол с самого начала разрабатывался, как предназначенный именно для использования в системах класса HPC, поэтому его создатели сконцентрировались на достижении не только высокой пропускной способности, но и минимизации задержек. Впрочем, Mellanox не отказывается от Ethernet. Напротив, на выставке-конференции SC17 она представила ряд интересных решений, включая новейшие «умные» ускорители на базе связки чипов ConnectX-5 и Xilinx Kintex UltraScale.

Постоянный URL: http://servernews.ru/961639
16.11.2017 [09:04], Алексей Степин

SC17: новые высокоскоростные решения Molex

Имя Molex у всех на слуху — так чаще всего называют четырёхконтактный разъём питания в ПК. Впрочем, это название ошибочно: сама пара разъёмов действительно разработана компанией Molex, но имеет модельные номера 8980 (розетка) и 8981 (вилка), а сам производитель выпускает гораздо более широкую гамму разъёмов и соединителей. Надо ли говорить, что эти компоненты играют важную роль в современных сетях, особенно с повсеместным переходом на скорости 50, 100 и даже 200 Гбит/с. На выставке-конференции SC17 Molex демонстрирует множество новых решений, как на базе оптических, так и классических медных технологий. Так, новая система соединителей Impel Plus Backplane Connector System гарантирует устойчивую передачу данных со скоростью до 56 Гбит/с при частоте сигнала более 30 ГГц. Система создана с прицелом на будущее и является полностью модульной.

Impel Plus System

Impel Plus System

Представляют существенный интерес и новые пассивные медные кабели: они отвечают стандарту zQSFP+ и поддерживают скорости до 100 Гбит/с. Обеспечена полная совместимость с рядом индустриальных стандартов, включая IEEE 802.3bj, InfiniBand EDR и SAS 3.0. Совместно с Intel компания намеревается продемонстрировать новый коммутатор стандарта Omni-Path, в котором эти решения будут широко использоваться. Система zCD Interconnect нацелена на будущее: она позволяет добиться скоростей до 400 Гбит/с на последовательную пару Ethernet. Разъёмы zCD в настоящее время проходят проверку и сертификацию консорциумом CDFP MSA, они обещают стать самым «плотным» и быстрым решением на рынке сетей. Другая система, Impulse Orthogonal Direct Backplane Connector System, нацелена на снижение стоимости и обеспечение качественного охлаждения, но при этом может работать на скоростях 56 и 112 Гбит/с.

Новые разъёмы и кабели zCD

Новые разъёмы и кабели zCD

Иногда расстояние между узлами суперкомпьютера или зданиями ЦОД составляет несколько десятков километров. В этом случае уместна окажется новая серия трансиверов Molex Oplink 10-100G. Мощная начинка позволяет им передавать сигнал со скоростью от 10 до 100 Гбит/с на расстояние до 80 километров, чего в большинстве случаев вполне достаточно. А система соединителей Quad Small Form-factor Pluggable Double Density, напротив, предназначена для достижения максимальной плотности и компактности. Восемь линий её электрического интерфейса могут работать на скорости до 25 Гбит/с при модуляции NRZ или до 50 Гбит/с с модуляцией PAM-4. Общая производительность на один порт QSFP-DD составляет 200 или 400 Гбит/с, поддерживаются трансиверы мощностью до 12 ватт. Всё богатство своих новых решений Molex демонстрирует в павильоне 1263, а в павильоне 1587 можно увидеть флеш-ускоритель SawMill FSA, поддерживающий стандарт OpenCAPI.

Постоянный URL: http://servernews.ru/961571
15.11.2017 [06:31], Андрей Крупин

Cisco Systems обновила ПО инфраструктурной платформы Application Centric Infrastructure

Cisco Systems объявила о выпуске обновлённой инфраструктурной платформы Application Centric Infrastructure 3.0 (Cisco ACI 3.0).

Разработанный компанией продукт использует технологии программно-определяемых сетей (Software-Defined Networking, SDN) и упрощает развёртывание приложений и сервисов в центрах обработки данных. Экосистема Cisco ACI включает коммутаторы Cisco Nexus серии 9000, средства централизованного управления политиками, контроллер Cisco APIC (Application Policy Infrastructure Controller), виртуальный коммутатор приложений Cisco AVS для периметра виртуальной сети, а также прочие аппаратные и программные компоненты, обеспечивающие работу приложений в физической, виртуальной и облачной инфраструктуре.

В Cisco ACI версии 3.0 обновлению подверглась программная составляющая комплекса. Сообщается о включении средств управления распределёнными центрами обработки данных, добавлении поддержки технологии контейнерной виртуализации Kubernetes, доработках пользовательского интерфейса системы и инструментов для IT-администраторов, а также существенных улучшениях в плане обеспечения безопасности инфраструктурной платформы. Обновлённая платформа позволяет разворачивать приложения в качестве микросервисов в контейнерах, определять для них сетевые политики ACI с помощью Kubernetes и создавать унифицированные сетевые структуры для контейнеров, виртуальных машин и аппаратных серверов. Для отражения таких атак, как подмена IP/MAC-адресов, в ACI 3.0 предусмотрены новые функции обеспечения сетевой безопасности с использованием технологии First Hop Security, автоматической аутентификации сетевых подключений серверов и помещения их в доверенные группы безопасности, а также с поддержкой детальной реализации политик для оконечных точек в рамках одной группы безопасности.

«В рамках стратегии ACI Anywhere компания Cisco Systems предлагает масштабируемое решение, которое поможет заказчикам успешно работать в многооблачных и распределённых конфигурациях, — говорит Дэн Конде (Dan Conde), аналитик компании Enterprise Strategy Group. — Представленная интеграция ACI с менеджерами контейнерных кластеров и усовершенствованная модель "нулевого доверия" делают это решение актуальным как для крупных сервис-провайдеров, так и для корпоративных заказчиков или коммерческих организаций».

Дополнительные сведения о системе Cisco ACI представлены на сайте cisco.com/solutions/data-center-virtualization/application-centric-infrastructure.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/961565
14.11.2017 [22:47], Алексей Степин

SC17: новинки Mellanox

Компания Mellanox — один из признанных лидеров рынка высокоскоростных сетевых решений. В своё время при упоминании технологии InfiniBand первое имя, которое с ней ассоциировалось, — именно Mellanox. Сейчас InfiniBand по-прежнему используется, но, скорее, является нишевой технологией на фоне повсеместного проникновения Ethernet. Mellanox, однако, уже давно работает и с гибридными решениями типа InfiniBand over IP, а также создает сетевые процессоры, изначально ориентированные на работу с Ethernet. Конференция SC17 посвящена суперкомпьютерам и кластерным системам, а сетевые соединения являются очень важной их частью, поэтому неудивительно, что Mellanox демонстрирует свои новые решения, в частности, серию сетевых адаптеров Innova-2 на базе ПЛИС (FPGA) и платформу для построения мощных коммутаторов класса 200G.

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Серия Innova-2 отличается большой гибкостью благодаря использованию ПЛИС Xilinx Kintex UltraScale. По сути, это не сетевой адаптер, а «заготовка», которая может быть прошита по желанию клиента на выполнение любых требуемых им операций, например, в области криптографии. Сердцем новой серии выступает чип ConnectX-5, а ПЛИС, как уже понятно из описания, работает в роли программируемого ускорителя. По оценкам разработчиков, Innova-2 в шесть раз производительнее аналогичных по возможностям решений других компаний, и при этом стоимость владения соответствующей инфраструктуры ниже в 10 раз. Поддерживают эти сетевые ускорители как Ethernet (вплоть до 100 Гбит/с), так и InfiniBand. Чтобы системная шина не стала узким местом, внедрена поддержка интерфейсов PCI Express 4.0 и OpenCAPI, хотя, разумеется, для раскрытия их потенциала потребуются соответствующие системные платы. Форм-фактор сервера не столь важен — при габаритах HHHL (половинная длина, половинная высота) двухпортовый адаптер Innova-2 без проблем установится практически в любой корпус.

Сетевой адаптер — это одна из конечных точек инфраструктуры. На другой неизбежно находится коммутатор, от которого во многом зависит пропускная способность и эффективность работы сети в целом. Есть у Mellanox что предложить и в этой сфере. Новая серия коммутаторов Quantum поддерживает скорости до 200 Гбит/с на порт и является первой в индустрии, использующей ядро Linux в качестве базовой ОС в комплексе с драйвером Switchdev. Даже младшая модель, Quantum QM8700, может предоставить в распоряжение проектировщика сети 40 портов со скоростью 200 Гбит/с (или вдвое больше портов 100 Гбит/с), а модульные масштабируемые Quantum CS8510 и Quantum CS8500 и вовсе оперируют цифрами 200 и 800 портов класса 200G. Любопытно, что новая связка Linux + Switchdev доступна и для серии Mellanox Spectrum. Но семейство Quantum, по мнению компании, не имеет аналогов: оно в 4 раза дешевле, в 2 раза быстрее и экономичнее, нежели сопоставимые по классу решения конкурентов. Ознакомиться с достижениями Mellanox можно на SC17 в павильоне 653.

Постоянный URL: http://servernews.ru/961511
25.09.2017 [12:28], Алексей Степин

Chelsio продемонстрировала решения iSCSI на скорости 100 Гбит/с

Стандарт iSCSI насчитывает уже много лет и хорошо освоен производителями, поставщиками и пользователями систем хранения данных. Он базируется на протоколе инкапсуляции набора команд SCSI в TCP/IP, причём, среда передачи данных может использоваться любая, совместимая со стандартами Ethernet. Не столь давно компания Chelsio, производитель высокопроизводительных сетевых процессоров, адаптеров и прочего оборудования, продемонстрировала устойчивую работу iSCSI на скорости 100 Гбит/с (более 10 Гбайт/с).

Для этого были использованы новейшие «умные» сетевые адаптеры T6 100GbE Unified Wire. Они базируются на процессоре серии Terminator шестого поколения, который поддерживает все современные стандарты и умеет работать с сигнальными линиями 25G и 40G. Поддерживаются все скорости Ethernet вплоть до 100 Гбит/с, а главное, в составе процессора есть многочисленные блоки «сопроцессоров», позволяющие снять нагрузку с ЦП системы как при обработке TCP/IP, так и iSCSI. Поддерживается подключение к шине PCIe 3.0 в режиме x16.

При обмене блоками размером 4 Кбайт тестовая система продемонстрировала устойчивую скорость 100 Гбит/с, а производительность на операциях случайного доступа достигла внушительных 2,9 миллионов IOPS. Расхождение в латентности между локальными и удалёнными областями хранения данных не превысило 15 микросекунд, а энергопотребление сетевой подсистемы удерживалось в рамках 20 ватт. При этом сам процессор T6 вносит в общую картину задержек не более 1 микросекунды и его возможности, по сути, ограничены только возможностями шины PCI Express.

Постоянный URL: http://servernews.ru/958960
18.09.2017 [09:49], Алексей Степин

Cisco NPU: сетевой процессор с производительностью 400 Гбит/с

О проблемах и путях развития стандарта Ethernet мы совсем недавно рассказывали читателям. Как было упомянуто в заметке, одной из самых важных вех в процессе этого развития является создание сетевых процессоров с огромной агрегированной пропускной способностью. Об одном из таких процессоров мы поведаем сегодня. На конференции Hot Chips представитель компании Cisco Systems Джейме Маркевич (Jamie Markevitch) продемонстрировал безымянный, но уже поставляемый клиентам чип и рассказал о его особенностях. Это большая редкость — услышать подробности о корпоративных разработках такого уровня, исключением может послужить Mellanox и ещё пара компаний. К сожалению, самого интересного, а именно, снимков процессора для коммутаторов с пропускной способностью 6,5 Тбит/с показано не было, но интерес представляет и архитектура чипа, способного работать на скорости 400 Гбит/с.

Против ожидания, вся процессорная мощь NPU находится в правом кристалле

Против ожидания, вся процессорная мощь NPU находится в правом кристалле

Это не 16-нм ASIC под названием CloudScale, представленный Cisco в марте 2016 года, основанный на сигнальном стандарте 25G и применяемый в серии корневых коммутаторов Nexus 9500. Данная версия выпущена раньше и использует 22-нм техпроцесс, но, скорее всего, имеет схожую с CloudScale архитектуру. Данный NPU не является монолитным устройством с фиксированным количеством портов, он предназначен для построения модульных систем с несколькими такими сетевыми процессорами на борту, соединяемыми собственной шиной. Чип очень похож на начинку коммутаторов Nexus 9000, но в тех была использована ещё более старая 28-нм версия. Пока Intel рассуждает о гибридных процессорах, Cisco уже имеет решения с такой архитектурой в своём арсенале и выпускает их серийно. Описываемый кристалл состоит из 9,2 миллиардов транзисторов и имеет 672 процессорных ядра, каждое из которых способно выполнять до 4 потоков.

Общая архитектура и расположение функциональных блоков внутри NPU

Общая архитектура и расположение функциональных блоков внутри NPU

Объём памяти SRAM составляет внушительные 353 Мбайт. Это очень дорогая и быстрая память, в данном процессоре она играет роль кеша нулевого уровня, в котором хранятся как инструкции, так и данные для каждого потока (не ядра!). На каждый кластер из 16 ядер имеется и более привычный кеш L1. Каждое ядро имеет восьмистадийный неблокируемый конвейер, между потоками он переключается по алгоритму round-robin. Всего в чипе 42 16-ядерных кластера, они соединены с кешем инструкций L2, имеющим 4-уровневую ассоциативность. Он же служит межъядерной соединительной сетью, объединяющей все функциональные блоки процессора воедино. Внутренняя сеть работает на частоте 1 ГГц и обладает совокупной пропускной способностью более 9 Тбит/с. Имеется 276 интерфейсов типа SERDES для общения с внешним миром. Часть транзисторного бюджета, разумеется, задействована для реализации всяческих ускорителей, буферов и контроллеров интерфейсов.

NPU и его подсистемы памяти

NPU и его подсистемы памяти

Cisco не раскрывает деталей о том, какой набор инструкций используется в их сетевых процессорах. Это может быть что угодно, включая полностью уникальный набор, не похожий на существующие ARM, MIPS, POWER или x86. Ядра ориентированы на «работу до конца», это означает, что каждый поток, обрабатывающий пакет, отвечает за него в течение всего времени прохождения через NPU. Это исключает простаивание или «переброс пакетов» между ядрами. Различные типы пакетов требуют разных вычислений и имеют разные размеры, поэтому производительность процессорного массива в Cisco NPU непостоянна. Тем не менее, решение поддерживает традиционные пути программирования и может использовать языки C или ассемблер. Поскольку каждый пакет занимает свой поток, это означает одновременную обработку 2688 пакетов. Пакеты поступают из внешней памяти DRAM в массив SRAM, причём, ускорители могут обращаться к DRAM независимо от основного массива, который получает данные из SRAM.

Серия корневых коммутаторов Cisco Nexus 9000 использует описываемые в заметке NPU

Серия корневых коммутаторов Cisco Nexus 9000 использует описываемые в заметке NPU

Сетевой процессор Cisco, описанный в презентации, способен обрабатывать пакеты на скорости 800 Гбит/с, но более привычно говорить о 400 Гбит/с в полнодуплексном режиме. Интерфейс SERDES имеет совокупную пропускную способность порядка 6,5 Тбит/с. Большая часть линий используется для подключения DRAM и TCAM (Ternary Content Addressable Memory) — последняя являет собой некий гибрид SRAM и DRAM и обычно используется для хранения списков доступа (Access Control List, ACL). Большая часть функциональных блоков NPU работает на частоте 760 МГц или 1 ГГц, что на фоне современных ЦП общего назначения выглядит весьма скромно. Интерфейсы MAC поддерживают воплощение PHY практически любого типа со скоростями от 10 до 100 Гбит/с. В составе процессора имеется встроенный менеджер трафика, способный дирижировать 256 тысячами запросов за раз и выдерживать при этом нагрузку порядка половины триллиона объектов в секунду (в основном, пакетов).

В модели Nexus 9000 на снимке хорошо видны четыре NPU. Сверхмощное охлаждение не требуется

В модели Nexus 9000 на снимке хорошо видны четыре NPU. Сверхмощное охлаждение не требуется

Интегрированные блоки ускорителей предназначены для разгрузки процессора от обработки таких функций, как IPv4 и IPv6 prefix look ups, сжатия и хеширования диапазона IP-адресов, приоритизации пакетов и сбора статистики QoS. Внутри упаковки имеется также некоторое количество собственной памяти DRAM, и это хорошо видно на снимке процессора — причём, логика, против ожиданий, занимает меньший кристалл, а больший приходится именно на память. Подключается она с помощью 28 линий SERDES, работающих на скорости 12,5 Гбит/с, что вдвое медленнее продвигаемого сейчас стандарта 25, но совокупная производительность двух контроллеров памяти составляет порядка 37,5 Гбайт/с — не так уж мало, хотя современные ЦП умеют работать с памятью и быстрее. Интересно, что 22-нм техпроцесс используется не везде: с его применением произведён только сам процессор, а вот логика SERDES использует 28-нм, а DRAM и вовсе выпущена с применением 30-нм технологических норм. Приведённое описание даёт неплохое представление о возможностях NPU Cisco. Пусть это предыдущее поколение, но с учётом параметров чипа довольно легко представить, на что способны аналогичные процессоры нового поколения, выпущенные с использованием 16-нм техпроцесса.

Постоянный URL: http://servernews.ru/958639
28.08.2017 [11:34], Алексей Степин

Адаптеры Mellanox нашли применение в ЦОД Alibaba Group

За термином RoCE стоит технология RDMA over Converged Ethernet, позволяющая использовать режим DMA в сетевой инфраструктуре. При этом не используются ресурсы ядра ОС и процессора, что разгружает серверы для выполнения более важных задач вместо обработки сетевого трафика. Одним из лидеров в этой области является компания Mellanox с серией процессоров ConnectX. На сегодняшний день создано уже шестое поколение этих уникальных чипов, которые могут работать и как контроллеры InfiniBand, и как решения Ethernet. Но Alibaba Group решила использовать в своих центрах обработки данных проверенные временем адаптеры на базе чипов ConnectX-4 EN.

Двухпортовый адаптер Mellanox ConnectX-4 EN

Двухпортовый адаптер Mellanox ConnectX-4 EN

Эти процессоры полностью поддерживают Ethernet на скорости 100 Гбит/с, способны работать в режиме SR-IOV и освобождают центральный процессор от всего, что связано с обработкой транспортных сетевых операций. Имеется аппаратный механизм виртуализации и средства ускорения таких видов трафика, как NVGRE, VXLAN и GENEVE. Адаптеры используют интерфейс PCIe x16 3.0 и бывают как одно-, так и двухпортовыми. Они совместимы со всем диапазоном скоростей Ethernet, от 1 до 100 Гбит/с. Некоторые модели ограничены скоростями 40/56 Гбит/с, но во всех случаях используется разъём типа QSFP28. Поддерживается подключение как пассивной меди с защитой от статического электричества, так и активных оптических кабелей.

Один из залов ЦОД Alibaba Group

Один из залов ЦОД Alibaba Group

Не в последнюю очередь технологии Mellanox были выбраны из-за наличия подробнейшего программного сопровождения. Комплект DPDK (Data Path Development Kit) предоставляет простой и удобный фреймворк для организации систем быстрой обработки пакетных данных и позволяет разработчикам быстро создавать действующие прототипы. Активное сотрудничество с крупными китайскими компаниями и центрами обработки данных скажется благотворно как на доходах Mellanox, так и на таких клиентах, как Alibaba Group, которые получают в своё распоряжение быструю и надёжную сетевую инфраструктуру класса 25/100G. В целом также наблюдается тенденция перехода китайских компаний на более скоростные и совершенные сетевые решения.

Постоянный URL: http://servernews.ru/957641
12.08.2017 [22:00], Алексей Степин

Новые продукты Broadcom: адаптеры NVMe over FC и сетевые процессоры с поддержкой 100G

Вычислительные мощности постоянно растут, и вместе с ними растут требования к сетевой инфраструктуре. Если для домашнего пользователя стандартом давно стал проводной Gigabit Ethernet, который в последнее время активно теснит распространение беспроводных устройств формата 802.11ac, то в серверных и кластерных системах, а также суперкомпьютерах остро стоит вопрос производительности сетевой среды. Скоростями в районе 10‒40 Гбит/с уже никого не удивишь, и индустрия активно осваивает новые стандарты, такие, как 100G. Компания Broadcom, известная в числе прочего и своими сетевыми процессорами, представила новое поколение чипов с поддержкой скорости 100 Гбит/с.

Новые чипы серии Smart NIC NetXtreme BCM588xx являются первыми в мире полностью программируемыми сетевыми процессорами с поддержкой стандарта 100G. В их основе лежит кластер из 8 ядер ARMv8 (Cortex-A72) с частотой 3 ГГц, оптимизированный с учётом использования в сценариях типа NVMe over Fabric. Чипы производятся с использованием 16-нм техпроцесса FinFET+ и поддерживают интерфейс PCI Express 3.0. Также в них интегрирован трёхканальный контроллер памяти DDR4 — опция, абсолютно необходимая при построении эффективных сетей с такими скоростями. Имеется криптографический движок с производительностью 90 Гбит/с и средства разгрузки при работе с массивами RAID. В настоящее время Broadcom уже поставляет образцы новых сетевых платформ как в виде платы расширения PCIe 3.0 формата HHHL (BCM58802), так и в виде платы формата ATX (BCM58808). Полностью с характеристиками нового семейства можно ознакомиться на сайте компании-разработчика.

Адаптер Emulex Fibre Channel шестого поколения (3,2 Гбайт/с)

Адаптер Emulex Fibre Channel шестого поколения (3,2 Гбайт/с)

Также Broadcom анонсировала новые решения класса NVMe over Fibre Channel — эта физическая среда часто используется для подключения вычислительных узлов к системам хранения данных, и полноценная поддержка набирающего популярность протокола NVMe приходится тут как нельзя более кстати. Этот протокол оптимизирован с учётом особенности твердотельных накопителей, которые в последнее время активно вытесняют традиционные механические жёсткие диски из СХД, особенно там, где требуется высокая производительность на случайных операциях. Новые адаптеры, выпускаемые под брендом Emulex, прошли квалификационное тестирование на соответствие стандарту NVMe over FC (Gen 6, 3,2 Гбайт/с) и совместимость с продуктами других производителей, в частности, коммутаторами Brocade X6 Director, G620 и серией Cisco MDS 9000.

Постоянный URL: http://servernews.ru/956875
Система Orphus