Материалы по тегу: ethernet

14.11.2017 [22:47], Алексей Степин

SC17: новинки Mellanox

Компания Mellanox — один из признанных лидеров рынка высокоскоростных сетевых решений. В своё время при упоминании технологии InfiniBand первое имя, которое с ней ассоциировалось, — именно Mellanox. Сейчас InfiniBand по-прежнему используется, но, скорее, является нишевой технологией на фоне повсеместного проникновения Ethernet. Mellanox, однако, уже давно работает и с гибридными решениями типа InfiniBand over IP, а также создает сетевые процессоры, изначально ориентированные на работу с Ethernet. Конференция SC17 посвящена суперкомпьютерам и кластерным системам, а сетевые соединения являются очень важной их частью, поэтому неудивительно, что Mellanox демонстрирует свои новые решения, в частности, серию сетевых адаптеров Innova-2 на базе ПЛИС (FPGA) и платформу для построения мощных коммутаторов класса 200G.

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Серия Innova-2 отличается большой гибкостью благодаря использованию ПЛИС Xilinx Kintex UltraScale. По сути, это не сетевой адаптер, а «заготовка», которая может быть прошита по желанию клиента на выполнение любых требуемых им операций, например, в области криптографии. Сердцем новой серии выступает чип ConnectX-5, а ПЛИС, как уже понятно из описания, работает в роли программируемого ускорителя. По оценкам разработчиков, Innova-2 в шесть раз производительнее аналогичных по возможностям решений других компаний, и при этом стоимость владения соответствующей инфраструктуры ниже в 10 раз. Поддерживают эти сетевые ускорители как Ethernet (вплоть до 100 Гбит/с), так и InfiniBand. Чтобы системная шина не стала узким местом, внедрена поддержка интерфейсов PCI Express 4.0 и OpenCAPI, хотя, разумеется, для раскрытия их потенциала потребуются соответствующие системные платы. Форм-фактор сервера не столь важен — при габаритах HHHL (половинная длина, половинная высота) двухпортовый адаптер Innova-2 без проблем установится практически в любой корпус.

Сетевой адаптер — это одна из конечных точек инфраструктуры. На другой неизбежно находится коммутатор, от которого во многом зависит пропускная способность и эффективность работы сети в целом. Есть у Mellanox что предложить и в этой сфере. Новая серия коммутаторов Quantum поддерживает скорости до 200 Гбит/с на порт и является первой в индустрии, использующей ядро Linux в качестве базовой ОС в комплексе с драйвером Switchdev. Даже младшая модель, Quantum QM8700, может предоставить в распоряжение проектировщика сети 40 портов со скоростью 200 Гбит/с (или вдвое больше портов 100 Гбит/с), а модульные масштабируемые Quantum CS8510 и Quantum CS8500 и вовсе оперируют цифрами 200 и 800 портов класса 200G. Любопытно, что новая связка Linux + Switchdev доступна и для серии Mellanox Spectrum. Но семейство Quantum, по мнению компании, не имеет аналогов: оно в 4 раза дешевле, в 2 раза быстрее и экономичнее, нежели сопоставимые по классу решения конкурентов. Ознакомиться с достижениями Mellanox можно на SC17 в павильоне 653.

Постоянный URL: http://servernews.ru/961511
18.09.2017 [09:49], Алексей Степин

Cisco NPU: сетевой процессор с производительностью 400 Гбит/с

О проблемах и путях развития стандарта Ethernet мы совсем недавно рассказывали читателям. Как было упомянуто в заметке, одной из самых важных вех в процессе этого развития является создание сетевых процессоров с огромной агрегированной пропускной способностью. Об одном из таких процессоров мы поведаем сегодня. На конференции Hot Chips представитель компании Cisco Systems Джейме Маркевич (Jamie Markevitch) продемонстрировал безымянный, но уже поставляемый клиентам чип и рассказал о его особенностях. Это большая редкость — услышать подробности о корпоративных разработках такого уровня, исключением может послужить Mellanox и ещё пара компаний. К сожалению, самого интересного, а именно, снимков процессора для коммутаторов с пропускной способностью 6,5 Тбит/с показано не было, но интерес представляет и архитектура чипа, способного работать на скорости 400 Гбит/с.

Против ожидания, вся процессорная мощь NPU находится в правом кристалле

Против ожидания, вся процессорная мощь NPU находится в правом кристалле

Это не 16-нм ASIC под названием CloudScale, представленный Cisco в марте 2016 года, основанный на сигнальном стандарте 25G и применяемый в серии корневых коммутаторов Nexus 9500. Данная версия выпущена раньше и использует 22-нм техпроцесс, но, скорее всего, имеет схожую с CloudScale архитектуру. Данный NPU не является монолитным устройством с фиксированным количеством портов, он предназначен для построения модульных систем с несколькими такими сетевыми процессорами на борту, соединяемыми собственной шиной. Чип очень похож на начинку коммутаторов Nexus 9000, но в тех была использована ещё более старая 28-нм версия. Пока Intel рассуждает о гибридных процессорах, Cisco уже имеет решения с такой архитектурой в своём арсенале и выпускает их серийно. Описываемый кристалл состоит из 9,2 миллиардов транзисторов и имеет 672 процессорных ядра, каждое из которых способно выполнять до 4 потоков.

Общая архитектура и расположение функциональных блоков внутри NPU

Общая архитектура и расположение функциональных блоков внутри NPU

Объём памяти SRAM составляет внушительные 353 Мбайт. Это очень дорогая и быстрая память, в данном процессоре она играет роль кеша нулевого уровня, в котором хранятся как инструкции, так и данные для каждого потока (не ядра!). На каждый кластер из 16 ядер имеется и более привычный кеш L1. Каждое ядро имеет восьмистадийный неблокируемый конвейер, между потоками он переключается по алгоритму round-robin. Всего в чипе 42 16-ядерных кластера, они соединены с кешем инструкций L2, имеющим 4-уровневую ассоциативность. Он же служит межъядерной соединительной сетью, объединяющей все функциональные блоки процессора воедино. Внутренняя сеть работает на частоте 1 ГГц и обладает совокупной пропускной способностью более 9 Тбит/с. Имеется 276 интерфейсов типа SERDES для общения с внешним миром. Часть транзисторного бюджета, разумеется, задействована для реализации всяческих ускорителей, буферов и контроллеров интерфейсов.

NPU и его подсистемы памяти

NPU и его подсистемы памяти

Cisco не раскрывает деталей о том, какой набор инструкций используется в их сетевых процессорах. Это может быть что угодно, включая полностью уникальный набор, не похожий на существующие ARM, MIPS, POWER или x86. Ядра ориентированы на «работу до конца», это означает, что каждый поток, обрабатывающий пакет, отвечает за него в течение всего времени прохождения через NPU. Это исключает простаивание или «переброс пакетов» между ядрами. Различные типы пакетов требуют разных вычислений и имеют разные размеры, поэтому производительность процессорного массива в Cisco NPU непостоянна. Тем не менее, решение поддерживает традиционные пути программирования и может использовать языки C или ассемблер. Поскольку каждый пакет занимает свой поток, это означает одновременную обработку 2688 пакетов. Пакеты поступают из внешней памяти DRAM в массив SRAM, причём, ускорители могут обращаться к DRAM независимо от основного массива, который получает данные из SRAM.

Серия корневых коммутаторов Cisco Nexus 9000 использует описываемые в заметке NPU

Серия корневых коммутаторов Cisco Nexus 9000 использует описываемые в заметке NPU

Сетевой процессор Cisco, описанный в презентации, способен обрабатывать пакеты на скорости 800 Гбит/с, но более привычно говорить о 400 Гбит/с в полнодуплексном режиме. Интерфейс SERDES имеет совокупную пропускную способность порядка 6,5 Тбит/с. Большая часть линий используется для подключения DRAM и TCAM (Ternary Content Addressable Memory) — последняя являет собой некий гибрид SRAM и DRAM и обычно используется для хранения списков доступа (Access Control List, ACL). Большая часть функциональных блоков NPU работает на частоте 760 МГц или 1 ГГц, что на фоне современных ЦП общего назначения выглядит весьма скромно. Интерфейсы MAC поддерживают воплощение PHY практически любого типа со скоростями от 10 до 100 Гбит/с. В составе процессора имеется встроенный менеджер трафика, способный дирижировать 256 тысячами запросов за раз и выдерживать при этом нагрузку порядка половины триллиона объектов в секунду (в основном, пакетов).

В модели Nexus 9000 на снимке хорошо видны четыре NPU. Сверхмощное охлаждение не требуется

В модели Nexus 9000 на снимке хорошо видны четыре NPU. Сверхмощное охлаждение не требуется

Интегрированные блоки ускорителей предназначены для разгрузки процессора от обработки таких функций, как IPv4 и IPv6 prefix look ups, сжатия и хеширования диапазона IP-адресов, приоритизации пакетов и сбора статистики QoS. Внутри упаковки имеется также некоторое количество собственной памяти DRAM, и это хорошо видно на снимке процессора — причём, логика, против ожиданий, занимает меньший кристалл, а больший приходится именно на память. Подключается она с помощью 28 линий SERDES, работающих на скорости 12,5 Гбит/с, что вдвое медленнее продвигаемого сейчас стандарта 25, но совокупная производительность двух контроллеров памяти составляет порядка 37,5 Гбайт/с — не так уж мало, хотя современные ЦП умеют работать с памятью и быстрее. Интересно, что 22-нм техпроцесс используется не везде: с его применением произведён только сам процессор, а вот логика SERDES использует 28-нм, а DRAM и вовсе выпущена с применением 30-нм технологических норм. Приведённое описание даёт неплохое представление о возможностях NPU Cisco. Пусть это предыдущее поколение, но с учётом параметров чипа довольно легко представить, на что способны аналогичные процессоры нового поколения, выпущенные с использованием 16-нм техпроцесса.

Постоянный URL: http://servernews.ru/958639
12.09.2017 [21:10], Алексей Степин

Ethernet: этапы развития и прогнозы

Рынок коммутаторов Ethernet довольно предсказуем. За последнее десятилетие образовалось своеобразное правило: десятикратное увеличение скорости при трёхкратном росте цены. Однако это правило споткнулось на отметке 100 Гбит/с — на момент появления решений, способных работать с такими скоростями, они оказались слишком дорогими, и большинство клиентов решили придерживаться более доступного стандарта 40 Гбит/с. Сегодня 100 Гбит/с понемногу становится сравнительно доступным решением, но, похоже, этот стандарт уже опоздал: объёмы хранения данных и требования к пропускной способности сетей растут быстрее нежели производительность реальных сетевых устройств.

Стандарт 40G менее эффективен, нежели 25G

Стандарт 40G менее эффективен, нежели 25G

Стандарт Gigabit Ethernet появился в 1998 году, следующая итерация — 10GbE увидела свет в 2002 году. Этот стандарт был быстро принят владельцами серверных центров, СХД и ЦОД. Но переход на 100 Гбит/с в течение обычных 3‒4 лет не состоялся. Произошло это потому, что разработчики вовремя не справились с разработкой сигнальных линий со скоростью передачи 25 Гбит/с, и производители серверного оборудования вместо этого взяли за основу линии со скоростью 10 Гбит/с и создали стандарт 40 Гбит/с, который был принят крупными клиентами просто потому, что потребности в таких скоростях уже назрели, а стандарт 100 Гбит/с задерживался. Но применение линий с пропускной способностью 25 Гбит/с выгоднее в плане эффективности использования имеющихся ресурсов и даже в количестве доступных портов в пересчёте на коммутатор.

Текущий прогноз IEEE Ethernet Working Group

Текущий прогноз IEEE Ethernet Working Group

Таблица, опубликованная Alcatel‒Lucent, приведённая в начале заметки, это подтверждает. Подсчитано, что с использованием сигнальных линий стандарта 25 Гбит/с для соединения 100 тысяч серверов потребуется 1042 коммутатора (3,2 Тбайт, 96 портов 25 Гбит/с, 8 портов 100 Гбит/с). Скорость, будет не столь быстрой как в системах класса 40G, но для увеличения сетевой пропускной способности до 50 Гбит/с потребуется всего 2084 коммутатора, в то время как аналогичный по вместимости ЦОД на базе технологий 40G потребует 3572 коммутатора, каждый из которых, к тому же, будет загружен не полностью. Но здесь стоит поговорить о будущем. Вычислительные мощности растут, растут объёмы хранимых данных, а значит, и 100 Гбит/с — не предел. Прогнозы 2007 года в 2017-м выглядят довольно забавно: в 2013-м мы должны были получить 400 Гбит/с, а в 2015 году — уже 1 Тбит/с.

Закон Мура по отношению к сетевым ASIC

Закон Мура по отношению к сетевым ASIC

В 2012 году прогнозы несколько изменились. IEEE Ethernet Working Group опубликовала любопытный график, из которого следует, что скорость 1 Тбит/с потребуется крупным ЦОД в 2015 году, а в 2020-м появятся сетевые устройства с производительностью 10 Тбит/с. 2015 год уже миновал. У нас нет оборудования класса 400 Гбит/с, а тем более — класса 1 Тбит/с. Но в целом, отставание роста пропускной способности сетей от вычислительных мощностей ЦОД пройдено — теперь сетевые технологии вновь развиваются быстрее. Пропускная способность сетевых ASIC, используемых в коммутаторах, удваивается примерно каждые 18 месяцев, однако, её рост сдерживается технологическими причинами, например, размером чипов. Для соответствия закону Мура от производителей таких ASIC потребуется переход на сигнальные линии 50 Гбит/с примерно в 2018 году и дальнейшее их развитие до скорости 100 Гбит/с к 2020 году. А это означает создание чипов с совокупной пропускной способностью 25,6 Тбит/с.

Ближайшее будущее Ethernet

Ближайшее будущее Ethernet с учётом прогресса в пропускной способности сигнальных линий

Ожидается, что классического десятикратного скачка не произойдёт — то есть, решений с 10 линиями 100 Гбит/с в 2020 году мы не увидим. Скорее, будут заполняться лакуны (1x, 4x и 8x). На вышеприведённой диаграмме хорошо видно, что, играя с количеством сигнальных линий, будет нетрудно получить скорости 200, 400 и даже 800 Гбит/с. Такой выбор позволит оптимизировать стоимость сетевой инфраструктуры новых ЦОД, кластеров и суперкомпьютеров. Скорости порядка 800 Гбит/с и, вероятно, 1,6 Тбит/с получат применение в районе 2020 года или позднее. С учётом развития полупроводниковых технологий, новые прогнозы и карты развития стандарта Ethernet будут опубликованы в следующем году.

Постоянный URL: http://servernews.ru/958398
16.04.2017 [10:00], Алексей Степин

Коммутатор Buffalo BS-MP20 поддерживает новые стандарты Ethernet

Стандарт Gigabit Ethernet не только окончательно вытеснил более медленные сети, но и сам вплотную приблизился к порогу, когда его возможностей недостаточно при использовании мало-мальски быстрой системы хранения данных или сервера. Инфраструктура, рассчитанная на 10-гигабитные скорости, быстро дешевеет, но пока приобрести хотя бы четырёхпортовый коммутатор стандарта 10GBase-T остаётся достаточно дорогой задачей, не говоря уже о большем количестве портов. Но полноценные 10 Гбит/с нужны не всем, порой достаточно 5 или даже 2,5 Гбит/с. Такие скорости описываются в новом стандарте IEEE 802.3bz, принятом в 2016 году.

Подобные сетевые карты существуют, но коммутаторов пока ещё не было; похоже, модель Buffalo BS-MP20 может смело претендовать на лавры первенства в сфере оборудования с поддержкой стандарта IEEE 802.3bz, в котором описываются скорости передачи данных 2,5 и 5 Гбит/с. Если быть точным, то это не одна модель — компания представила 8 и 12-портовые версии нового коммутатора. Цены пока не радуют: на полках магазинов Страны восходящего солнца красуются ценники 105 840 иен за младшую модель и 158 000 иен за старшую, что в пересчёте на более привычные валюты составляет $975 и $1455. В комплект поставки входит кабель питания и средства для монтажа в стандартную 19-дюймовую стойку.

Впрочем, такие высокие цены обусловлены тем, что серия Buffalo BS-MP20 не ограничена стандартом IEEE 802.3bz, а поддерживает и традиционные сети стандарта 10GBase-T (IEEE 802.3an), хотя для этого и требуется наличие кабельной инфраструктуры класса 6A. Для скорости 5 Гбит/с достаточно кабелей шестой категории, а если потребности не выходят за рамки 2,5 Гбит/с, то можно ограничиться и кабелям категории 5E. Так или иначе, от рядового энтузиаста новые коммутаторы пока далеки, и он, скорее всего, предпочтёт экспериментировать с инфраструктурой SFP+, благо, на вторичном рынке полно соответствующего оборудования. Новые коммутаторы Buffalo выполнены в едином корпусе с габаритами 330 × 44 × 230 мм, восьмипортовая модель весит 2,4 кг, а двенадцатипортовая — 2,56 кг.

Постоянный URL: http://servernews.ru/950783
06.02.2017 [13:15], Алексей Степин

Mellanox представила новую сетевую платформу Indigo IDG4400 Flex Network

Компанию Mellanox заслуженно считают лидером в области разработок, связанных с интерфейсом и стандартом InfiniBand, но она занимается и сетевыми решениями в целом, в том числе, и связанными с Ethernet. Сейчас компания анонсировала новую платформу IDG4400 Flex Network, сердцем которой является сетевой процессор Indigo NPS-400. Он способен вести обработку пакетов без потерь на всех уровнях, от L2 до L7 на скоростях до 500 Гбит/с и производить глубокое сканирование пакетов данных (deep packet inspection, DPI) на скорости до 320 Гбит/с при количестве потоков данных, исчисляемых миллионами. По словам компании-разработчика, NPS-400 в 20 раз превосходит все остальные предложения этого класса, имеющиеся сейчас на рынке. Единичная платформа IDG4400 выполнена в стоечном корпусе высотой 1U и работает под управлением специальной версии Linux. Для программирования сетевых функций используется распространённый язык С.

Одна платформа типа IDG4400 способна обслуживать на уровне DPI полный серверный шкаф. К тому же, процессор Indigo может использоваться совместно с системами коммутации, разработанными Mellanox и тем самым обеспечивать создание сред Ethernet с подключениями на скоростях 10, 25, 40, 50 или 100 Гбит/с. При этом гарантируется детерминированная доставка пакетов с нулевыми потерями и обеспечивается масштабируемость в случае необходимости наращивания мощности сетевой экосистемы. Сочетание IDG4400 и Spectrum Ethernet обеспечивает центры обработки данных любой степени сложности готовым, высокопроизводительным и выгодным решением, способным выполнять задачи коммутации и инспекции пакетов на всех уровнях.

Один из примеров использования платформы Indigo IDG4400

Один из примеров использования платформы Indigo IDG4400

В настоящее время задачи сетевой безопасности и прочие сетевые задачи часто строятся на базе дорогостоящих серверов общего назначения и используют общие ресурсы, такие, как процессорное время и оперативная память. Применение платформы Mellanox Indigo IDG4400 Flex Network в сочетании с коммутаторами Spectrum Ethernet позволяет разгрузить серверы от вышеупомянутых задач и высвободить процессорное время и прочие ресурсы. Решение Mellanox является более выгодным в использовании, ведь разгружая серверы, оно снижает и величину затрат на обеспечение функционирования ЦОД. В дополнение к аппаратным решениям, Mellanox предоставляет полный набор программных средств для разработчиков, внедряющих новую сетевую платформу. Входящие в комплект разработчика библиотеки совместимы со стандартом OpenNPU и отлично интегрируются с программным обеспечением с открытым исходным кодом.

Постоянный URL: http://servernews.ru/947097
11.01.2017 [11:54], Алексей Степин

CES 2017: частично управляемый коммутатор Netgear Nighthawk S8000

Год от года число устройств, подключённых к сети, растёт практически в каждой семье. Набирают популярность новые форматы высокого разрешения и соответствующие интернет-сервисы. В результате, обойтись простейшей домашней сетевой инфраструктурой становится всё труднее: потоковое вещание в хорошем качестве требует гарантированной полосы пропускания. Для тех, кто сталкивался с такой проблемой или заранее хочет её избежать, предназначен новый частично управляемый сетевой коммутатор Netgear Nighthawk S8000, продемонстрированный на CES 2017.

Данная модель явно нацелена на домашнее использование, поскольку имеет симпатичный шестиугольный корпус с V-образной подсвеченной вставкой и заднее расположение портов Gigabit Ethernet. Портов этих у новинки восемь, чего, в принципе, достаточно для большинства домашних сценариев использования. Обычно дешёвые бытовые коммутаторы Ethernet являются неуправляемыми и не поддерживают таких функций, как агрегация соединений, но Netgear Nighthawk S8000 (модель GS808E) относится, как минимум, частично, к управляемым коммутаторам класса Layer 2 с поддержкой IP multicast.

Компания-разработчик не привела подробных характеристик Nighthawk S8000, но уже известно, что в новом коммутаторе будет предусмотрена функция приоритезация трафика и контроля качества (QoS) для каждого порта, реализована защита от атак типа Denial of Service (DoS) и поддержка IGMP snooping, полезная при использовании многоадресного (multicast) IP-трафика, например, у провайдеров, предоставляющих услугу IPTV. Сообщается о наличии трёх предустановленных режимов (gaming, media streaming и standard LAN) и двух пустых слотах для пользовательских настроек. Поддерживается и объединение портов GbE: вплоть до четырёх портов могут работать вместе, обеспечивая пропускную способность до 4 Гбит/с. Купить новый коммутатор можно будет в марте, стоимость новинки составляет $100. На неё будет распространяться трёхлетняя гарантия.

Постоянный URL: http://servernews.ru/945620
07.11.2016 [12:51], Алексей Степин

Цены на компоненты инфраструктуры 10GbE снижаются

Совсем недавно мы рассказывали о первом доступном коммутаторе с поддержкой стандарта 10GBase-T — ASUS XG-U2008. Стоит он всего $249, но при всех своих достоинствах обладает одним недостатком: портов, способных работать на скорости 10 Гбит/с у него всего два, а в некоторых случаях этого может оказаться недостаточно. Здесь на помощь приходит компания Buffalo, выпустившая два новых коммутатора BS-XP2008 и BS-XP2012 с восемью и двенадцатью портами 10GBase-T, соответственно.

Стоимость их, конечно, далеко не столь низка, как в случае с детищем ASUS: младшая модель обойдётся поклоннику высокоскоростных проводных сетей в 98 тысяч иен ($950), а старшая и того дороже — 158 тысяч иен ($1530). Обе модели поддерживают размер кадра Ethernet до 9216 байт, а также технологии VLAN и QoS. Габариты коммутаторов Buffalo составляют 330 × 230 × 44 миллиметра, весят они около 2,5 килограммов и снабжаются креплениями для установки в стандартную 19-дюймовую серверную стойку.

Всё-таки это скорее профессиональное, нежели домашнее оборудование. Представила новые модели и компания Elecom. Её коммутатор с четырьмя портами 10Gbase-T EHB-UT2A04F стоит всего 59800 иен ($580), а восьмипоротовый EHB-UT2A08F оценен в ¥89800 ($870). Пока цены на оборудование 10GBase-T остаются достаточно высокими для рядового пользователя, но уже наметилась серьёзная тенденция к их снижению, и ASUS XG-U2008 здесь играет роль первой ласточки. Со временем мы должны увидеть в этом сегменте всё больше и больше продуктов с доступной ценой.

Постоянный URL: http://servernews.ru/942244
14.10.2016 [12:48], Алексей Степин

ASUS ломает ценовые стереотипы в мире 10GBase-T

Как мы уже неоднократно отмечали, возможности стандарта Gigabit Ethernet исчерпаны не только в серверной сфере, но и в бытовой, однако распространение более скоростных стандартов сдерживается слишком высокой стоимостью коммутаторов (от $700), хотя цены на сетевые адаптеры, кабели, трансиверы SFP+ и прочую инфраструктуру уже давно находятся на приемлемом практически для любого рядового пользователя уровне. По понятным причинам такому пользователю не слишком-то хочется организовывать два канала Ethernet: общий для доступа к всемирной сети и выделенный 10-гигабитный для связи с домашней СХД. Но выбора до недавних пор у него практически не было.

Компания ASUS решила сломать стереотипы и выпустила первый доступный сетевой коммутатор с поддержкой стандарта 10GBase-T. Новинка носит название XG-U2008, впервые она была представлена ещё на CES 2016. В отличие от серверных собратьев, в конструкции этого коммутатора компания уделила серьёзное внимание дизайну: он выполнен в красивом металлическом корпусе из шлифованного металла, а порты расположены не спереди, как у серверных коммутаторов, а сзади. Впрочем, установка кронштейнов для монтажа в 19″ стойку поддерживается. Спереди же имеются лишь индикаторы питания и активности портов. Белые диоды отмечают активность на портах со скоростью 1 Гбит/с, а синие — 10 Гбит/с. Если кабель не подходит для работы на такой скорости, они светятся оранжевым цветом.

Стоимость новинки составляет всего $249, и за эту цену покупатель получает в своё распоряжение два полноценных порта 10GBase-T и восемь традиционных портов Gigabit Ethernet. Это правильное решение, поскольку в подавляющем большинстве случаев домашние пользователи используют именно витую пару, а при сравнительно небольшой длине кабелей даже для 10-гигабитных портов можно обойтись существующей кабельной инфраструктурой. Коммутатор обладает максимальной производительностью 56 Гбит/с, поддерживает размер фрейма Ethernet до 16 Кбайт и имеет буфер памяти ёмкостью 2 Мбайт. О возможности агрегирования каналов производитель не упоминает. Питается новый коммутатор ASUS от внешнего адаптера мощностью 18 ватт. Не исключено, что компания может выпустить и модель с более универсальными 10-гигабитными портами SFP+.

Постоянный URL: http://servernews.ru/940883
28.08.2016 [23:00], Алексей Степин

Сетевой адаптер Innodisk ESPL-G4P1 имеет функцию PoE

Технология Power over Ethernet очень удобна, когда сетевых устройств много — не приходится возиться с многочисленными адаптерами питания, поскольку питание устройства получают прямо по витой паре. Обычно для реализации PoE требуется установка дополнительных инжекторов питания, что лишь усложняет схему сети, но с сетевыми адаптерами Innodisk ESPL-G4P1 и EMPL-G2P1 такого не потребуется.

Новые сетевые карты, рассчитанные на стандарт Gigabit Ethernet, снабжены интерфейсами PCI Express 2.0 x1 и mini-PCIe, соответственно; они имеют встроенные инжекторы питания PoE, соответствующие стандартам 802.3af и 802.3at/af. Первый реализован в двухпортовой модели EMPL-G2P1 и может выдавать в сеть мощность до 15 ватт, а второй поддерживается четырёхпортовой моделью ESPL-G4P1, и максимальная мощность здесь составляет уже 30 ватт.

Внешнее питание к картам подводится посредством шестиконтактного разъёма PCIe. Обе модели имеют защиту от перенапряжения до 2 киловольт и защиту по стандарту 2000V HiPOT. Модель ESPL-G4P1 использует коммутатор PCIe и четыре независимых чипа-контроллера GbE. Она доступна уже сейчас. А вот двухпортовая более компактная модель EMPL-G2P1 в форм-факторе Mini-PCIe будет доступна лишь в конце сентября этого года.

Постоянный URL: http://servernews.ru/938516
24.06.2016 [11:55], Алексей Степин

Новый сетевой адаптер GIGABYTE CLN4314 имеет четыре порта GbE

Многие энтузиасты, утратив надежду добиться стабильности программного обеспечения, поставляемого с бытовыми маршрутизаторами, собирают собственные модели на базе Linux или FreeBSD, иногда даже используя серверное аппаратное обеспечение. Им явно пригодится новый четырёхпортовый сетевой адаптер GIGABYTE CLN4314.

Карта эта построена на базе чипа Intel i350-AM4 и, как уже было сказано, поддерживает сразу четыре порта Gigabit Ethernet. Габариты её составляют всего 120 × 68,9 мм, плата имеет половинную высоту, интерфейс PCIe x4 2.0 и поставляется в комплекте с двумя крепёжными планками. Чип прикрыт небольшим алюминиевым радиатором.

Контроллер потребляет не более 4 ватт и поддерживает Jumbo Frames, объединение портов и технологии виртуализации Intel. Что касается программного обеспечения, то GIGABYTE CLN4314 совместим практически со всеми операционными системами семейства Windows Server (только 64 битные версии) и Linux, а также поддерживает VMWare 6.0. Розничная стоимость новинки неизвестна.

Постоянный URL: http://servernews.ru/935082