Материалы по тегу: 400gbe

22.02.2021 [22:19], Алексей Степин

Российский интерконнект Ангара-2: 200 Гбит/с при задержках до 0,8 мкс

Пять лет назад мы рассказывали о первом поколении российского интерконнекта Ангара или, если говорить более официально, межузловой высокоскоростной коммуникационной сети для суперкомпьютеров и кластеров. В рамках Elbrus Tech Day разработчики из НИЦЭВТ рассказали про второе поколение интерконнекта под названием Ангара-2, которое будет намного быстрее и эффективнее предыдущего.

В сравнении с первой версией были уменьшены задержки — они составляют менее 0,8 мкс, что ниже, нежели у нынешних InfiniBand FDR/EDR/HDR и Intel OmniPath. Снизилась и задержка на сетевой хоп. Скорость соединения выросла до 200 Гбит/с (в планах 400 Гбит/с), появилась поддержка топологий сети вплоть до 6D-тора.

Как и прежде, развитая поддержка RDMA позволяет в рамках сети эффективно строить гибридные системы, включающие в себя узлы на базе архитектур x86, Эльбрус и ARM, а также различные ускорители, в том числе, на базе ПЛИС. Кроме того, создатели работают и над поддержкой NVMe-oF. А в Ангара-2 также появится полноценная поддержка SR-IOV.

Для сети Ангара разработан собственный программный стек, ориентированный, в первую очередь, на высокопроизводительные вычисления. Как и в случае Intel DPDK, есть возможность общения приложений непосредственно с адаптером, минуя стандартные механизмы ядра Linux, за счёт чего и достигается низкий уровень задержек MPI. В Ангара-2 появится более широкий набор поддерживаемых типов сообщений, что упростит создание распределённых СХД на её основе.

Но может Ангара работать и с TCP/IP — совсем недавно разработчики представили вторую версию стека, обеспечивающего функциональность IP-over-Angara. Этот вариант не столь производителен, зато обеспечивает совместимость с существующими IP-решениями, позволяя задействовать RDMA для, к примеру, кластерных ФС.

Решения второго поколения должны появиться к концу текущего года. Контроллер Ангара-2 получит 32 линии PCIe 4.0, причём будет возможность мультихостового подключения — одна карта сможет обслуживать сразу несколько узлов. Адаптеры будут выпущены как в формате полноразмерных карт расширения с шестью портами QSFP-DD для безкоммутаторной топологии, так и в виде низкопрофильных плат с двумя портами для работы с коммутатором.

В первом случае возможно объединить до 1024 узлов в 3D-тор, во втором же использование 40-портовых коммутаторов позволит связать 20480 узлов в сеть с топологией 4D-тор. Под заказ НИЦЭВТ готов создать кастомные варианты с поддержкой 6D-тора и скоростями до 400 Гбит/с на порт.

Первое поколение Ангары уже давно используется в составе различных кластеров, в том числе с современными AMD EPYC Rome. Оно же будет актуально и для новых российских процессоров Эльбрус, так как в прошлом поколении, по словам представителя НИЦЭВТ, скорость работы фактически упирается в южный мост КПИ-2, который имеет только линии PCIe 2.0 x16 и x4.

Постоянный URL: http://servernews.ru/1033236
03.02.2021 [16:21], Алексей Степин

Переход на скорости свыше 400 Гбит/с потребует серьёзных усилий и будет сопровождаться ростом энергопотребления

В настоящее время для крупных телеком-провайдеров и провайдеров облачных услуг 200GbE-подключения — пройденный этап. Активно осваивается скорость 400 Гбит/с, а в планах уже фигурируют цифры 800 Гбит/с и даже 1,6 Тбит/с. Однако если переход от 200G к 400G дался достаточно просто, то при освоении ещё более высоких скоростей ожидается серьёзный набор трудностей, которые ещё только предстоит преодолеть.

Нужда в более скоростных магистралях в ЦОД порождается массой причин, и прежде всего, это рост гиперскейлеров вроде Google, Amazon или Facebook. Свой вклад вносит постоянно растущее число распределённых облачных систем, систем ИИ, машинной аналитики, периферийных вычислений и систем видеоконференций. К 2022 году ожидается, что каждый месяц объём мирового IP-трафика достигнет 396 экзабайт — для сравнения, в 2017 году этот показатель был равен 177 экзабайт.

Фотоника и электроника могут существовать даже в пределах одного кремния

Фотоника и электроника могут существовать даже в пределах одного кремния

Однако существующие медные и даже оптические технологии имеют свои пределы, продиктованные как возможностями скоростной обработки сигналов, так и самой природой физических процессов. В частности, серьёзно растёт энергопотребление таких сетевых систем.

По мнению Cisco, нарастить пропускную способность можно хоть в 80 раз, но для этого потребуется и в 22 раза больше энергии, а каждый ватт, потраченный в ЦОД на сети, означает ватт, который не был потрачен на дополнительную вычислительную мощность в серверах. С этим мнением согласна Microsoft Azure: если продолжить использовать технологии сегодняшнего уровня, ограничителем быстро станут именно энергозатраты.

Коммутатор Xsight Labs с поддержкой 800GbE

Коммутатор Xsight Labs с поддержкой 800GbE

Над решением задачи перехода от 400 Гбит/с к более высоким скоростям, в частности, работают такие организации, как исследовательская группа «IEEE 802.3 Beyond 400 Gbps», сформированная в конце прошлого года. Также есть проект Форума Оптических Сетей (OIF) под названием «800G Coherent project». Его целью является разработка спецификаций для совместимых сетей класса 800G, способных работать на достаточно больших расстояниях, например, в пределах университетского кампуса или крупных комплексов ЦОД.

Для оценки требований к технологиям нового скоростного уровня на этой неделе был созван форум Ethernet Alliance’s Technology Exploration Forum. В нём принимают участие специалисты из крупных компаний, таких как Microsoft, Facebook и Google, а также представители крупных разработчиков сетевого оборудования — Juniper и Cisco. Большие надежды возлагаются на интеграцию традиционных кремниевых и оптических технологий.

Над созданием новых высокоскоростных чипов, совмещающих в едином корпусе электронику и фотонику (co-packaged optics, CPO) работают сейчас Ayar Labs, Broadcom, Cisco, Intel и ряд других компаний-разработчиков. Пока это новое, малоосвоенное поле, но именно на нём ожидается столь необходимый для внедрения сетей класса 800G+ прорыв в области энергопотребления.

Фотоника в исполнении Intel

Фотоника в исполнении Intel

Но экосистема CPO должна быть стандартизирована, дабы не породить «зоопарка» несовместимых или плохо совместимых решений. Над спецификациями CPO сейчас работают Facebook и Microsoft, а форум OIF в это же время занят разработкой единого фреймворка для этой же технологии. Работы предстоит ещё много, но в случае успеха внедрение CPO позволит отказаться от медных соединений в пределах стойки с серверным оборудованием, которые уже не отвечают требованиям «800G and beyond».

От скорейшего внедрения новых сетевых технологий выиграют и клиенты провайдеров: если сейчас для большинства корпоративных заказчиков представляют интерес каналы со скоростью 10 или 25 Гбит/с, то широкое внедрение ИИ-систем и систем видеонаблюдения высокого разрешения потребует новых скоростей, в районе 100-400 Гбит/с. К этому времени должна сложиться устойчивая сетевая инфраструктура, способная «накормить» жадные до трафика системы нового поколения.

Постоянный URL: http://servernews.ru/1031767
17.12.2020 [16:36], Сергей Карасёв

В ближайшие два года ожидается резкий рост спроса на коммутаторы 400G

В 2021 и 2022 гг. ожидается бум поставок высокоскоростных коммутаторов стандарта 400G, обеспечивающих пропускную способность до 400 Гбит/с на порт. Об этом сообщает ресурс DigiTimes, ссылаясь на информацию, полученную от отраслевых источников.

Отмечается, что уже сейчас уровень проникновения устройств класса 100G достаточно высок. Однако стремительное развитие сетей пятого поколения (5G) и новейших интернет-сервисов создаст потребность в дальнейшем наращивании скоростей передачи данных.

Рост спроса на коммутаторы 400G приведёт к увеличению объёма заказов на заготовки для многослойных печатных плат. К повышенному спросу уже готовятся тайваньские поставщики подобных изделий, включая Elite Material, Iteq и Taiwan Union Technology. Кроме того, увеличения количества заказов ожидают и сами производители печатных плат, такие как Gold Circuit Electronics.

Современные коммутаторы стандарта 100G преимущественно базируются на 26-слойных платах. В устройствах 400G количество слоёв возрастёт до 32–36, при этом требования к целостности сигнала возрастут. В такой ситуации прогнозируется увеличение поставок печатных плат с высокой плотностью трассировки (HDI PCB).

Постоянный URL: http://servernews.ru/1028099
14.12.2020 [14:38], Андрей Галадей

Xsight Labs представила коммутатор X1: 25,6 Тбит/с и 32 порта 800GbE

Компания Xsight Labs сообщила о начале поставок образцов нового управляемего коммутатора X1, предназначенного для центров обработки данных. Он обеспечивает высочайшую скорость обмена информацией при очень низком потреблении энергии. Речь идёт о поддержке скоростей в 25,6 и 12,8 Тбит/сек. При этом система потребляет при типовой нагрузке менее 300 и 200 Вт соответственно.

Конструктивно же коммутатор можно смонтировать в стандартную серверную стойку. Компания позиционирует решение в качестве решения для центров обработки данных следующего поколения. Коммутатор удовлетворяет требованиям к пропускной способности ИИ-систем, машинного обучения и там далее.

Новинка основана на 7-нм чипе X1. Он реализует, как утверждается, новую революционную архитектуру и обеспечивает новые уровни мощности и эффективности. Этот чип характеризуется самым низким энергопотреблением в отрасли. X1 поддерживает новую экосистему оптики 800G, обеспечивая двукратное улучшение плотности портов по сравнению с оптикой 400G.

Архитектура коммутации X1, оптимизированная для приложений, обеспечивает минимальное энергопотребление и минимальную задержку для конкретных сценариев развертывания, таких как высокопроизводительные вычисления (HPC), ИИ, машинное обучение и центры обработки данных. X1 поддерживает телеметрию Dataplane Telemetry, которая обеспечивает лучшую в своем классе возможность мониторинга сети для устранения неполадок и анализа ситуации в реальном времени.

Поддерживается широкий спектр конфигураций коммутатора:

  • Для 25,6 Тбит/с: 256 x 100G, 128 x 200G, 64 x 400G, 32 x 800G.
  • Для 12,8 Тбит/с: 256 x 50G, 128 x 100G, 64 x 200G, 32 x 400G, 16 x 800G.

Семейство продуктов X1 включает ряд инструментов для облегчения развертывания и оптимизации потребностей заказчика, в том числе:

  • X-PND Engine: обеспечивает высокий уровень гибкости при распределении ресурсов во время работы
  • X-IQ Engine: интеллектуальная организация очередей Xsight обеспечивает меньшее время завершения потока (FCT) и повышает общую производительность приложения.
  • X-MON: диспетчер мониторинга, анализа и прогнозирования обслуживания Xsight, работающий на базе Universal Chip Telemetry (UCT). Он позволяет центрам обработки данных отслеживать состояние и производительность систем, оптимизировать производительность, продлевать срок службы системы и снижать накладные расходы.

Xsight Labs весной этого года получила инвестиции от Intel Capital. Она ориентирована на создание чипсетов, которые повышают масштабируемость, производительность и эффективность работы вычислительных систем.

Постоянный URL: http://servernews.ru/1027728
16.11.2020 [17:00], Игорь Осколков

SC20: NVIDIA анонсировала InfiniBand NDR: 400 Гбит/c адаптерам уже нужен PCIe 5.0

Вместе с обновлёнными ускорителями A100 и продуктами на его основе NVIDIA анонсировала и решения на базе стандарта InfiniBand NDR который, как и положено, удваивает пропускную способность одной линии до 100 Гбит/с. Новые адаптеры и DPU NVIDIA получат порты 400 Гбит/c, а коммутаторы — 64 порта 400 Гбит/с или 128 портов 200 Гбит/c, способных обработать 66,5 млрд пакетов в секунду. Модульные коммутаторы позволят получить до 2048 портов с суммарной пропускной способностью 1,64 Пбит/с.

Кроме того, повышена масштабируемость сети, которая способна объединить более миллиона GPU всего с тремя «прыжками» (hops) между любыми из них. А с ростом числа узлов снижаются и стоимость владения, и энергопотребление, что будет важно для суперкомпьютеров экзафплосного класса. Компания отдельно отмечает, что для InfiniBand NDR удалось сохранить возможность использования пассивных медных кабелей на коротких расстояниях (до 1,5 м).

Помимо увеличения пропускной способности, вчетверо повышена производительность MPI, за что отвечают отдельные аппаратные движки. А ИИ-приложения могут получить дополнительное ускорение благодаря технологии Mellanox SHARP (Scalable Hierarchical Aggregation and Reduction Protocol). DPU же за счёт наличия ядер общего назначения могут взять на себя часть обработки данных и попутно отвечать за безопасность, изоляцию, мониторинг и управление инфраструктурой. Вообще NVIDIA говорит о распределённом CPU, «живущем» в сети, который эффективно дополняет ускорители компании.

Однако у InfiniBand NDR, как и у конкурирующего стандарта 400GbE, есть и обратная сторона медали. Для новых адаптеров требуются или 16 линий PCIe 5.0, или 32 линии PCIe 4.0. PCIe 5.0 будет доступен ещё нескоро, а линии PCIe 4.0 в современных системах жаждут не только адаптеры, но и накопители, и собственно ускорители. Использование PCIe-свитчей может снизить эффективность обмена данными, так что, вероятно, интереснее всего было бы увидеть DPU с root-комплексами, да покрупнее. Первые продукты на базе нового стандарта должны появиться в втором квартале 2021 года.

Постоянный URL: http://servernews.ru/1025433
28.10.2020 [15:06], Владимир Мироненко

Acacia и Inphi успешно протестировали волоконно-оптическую линию связи стандарта 400ZR длиной 120 км

Поставщик продуктов для когерентных оптических соединений Acacia Communications и один из лидеров в области высокоскоростной передачи данных Inphi сообщили об успешном тестировании волоконно-оптической линии связи стандарта 400ZR протяжённостью 120 км.

«Тестирование продемонстрировало связь без сбоев в режиме 400ZR между модулями Inphi COLORZ II QSFP-DD и Acacia 400ZR QSFP-DD в коммутаторах Arista на 120-километровом усиленном канале с разнесением каналов 75 ГГц», — отмечено в совместном пресс-релизе компаний. Данное тестирование примечательно тем, что два оптических модуля (Inphi COLORZ II QSFP-DD и Acacia 400ZR QSFP-DD) оснащены разными когерентными сигнальными процессорами.

Модули 400ZR: QSFP-DD (слева) и OSFP

Модули 400ZR: QSFP-DD (слева) и OSFP

Оптические трансиверы 400ZR основаны на Соглашении о реализации OIF 400ZR (OIF 400ZR Implementation Agreement), которое содержит спецификации, разработанные для обеспечения возможности взаимодействия когерентных оптических модулей 400G с усилением на расстояние до 120 км, в первую очередь для межсоединений центров обработки данных (DCI). Производители начали анонсировать модули 400ZR в конце 2019 и начале этого года. Например, в декабре прошлого года Inphi представила модульный оптический когерентный трансивер COLORZ II QSFP-DD.

«Отрасль ожидала появления совместимых решений 400ZR для удовлетворения растущего спроса на полосу пропускания DCI, особенно для сетевых операторов, которые развивают свои архитектуры центров обработки данных до 400G Ethernet с оптическими соединениями между коммутаторами, — сказал Том Уильямс (Tom Williams), вице-президент по маркетингу Acacia. — Эти решения предоставляют операторам центров обработки данных большую гибкость в выборе компонентов и поставщиков, которые они используют для построения своих сетей».

Постоянный URL: http://servernews.ru/1023995
19.08.2020 [20:39], Алексей Степин

Коммутатор Intel Tofino2: 12,8 Тбит и 6 млрд пакетов в секунду

О том, что Intel видит будущее любой сетевой инфраструктуры в фотонике, уже известно — компания рассказала об этом на мероприятии Intel Architecture Day. Модули с оптическими трансиверами планируется устанавливать в одной EMIB-упаковке с традиционной электроникой.

Планируется также максимально унифицировать топологию сетей, причём на всех уровнях, от межпроцессорных шин до глобальных каналов, соединяющих расположенные в разных местах ЦОД. Сердцем любой сети, разумеется, являются коммутаторы, Intel делает ставку на программируемые решения в рамках архитектуры Tofino2. О ней и пойдёт речь.

Если на Intel Architecture Day были даны лишь сведения общего характера о том, как компания видит сети будущего, то на Hot Chips 32 «синие» рассказали в деталях о новой архитектуре сетевых коммутаторов Tofino2. Этот проект развивался в рамках приобретения Intel активов компании Barefoot Networks, в своё время прославившейся в узких кругах выпуском полностью аппаратного, со своей ОС на борту, сетевого контроллера Killer NIC.

Эта компания занималась и разработкой высокоскоростных сетевых коммутаторов. Сейчас, когда с момента приобретения Barefoot Networks прошло чуть более года, Intel готова представить подробные результаты. Архитектура Tofino2 следует современным тенденциям и не является жёстко фиксированной — она относится к категории программируемых решений, что должно обеспечить существенную степень гибкости при создании сетей нового поколения.

И речь идёт не только о теории: Intel уже имеет на руках работоспособные системы на базе Tofino2. Как Intel, так и Barefoot пришли к идее программируемого коммутатора ранее, ещё до сделки. Надо сказать, что Tofino2 не является процессором в прямом значении термина; разумеется, эти чипы будут содержать блоки фиксированной логики. В частности, это касается блоков сериализации-десериализации (трансиверов, SerDes).

А вот уровень MAC и основной конвейер обработки у Tofino2 обещают быть программируемыми. За счёт этого Intel надеется уменьшить накладные расходы на масштабировании в новых коммутаторах. Добавление новых функций, по мнению разработчиков, должно обойтись в 20-30% прироста в площади кристалла и уровне энергопотребления, против десятикратного у вероятных аналогов, построенных исключительно на основе фиксированной логике.

Кроме того, за счёт такой программируемости архитектура Tofino позволяет обрабатывать пакеты любого сетевого протокола. Уже в первой 16-нм версии «кремния» Intel удалось добиться показателей производительности на уровне 6,5 Тбит/с за счёт реализации программируемой части на базе языка P4, который специально создан для сетевых устройств вроде коммутаторов и маршрутизаторов.

Это делает решения Tofino сравнимым по классу с чипами Broadcom Tomahawk и Trident, а в некоторых отношениях они превосходят их. Это относится как к производительности и более низкому уровню энергопотребления на порт, так и к более продвинутой системе телеметрии и удалённого управления.

Поколение Tofino2, о котором идёт речь, демонстрирует ещё более впечатляющие характеристики: 12,8 Тбит/с и 6 миллиардов пакетов в секунду. Оно использует модную сейчас мультичиповую компоновку (2,5D CoWoS, аналогична используемой в графических чипах) и производится с использованием 7-нм техпроцесса TSMC. В составе базовой части имеется четыре «ядра», каждое с производительностью 3,2 Тбит/с и единый буфер объёмом 64 Мбайт.

Также внутри реализовано 32 интерфейса MAC класса 400G; самый производительные аналогт имеют столько же. В отличие от соперников, блоки трансиверов (SerDes) у Tofino2 выполнены отдельными кристаллами-тайлами, каждый из которых содержит 64 канала 56G-PAM4. Контроллер PCI Express расположен в основном кристалле и он, увы, ограничен версией 3.0.

За счёт архитектуры VLIW Tofino2 очень быстро производит анализ пакетов и принимает решение об их дальнейшей «судьбе», для этого, помимо прочего, в составе чипа имеются и функции «машинного обучения» — процессор ведет метрики и статистику буферов ввода-вывода. Объёмистый и единый для всех «конвейеров» буфер пакетов используется для скоростного управления трафиком, задержка QoS не превышает 1,68 наносекунды для 64-байтного пакета.

Но, пожалуй, одним из самых главных новшеств в Tofino2 в сравнении с первым поколением программируемых коммутаторов Intel/Barefoot стало наличие установленных в единой упаковке с основным процессором оптических модулей ввода-вывода. Они соответствуют всем современным стандартам и способны обеспечивать работу на скорости 400 Гбит/с, актуальной на сегодня.

Другие разработчики кремния для высокоскоростных коммутаторов полагают, что фотоника такого уровня пока является «ранней пташкой» и будет востребована через одно-два поколения, но у Intel уже есть рабочая технология, которая успешно демонстрируется. И не только демонстрируется, но уже поставляется крупнейшим клиентам компании. Похоже, за программируемыми коммутаторами действительно лежит будущее.

Может быть, Tofino2 и несколько опережает своё время, но его архитектура является удобным и универсальным строительным блоком, позволяющим реализовывать владельцам поддержку новых функций малой кровью, а не заменой всех коммутаторов в ЦОД новые. Вопрос лишь в своевременном появлении нового программного обеспечения.

Постоянный URL: http://servernews.ru/1018646
14.08.2020 [18:45], Алексей Степин

От микрон до сотен миль: Intel видит будущее шин и сетей в фотонике

В этом году мероприятие Intel Architecture Day выдалось богатым на различного рода анонсы новых технологий, начиная с техпроцессов и заканчивая описанием того, как Intel видит будущее сетей и интерконнектов. Вопрос наиболее эффективного объединения компонентов вычислительных комплексов в единое, эффективно работающее целое стоит давно, но именно сейчас на него самое время дать ответ.

Проблема межсоединений (interconnect) существует сразу на нескольких уровнях: от упаковки кристаллов ЦП, ГП и различных ускорителей до уровня ЦОД и даже более высокого уровня, включающего в себя и высокоскоростные сети нового поколения. На промежуточном уровне, как мы уже знаем, Intel собирается решить проблему межпроцессорного взаимодействия с помощью протоколов CXL и DSA, причём CXL сможет использовать уже имеющуюся физическую инфраструктуру PCI Express.

Этим он напоминает подход, реализованный AMD в EPYC, которые общаются между собой посредством PCIe, но подход Intel является более универсальным и разносторонним. Data Streamig Accelerator же поможет при взаимодействии одного узла вычислительного кластера с другим; об этом подробнее рассказывалось ранее.

На самом глубинном уровне отдельных чипов Intel видит будущее за совмещением электроники и фотонных технологий. Предполагается, что функции ввода-вывода удастся переложить на оптический интерфейс, чиплет которого будет устанавливаться на общую с вычислительными кристаллами подложку EMIB. Дебютировала эта технология соединений достаточно давно, ещё в момент анонса процессоров Kaby Lake-G, в которых посредством EMIB были объединены кристаллы Kaby Lake, HBM-памяти и графического ускорителя AMD Vega. Но вот до оптики дело не дошло.

Почему Intel выбирает фотонику? Ответов на этот вопрос несколько: во-первых, рост пропускной способности при использовании традиционных электрических соединений имеет предел, а фотоника при использовании мультиволновых лазеров способна обеспечить порядка 1 Тбит/с на волокно. Во-вторых, фотоника позволяет использовать более длинные пути соединений — оптика не столь беспощадна к расстояниям, как медь и прочие металлы на сопоставимых скоростях. При этом плотность размещения интерфейсов может быть в шесть раз выше, нежели у PCI Express 6.0 и это при сопоставимых показателях латентности.

Переход на фотонику потребует внедрения новых высокоскоростных оптических модулей и коммутаторов. Здесь Intel полагается на платформу Barefoot Tofino 2, включающую в себя элементы фотоники. Работоспособные прототипы программируемых коммутаторов на базе Tofino 2 с пропускной способностью 12,8 Тбит/с были продемонстрированы компанией ещё весной этого года. 16 оптических каналов обеспечивали функционирование четырёх портов 400G. Использование новых, более скоростных SerDes-блоков позволит увеличить эти показатели.

Важным компонентом новой сетевой платформы является открытость (буквально переход к решениям open source) и программируемость, как на уровне коммутатора, так и конечных точек. На нижнем уровне находятся шины, связывающие CPU, xPU (различные ускорители) и память. Данные к ним и от них проходят через «умные» сетевые адаптеры (SmartNIC), которые сами по себе могут обрабатывать «на месте» часть проходящей через них информации. Такие адаптеры активно развиваются уже сейчас. 

На физическом уровне, как уже было сказано, ставка сделана на фотонику и оптические соединения. Выпуск трансиверов класса 400G и 800G на её основе уже не за горами. Ещё один важный компонент будущей сети — всестороння и повсеместная телеметрия, которая поможет оптимизировать работу всех компонентов на лету. Использование такой платформы способно не только ускорить производительность в конкретных сценариях, но в перспективе и упростить инфраструктуру ЦОД.

В отличие от «процессороцентричной», «сетецентричная» модель представляет всю систему в виде набора унифицированных вычислительных блоков и блоков хранения данных, объединённых сетевой топологией типа «leaf-spine». В качестве сроков внедрения новой архитектуры Intel называет 2025 год. Вполне возможно, что она сможет, как было сказано в презентации, объединить буквально всё на расстоянии от микрон до сотен миль.

Постоянный URL: http://servernews.ru/1018282
29.07.2020 [18:10], Алексей Степин

Marvell представила новые сетевые чипы: от 10 Мбит/с до 12,8 Тбит/с

Имя Marvell в представлении вряд ли нуждается: если на системной плате не установлены сетевые контроллеры Intel, то используются, скорее всего, чипы именно этой компании, как, впрочем, и сочетание контроллера Intel и блока PHY Marvell. На днях компания опубликовала информацию о новом портфолио сетевых решениях 2020. Речь идёт как о сетевых контроллерах, так и о контроллерах физического уровня (PHY), а также «кремнии» для Ethernet-коммутаторов.

Новое портфолио Marvell разделяет на три базовых уровня: access, aggregation и core с максимальной пропускной способностью коммутации 1,2 Тбит/с, 8 Тбит/с и 12,8 Тбит/с соответственно. На рынок сверхмощных гипермасштабируемых коммутаторов компания, как видно, не покушается: её возможности пока заканчиваются отметкой 12,8 Тбит/с в то время, как Innovium, к примеру, предлагает и чипы с производительностью 25,6 Тбит/с. Но зато в арсенале компании есть полный спектр продуктов вплоть до решений подключения различных единичных устройств, которым достаточно и скоростей порядка 10 Мбит/с.

Самым мощным в новой серии является чип-коммутатор 98EX56xx, он поддерживает аплинк со скоростью 400 Гбит/с и может предоставлять коммутацию 48 портов класса 100G, либо 192 порта 10/25G. Интерес представляют и менее мощные коммутаторы — они помогут стандартам 2,5/5GBASE-T набрать популярность. Зачастую возможностей обычного Gigabit Ethernet уже недостаточно, а решения класса 10G всё ещё достаточно дороги, но тут-то и приходят на помощь новые промежуточные стандарты.

Представлен полный диапазон новых контроллеров физического уровня, в частности, четырёхпортовый 100G-контроллер с лучшей в классе производительностью линий SerDes, которые работают на скорости 50 Гбит/с. Возвращаясь к «промежуточным стандартам», очень полезным окажется чип 88E25xx, способный работать в диапазоне скоростей 10 Мбит/с ‒ 5 Гбит/с.

Новые решения Marvell построены на базе фирменной архитектуры Prestera. В её основе лежит гибко конфигурируемый сетевой движок, дополненный несколькими классическими ядрами с архитектурой ARM для запуска сопутствующего программного обеспечения. Большое внимание уделено безопасности и удобству управления сетью: поддерживается secure boot, 256-битное шифрование MAC, имеется система сенсоров определения аномального трафика и развитая подсистема телеметрии.

Поскольку речь идёт об интеллектуальных коммутаторах, Marvell сопровождает свои новые решения полным набором SDK и API, позволяющим легко портировать нужные приложения на новую сетевую архитектуру. Компания также поддерживает крупные открытые разработки в этой сфере — сетевые ОС SONiC и DENT. Что касается сроков начала массовых поставок, то большая часть новинок поступит к заказчикам уже в этом году, но процессы тестирования и сертификации займут какое-то время, поэтому готовые устройства конечные покупатели смогут приобрести в 2021 году.

Постоянный URL: http://servernews.ru/1016960
24.07.2020 [11:31], Владимир Мироненко

Рост спроса стимулировал поставщиков к запуску новых коммутаторов для ЦОД

В этом году ряд поставщиков коммутаторов для ЦОД значительно расширили свой ассортимент, стремясь удовлетворить растущие потребности своих клиентов.

Аналитик исследовательской и консалтинговой фирмы Omdia Деван Адамс (Devan Adams) выделил ряд наиболее заметных событий, происшедших на рынке коммутаторов для ЦОД в этом году:

  • Cisco представила новое сетевое решение Cloud Scale ASIC, обеспечивающее пропускную способность до 25,6 Тбит/с и поддерживающее все ключевые функции для современных ЦОД. Cisco сообщила, что решение ASIC было построено с использованием многокристальной кремниевой технологии, чтобы отделить логику коммутатора от SerDes-блоков, позволяя каждой секции быть независимой. Также было заявлено, что новое решение поддерживают гранулярную телеметрию с более детальной видимостью пакетов и потоков трафика, таблицами L3-маршрутизации и буферами большего размера, чем в предыдущей версии, с использованием маршрутизации сегмента (СР) по протоколу IPv6 (SRv6). Новые чипы будут использоваться в модулях Nexus 16x400GE, а также в двух Nexus ToR-коммутаторах 400GE с 32/64-портами.
  • Innovium представила новый чип для коммутаторов TERALYNX 8, способный обеспечить пропускную способность до 25,6 Тбит/с и использующий современные SerDes-блоки 112G. Innovium заявила, что это решение программируемое и совместимо с сетевыми операционными системами с открытым исходным кодом, такими как SONiC (Software for Open Networking in the Cloud). Также оно поддерживает FLASHLIGHT v3, программное обеспечение Innovium для телеметрии и аппаратного анализа.
  • Mellanox, входящая теперь в состав NVIDIA, начала поставки своих Ethernet-коммутаторов серии SN4000 на базе чипа Spectrum-3, оптимизированного с учётом применения в облачных системах, системах машинного обучения и сетевых системах хранения данных. Модели SN4000 можно приобрести с предустановленной операционной системой Mellanox Onyx (ОС), предустановленной ОС Cumulus Linux или без предустановленной ОС — с образом среды ONIE (Open Network Install Environment).
  • Intel представила первый в отрасли комбинированный оптический Ethernet-коммутатор, объединивший в себе движки Intel на базе кремниевой фотоники с пропускной способностью до 1,6 Тбит/с с программируемым 12,8-терабитным Ethernet-коммутатором Barefoot Tofino 2. Intel заявила, что такое интегированное решение позволяет разместить оптические порты ближе к микросхемам коммутатора, благодаря чему снижается энергопотребление и увеличивается пропускная способность.

Согласно данным отчёта Data Center Network Equipment Market Tracker компании Omdia, в период с 2019 по 2024 год поставки сетевых коммутаторов будут расти со среднегодовым темпом роста (CAGR) в пределах 8 %. Рост будет зависеть от продаж готовых покупных (merchant) решений (CAGR — 7 %) и программируемых чипов (CAGR — 26 %). Как отмечала ранее IHS Markit, доля проприетарных чипов будет снижаться.

Постоянный URL: http://servernews.ru/1016512
Система Orphus