Материалы по тегу: 400gbe

12.04.2021 [19:21], Алексей Степин

NVIDIA анонсировала DPU BlueField-3: 400 Гбит/с, 16 ядер Cortex-A78 и PCIe 5.0

Идея «сопроцессора данных», озвученная всерьёз в 2020 году компанией Fungible, продолжает активно развиваться и прокладывать себе дорогу в жизнь. На конференции GTC 2021 корпорация NVIDIA анонсировала новое поколение «умных» сетевых карт BlueField-3, способное работать на скорости 400 Гбит/с.

Изначально серия ускорителей BlueField разрабатывалась компанией Mellanox, и одной из целей создания столь продвинутых сетевых адаптеров стала реализация концепции «нулевого доверия» (zero trust) для сетевой инфраструктуры ЦОД нового поколения. Адаптеры BlueField-2 были анонсированы в начале прошлого года. Они поддерживали два 100GbE-порта, микросегментацию, и могли осуществлять глубокую инспекцию пакетов полностью автономно, без нагрузки на серверные ЦП. Шифрование TLS/IPSEC такие карты могли выполнять на полной скорости, не создавая узких мест в сети.

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП

Кристалл BlueField-3 не уступает в сложности современным многоядерным ЦП — 22 млрд транзисторов

Но на сегодня 100 и даже 200 Гбит/с уже не является пределом мечтаний — провайдеры и разработчики ЦОД активно осваивают скорости 400 и 800 Гбит/с. Столь скоростные сети требуют нового уровня производительности от DPU, и NVIDIA вскоре сможет предложить такой уровень: на конференции GTC 2021 анонсировано новое, третье поколение карт BlueField.

Если BlueField-2 могла похвастаться массивом из восьми ядер ARM Cortex-A72, объединённых когерентной сетью, то BlueField-3 располагает уже шестнадцатью ядрами Cortex-A78 и в четыре раза более мощными блоками криптографии и DPI. Совокупно речь идёт о росте производительности на порядок, что позволяет новинке работать без задержек на скорости 400 Гбит/с — и это первый в индустрии адаптер класса 400GbE со столь продвинутыми возможностями, поддерживающий, к тому же, стандарт PCI Express 5.0. Известно, что столь быстрым сетевым решениям PCIe 5.0 действительно необходим.

С точки зрения поддерживаемых возможностей BlueField-3 обратно совместим с BlueField-2, что позволит использовать уже имеющиеся наработки в области программного обеспечения для DPU. Одновременно с анонсом нового DPU компания представила и открытую программную платформу DOCA, упрощающую разработку ПО для таких сопроцессоров, поскольку они теперь занимаются не просто обработкой сетевого трафика, а оркестрацией работы серверов, приложений и микросервисов в рамках всего дата-центра.

В настоящее время NVIDIA сотрудничает с такими крупными поставщиками серверных решений, как Dell EMC, Inspur, Lenovo и Supermicro, со стороны разработчиков ПО интерес к BlueField проявляют Canonical, VMWare, Red Hat, Fortinet, NetApp и ряд других компаний. О массовом производстве BlueField-3 речи пока не идёт, поставка малыми партиями ожидается в первом квартале 2022 года, но карты BlueField-2 доступны уже сейчас. А в 2024 году появятся BlueField-4 с портами 800 Гбит/с.

Постоянный URL: http://servernews.ru/1037156
02.04.2021 [20:42], Алексей Степин

Cisco обновила чипы SiliconOne: 25,6 Тбит/с для коммутаторов и 12,8 Тбит/с для маршрутизаторов

За последние пару лет всемирная сеть претерпела существенные изменения, в том числе, и в самой концепции, чему немало поспособствовал взрывной рост трафика, вызванный пандемией коронавируса. Компания Cisco не без оснований считает, что это лишь начало и интернету требуется новая инфраструктура, способная справиться с возрастающей нагрузкой. Для этого она представила свои новые решения.

Статистика, собранная Cisco, впечатляет: до 2019 года количество цифровых служб и продуктов, предлагаемых различными компаниями, росло верно, но медленно, но начиная с 2019 года «цифровизация» приобрела взрывной характер. Если верить оценкам компании, новые темпы роста эквивалентны семилетнему промежутку «по старым меркам».

Несмотря на это, половина населения планеты всё ещё остаётся без доступа в интернет, а существенная часть использует каналы с пропускной способностью до 30 Мбит/с. Лишь 12% всех подключений отвечает современным требованиям и может обеспечить полноценные удалённые рабочие места, включая дистанционную медицину и обучение. С учётом прогнозов на 2023 год (порядка 30 млрд. устройств онлайн) неудивительно, что всемирной сети требуются новые решения, как на уровне отдельных чипов и технологий, так и целых стратегий и архитектур.

У Cisco есть ответ на вызовы времени. Изначально продвижение интернета в места, ещё не охваченные подключением, замедляется сложной структурой самой сети, включающей в себя три уровня и многочисленные устройства, такие, как конвертеры оптических форматов и транспондеры. Компания проработала возможность упрощения построения сети на всех уровнях.

Ещё в 2019 году Cisco анонсировала новую архитектуру Silicon One, но на тот момент она была представлена лишь одним чипом маршрутизации. За прошедшие 15 месяцев платформа разрослась до полноценного семейства из 10 устройств, покрывающих диапазон пропускных способностей от 3,2 до 25,6 Тбит/с, и не только для маршрутизации, но и для коммутации.

Возглавляет серию 7-нм чип Silicon One G100, полностью программируемый сетевой процессор с производительностью 25,6 Тбит/с. Он позволяет строить одноюнитовые коммутаторы с 32 портами 800G и содержит в своём составе программируемый сопроцессор телеметрии, способный отслеживать множество параметров трафика с разрешением порядка наносекунд. Производительность новинки позволяет полностью задействовать интерфейс 1,6 Тбит/с для одного потока данных.

Серия чипов Silicon One Q200L включает в себя модели Q200L (12,8 Тбит/с), Q211L (8 Тбит/с), Q201L (6,4 Тбит/с) и Q202L (3,2 Тбит/с), это платформа для построения коммутаторов уровня Leaf и Top of Rack. Чипы Q200 без литеры L в названии аналогичны моделям Q200L, но имеют большую ёмкость таблиц и буферов пакетов — они предназначены для задач маршрутизации.

На базе новых чипов Silicon One уже представлены новые маршрутизаторы Cisco 8000, работающие под управлением IOS XR7. Кроме того, последние решения Cisco стали более открытыми и поддерживают, в частности, SONiC. Всё это поможет компании успешнее конкурировать с Intel, Broadcom, Juniper, Arista, а также с новичком Xsight Labs, который тоже предлагает коммутатор X1 на 25,6 Тбит/с и 32 порта 800G.

На уровне сетевой архитектуры Cisco предлагает существенно упростить саму основу интернета, сделав его продвижение «на местах» более быстрым и менее дорогим процессом. Это будет достигаться путём конвергенции транспортных уровень в единый, а на физическом уровне — отказом от деления оптики на «короткую» (SR) и длинную (LR). Конвергентная сетевая платформа NCS 5500 в таком варианте использует только трансиверы LR, что исключает из системы трансиверы и кабели SR, а также транспондеры NCS2000.

Надёжность сетей Cisco нового поколения обеспечивается за счёт продвинутой технологии мониторинга и визуализации ThousandEyes. Что касается доступности новых решений, то все чипы серии Q200 доступны уже сейчас, а более продвинутый G100 в настоящее время тестируется избранными партнёрами Cisco, массовые поставки начнутся позже.

Постоянный URL: http://servernews.ru/1036426
22.02.2021 [22:19], Алексей Степин

Российский интерконнект Ангара-2: 200 Гбит/с при задержках до 0,8 мкс

Пять лет назад мы рассказывали о первом поколении российского интерконнекта Ангара или, если говорить более официально, межузловой высокоскоростной коммуникационной сети для суперкомпьютеров и кластеров. В рамках Elbrus Tech Day разработчики из НИЦЭВТ рассказали про второе поколение интерконнекта под названием Ангара-2, которое будет намного быстрее и эффективнее предыдущего.

В сравнении с первой версией были уменьшены задержки — они составляют менее 0,8 мкс, что ниже, нежели у нынешних InfiniBand FDR/EDR/HDR и Intel OmniPath. Снизилась и задержка на сетевой хоп. Скорость соединения выросла до 200 Гбит/с (в планах 400 Гбит/с), появилась поддержка топологий сети вплоть до 6D-тора.

Как и прежде, развитая поддержка RDMA позволяет в рамках сети эффективно строить гибридные системы, включающие в себя узлы на базе архитектур x86, Эльбрус и ARM, а также различные ускорители, в том числе, на базе ПЛИС. Кроме того, создатели работают и над поддержкой NVMe-oF. А в Ангара-2 также появится полноценная поддержка SR-IOV.

Для сети Ангара разработан собственный программный стек, ориентированный, в первую очередь, на высокопроизводительные вычисления. Как и в случае Intel DPDK, есть возможность общения приложений непосредственно с адаптером, минуя стандартные механизмы ядра Linux, за счёт чего и достигается низкий уровень задержек MPI. В Ангара-2 появится более широкий набор поддерживаемых типов сообщений, что упростит создание распределённых СХД на её основе.

Но может Ангара работать и с TCP/IP — совсем недавно разработчики представили вторую версию стека, обеспечивающего функциональность IP-over-Angara. Этот вариант не столь производителен, зато обеспечивает совместимость с существующими IP-решениями, позволяя задействовать RDMA для, к примеру, кластерных ФС.

Решения второго поколения должны появиться к концу текущего года. Контроллер Ангара-2 получит 32 линии PCIe 4.0, причём будет возможность мультихостового подключения — одна карта сможет обслуживать сразу несколько узлов. Адаптеры будут выпущены как в формате полноразмерных карт расширения с шестью портами QSFP-DD для безкоммутаторной топологии, так и в виде низкопрофильных плат с двумя портами для работы с коммутатором.

В первом случае возможно объединить до 1024 узлов в 3D-тор, во втором же использование 40-портовых коммутаторов позволит связать 20480 узлов в сеть с топологией 4D-тор. Под заказ НИЦЭВТ готов создать кастомные варианты с поддержкой 6D-тора и скоростями до 400 Гбит/с на порт.

Первое поколение Ангары уже давно используется в составе различных кластеров, в том числе с современными AMD EPYC Rome. Оно же будет актуально и для новых российских процессоров Эльбрус, так как в прошлом поколении, по словам представителя НИЦЭВТ, скорость работы фактически упирается в южный мост КПИ-2, который имеет только линии PCIe 2.0 x16 и x4.

Постоянный URL: http://servernews.ru/1033236
03.02.2021 [16:21], Алексей Степин

Переход на скорости свыше 400 Гбит/с потребует серьёзных усилий и будет сопровождаться ростом энергопотребления

В настоящее время для крупных телеком-провайдеров и провайдеров облачных услуг 200GbE-подключения — пройденный этап. Активно осваивается скорость 400 Гбит/с, а в планах уже фигурируют цифры 800 Гбит/с и даже 1,6 Тбит/с. Однако если переход от 200G к 400G дался достаточно просто, то при освоении ещё более высоких скоростей ожидается серьёзный набор трудностей, которые ещё только предстоит преодолеть.

Нужда в более скоростных магистралях в ЦОД порождается массой причин, и прежде всего, это рост гиперскейлеров вроде Google, Amazon или Facebook. Свой вклад вносит постоянно растущее число распределённых облачных систем, систем ИИ, машинной аналитики, периферийных вычислений и систем видеоконференций. К 2022 году ожидается, что каждый месяц объём мирового IP-трафика достигнет 396 экзабайт — для сравнения, в 2017 году этот показатель был равен 177 экзабайт.

Фотоника и электроника могут существовать даже в пределах одного кремния

Фотоника и электроника могут существовать даже в пределах одного кремния

Однако существующие медные и даже оптические технологии имеют свои пределы, продиктованные как возможностями скоростной обработки сигналов, так и самой природой физических процессов. В частности, серьёзно растёт энергопотребление таких сетевых систем.

По мнению Cisco, нарастить пропускную способность можно хоть в 80 раз, но для этого потребуется и в 22 раза больше энергии, а каждый ватт, потраченный в ЦОД на сети, означает ватт, который не был потрачен на дополнительную вычислительную мощность в серверах. С этим мнением согласна Microsoft Azure: если продолжить использовать технологии сегодняшнего уровня, ограничителем быстро станут именно энергозатраты.

Коммутатор Xsight Labs с поддержкой 800GbE

Коммутатор Xsight Labs с поддержкой 800GbE

Над решением задачи перехода от 400 Гбит/с к более высоким скоростям, в частности, работают такие организации, как исследовательская группа «IEEE 802.3 Beyond 400 Gbps», сформированная в конце прошлого года. Также есть проект Форума Оптических Сетей (OIF) под названием «800G Coherent project». Его целью является разработка спецификаций для совместимых сетей класса 800G, способных работать на достаточно больших расстояниях, например, в пределах университетского кампуса или крупных комплексов ЦОД.

Для оценки требований к технологиям нового скоростного уровня на этой неделе был созван форум Ethernet Alliance’s Technology Exploration Forum. В нём принимают участие специалисты из крупных компаний, таких как Microsoft, Facebook и Google, а также представители крупных разработчиков сетевого оборудования — Juniper и Cisco. Большие надежды возлагаются на интеграцию традиционных кремниевых и оптических технологий.

Над созданием новых высокоскоростных чипов, совмещающих в едином корпусе электронику и фотонику (co-packaged optics, CPO) работают сейчас Ayar Labs, Broadcom, Cisco, Intel и ряд других компаний-разработчиков. Пока это новое, малоосвоенное поле, но именно на нём ожидается столь необходимый для внедрения сетей класса 800G+ прорыв в области энергопотребления.

Фотоника в исполнении Intel

Фотоника в исполнении Intel

Но экосистема CPO должна быть стандартизирована, дабы не породить «зоопарка» несовместимых или плохо совместимых решений. Над спецификациями CPO сейчас работают Facebook и Microsoft, а форум OIF в это же время занят разработкой единого фреймворка для этой же технологии. Работы предстоит ещё много, но в случае успеха внедрение CPO позволит отказаться от медных соединений в пределах стойки с серверным оборудованием, которые уже не отвечают требованиям «800G and beyond».

От скорейшего внедрения новых сетевых технологий выиграют и клиенты провайдеров: если сейчас для большинства корпоративных заказчиков представляют интерес каналы со скоростью 10 или 25 Гбит/с, то широкое внедрение ИИ-систем и систем видеонаблюдения высокого разрешения потребует новых скоростей, в районе 100-400 Гбит/с. К этому времени должна сложиться устойчивая сетевая инфраструктура, способная «накормить» жадные до трафика системы нового поколения.

Постоянный URL: http://servernews.ru/1031767
17.12.2020 [16:36], Сергей Карасёв

В ближайшие два года ожидается резкий рост спроса на коммутаторы 400G

В 2021 и 2022 гг. ожидается бум поставок высокоскоростных коммутаторов стандарта 400G, обеспечивающих пропускную способность до 400 Гбит/с на порт. Об этом сообщает ресурс DigiTimes, ссылаясь на информацию, полученную от отраслевых источников.

Отмечается, что уже сейчас уровень проникновения устройств класса 100G достаточно высок. Однако стремительное развитие сетей пятого поколения (5G) и новейших интернет-сервисов создаст потребность в дальнейшем наращивании скоростей передачи данных.

Рост спроса на коммутаторы 400G приведёт к увеличению объёма заказов на заготовки для многослойных печатных плат. К повышенному спросу уже готовятся тайваньские поставщики подобных изделий, включая Elite Material, Iteq и Taiwan Union Technology. Кроме того, увеличения количества заказов ожидают и сами производители печатных плат, такие как Gold Circuit Electronics.

Современные коммутаторы стандарта 100G преимущественно базируются на 26-слойных платах. В устройствах 400G количество слоёв возрастёт до 32–36, при этом требования к целостности сигнала возрастут. В такой ситуации прогнозируется увеличение поставок печатных плат с высокой плотностью трассировки (HDI PCB).

Постоянный URL: http://servernews.ru/1028099
14.12.2020 [14:38], Андрей Галадей

Xsight Labs представила коммутатор X1: 25,6 Тбит/с и 32 порта 800GbE

Компания Xsight Labs сообщила о начале поставок образцов нового управляемего коммутатора X1, предназначенного для центров обработки данных. Он обеспечивает высочайшую скорость обмена информацией при очень низком потреблении энергии. Речь идёт о поддержке скоростей в 25,6 и 12,8 Тбит/сек. При этом система потребляет при типовой нагрузке менее 300 и 200 Вт соответственно.

Конструктивно же коммутатор можно смонтировать в стандартную серверную стойку. Компания позиционирует решение в качестве решения для центров обработки данных следующего поколения. Коммутатор удовлетворяет требованиям к пропускной способности ИИ-систем, машинного обучения и там далее.

Новинка основана на 7-нм чипе X1. Он реализует, как утверждается, новую революционную архитектуру и обеспечивает новые уровни мощности и эффективности. Этот чип характеризуется самым низким энергопотреблением в отрасли. X1 поддерживает новую экосистему оптики 800G, обеспечивая двукратное улучшение плотности портов по сравнению с оптикой 400G.

Архитектура коммутации X1, оптимизированная для приложений, обеспечивает минимальное энергопотребление и минимальную задержку для конкретных сценариев развертывания, таких как высокопроизводительные вычисления (HPC), ИИ, машинное обучение и центры обработки данных. X1 поддерживает телеметрию Dataplane Telemetry, которая обеспечивает лучшую в своем классе возможность мониторинга сети для устранения неполадок и анализа ситуации в реальном времени.

Поддерживается широкий спектр конфигураций коммутатора:

  • Для 25,6 Тбит/с: 256 x 100G, 128 x 200G, 64 x 400G, 32 x 800G.
  • Для 12,8 Тбит/с: 256 x 50G, 128 x 100G, 64 x 200G, 32 x 400G, 16 x 800G.

Семейство продуктов X1 включает ряд инструментов для облегчения развертывания и оптимизации потребностей заказчика, в том числе:

  • X-PND Engine: обеспечивает высокий уровень гибкости при распределении ресурсов во время работы
  • X-IQ Engine: интеллектуальная организация очередей Xsight обеспечивает меньшее время завершения потока (FCT) и повышает общую производительность приложения.
  • X-MON: диспетчер мониторинга, анализа и прогнозирования обслуживания Xsight, работающий на базе Universal Chip Telemetry (UCT). Он позволяет центрам обработки данных отслеживать состояние и производительность систем, оптимизировать производительность, продлевать срок службы системы и снижать накладные расходы.

Xsight Labs весной этого года получила инвестиции от Intel Capital. Она ориентирована на создание чипсетов, которые повышают масштабируемость, производительность и эффективность работы вычислительных систем.

Постоянный URL: http://servernews.ru/1027728
16.11.2020 [17:00], Илья Коваль

SC20: NVIDIA анонсировала InfiniBand NDR: 400 Гбит/c адаптерам уже нужен PCIe 5.0

Вместе с обновлёнными ускорителями A100 и продуктами на его основе NVIDIA анонсировала и решения на базе стандарта InfiniBand NDR который, как и положено, удваивает пропускную способность одной линии до 100 Гбит/с. Новые адаптеры и DPU NVIDIA получат порты 400 Гбит/c, а коммутаторы — 64 порта 400 Гбит/с или 128 портов 200 Гбит/c, способных обработать 66,5 млрд пакетов в секунду. Модульные коммутаторы позволят получить до 2048 портов с суммарной пропускной способностью 1,64 Пбит/с.

Кроме того, повышена масштабируемость сети, которая способна объединить более миллиона GPU всего с тремя «прыжками» (hops) между любыми из них. А с ростом числа узлов снижаются и стоимость владения, и энергопотребление, что будет важно для суперкомпьютеров экзафплосного класса. Компания отдельно отмечает, что для InfiniBand NDR удалось сохранить возможность использования пассивных медных кабелей на коротких расстояниях (до 1,5 м).

Помимо увеличения пропускной способности, вчетверо повышена производительность MPI, за что отвечают отдельные аппаратные движки. А ИИ-приложения могут получить дополнительное ускорение благодаря технологии Mellanox SHARP (Scalable Hierarchical Aggregation and Reduction Protocol). DPU же за счёт наличия ядер общего назначения могут взять на себя часть обработки данных и попутно отвечать за безопасность, изоляцию, мониторинг и управление инфраструктурой. Вообще NVIDIA говорит о распределённом CPU, «живущем» в сети, который эффективно дополняет ускорители компании.

Однако у InfiniBand NDR, как и у конкурирующего стандарта 400GbE, есть и обратная сторона медали. Для новых адаптеров требуются или 16 линий PCIe 5.0, или 32 линии PCIe 4.0. PCIe 5.0 будет доступен ещё нескоро, а линии PCIe 4.0 в современных системах жаждут не только адаптеры, но и накопители, и собственно ускорители. Использование PCIe-свитчей может снизить эффективность обмена данными, так что, вероятно, интереснее всего было бы увидеть DPU с root-комплексами, да покрупнее. Первые продукты на базе нового стандарта должны появиться в втором квартале 2021 года.

Постоянный URL: http://servernews.ru/1025433
28.10.2020 [15:06], Владимир Мироненко

Acacia и Inphi успешно протестировали волоконно-оптическую линию связи стандарта 400ZR длиной 120 км

Поставщик продуктов для когерентных оптических соединений Acacia Communications и один из лидеров в области высокоскоростной передачи данных Inphi сообщили об успешном тестировании волоконно-оптической линии связи стандарта 400ZR протяжённостью 120 км.

«Тестирование продемонстрировало связь без сбоев в режиме 400ZR между модулями Inphi COLORZ II QSFP-DD и Acacia 400ZR QSFP-DD в коммутаторах Arista на 120-километровом усиленном канале с разнесением каналов 75 ГГц», — отмечено в совместном пресс-релизе компаний. Данное тестирование примечательно тем, что два оптических модуля (Inphi COLORZ II QSFP-DD и Acacia 400ZR QSFP-DD) оснащены разными когерентными сигнальными процессорами.

Модули 400ZR: QSFP-DD (слева) и OSFP

Модули 400ZR: QSFP-DD (слева) и OSFP

Оптические трансиверы 400ZR основаны на Соглашении о реализации OIF 400ZR (OIF 400ZR Implementation Agreement), которое содержит спецификации, разработанные для обеспечения возможности взаимодействия когерентных оптических модулей 400G с усилением на расстояние до 120 км, в первую очередь для межсоединений центров обработки данных (DCI). Производители начали анонсировать модули 400ZR в конце 2019 и начале этого года. Например, в декабре прошлого года Inphi представила модульный оптический когерентный трансивер COLORZ II QSFP-DD.

«Отрасль ожидала появления совместимых решений 400ZR для удовлетворения растущего спроса на полосу пропускания DCI, особенно для сетевых операторов, которые развивают свои архитектуры центров обработки данных до 400G Ethernet с оптическими соединениями между коммутаторами, — сказал Том Уильямс (Tom Williams), вице-президент по маркетингу Acacia. — Эти решения предоставляют операторам центров обработки данных большую гибкость в выборе компонентов и поставщиков, которые они используют для построения своих сетей».

Постоянный URL: http://servernews.ru/1023995
19.08.2020 [20:39], Алексей Степин

Коммутатор Intel Tofino2: 12,8 Тбит и 6 млрд пакетов в секунду

О том, что Intel видит будущее любой сетевой инфраструктуры в фотонике, уже известно — компания рассказала об этом на мероприятии Intel Architecture Day. Модули с оптическими трансиверами планируется устанавливать в одной EMIB-упаковке с традиционной электроникой.

Планируется также максимально унифицировать топологию сетей, причём на всех уровнях, от межпроцессорных шин до глобальных каналов, соединяющих расположенные в разных местах ЦОД. Сердцем любой сети, разумеется, являются коммутаторы, Intel делает ставку на программируемые решения в рамках архитектуры Tofino2. О ней и пойдёт речь.

Если на Intel Architecture Day были даны лишь сведения общего характера о том, как компания видит сети будущего, то на Hot Chips 32 «синие» рассказали в деталях о новой архитектуре сетевых коммутаторов Tofino2. Этот проект развивался в рамках приобретения Intel активов компании Barefoot Networks, в своё время прославившейся в узких кругах выпуском полностью аппаратного, со своей ОС на борту, сетевого контроллера Killer NIC.

Эта компания занималась и разработкой высокоскоростных сетевых коммутаторов. Сейчас, когда с момента приобретения Barefoot Networks прошло чуть более года, Intel готова представить подробные результаты. Архитектура Tofino2 следует современным тенденциям и не является жёстко фиксированной — она относится к категории программируемых решений, что должно обеспечить существенную степень гибкости при создании сетей нового поколения.

И речь идёт не только о теории: Intel уже имеет на руках работоспособные системы на базе Tofino2. Как Intel, так и Barefoot пришли к идее программируемого коммутатора ранее, ещё до сделки. Надо сказать, что Tofino2 не является процессором в прямом значении термина; разумеется, эти чипы будут содержать блоки фиксированной логики. В частности, это касается блоков сериализации-десериализации (трансиверов, SerDes).

А вот уровень MAC и основной конвейер обработки у Tofino2 обещают быть программируемыми. За счёт этого Intel надеется уменьшить накладные расходы на масштабировании в новых коммутаторах. Добавление новых функций, по мнению разработчиков, должно обойтись в 20-30% прироста в площади кристалла и уровне энергопотребления, против десятикратного у вероятных аналогов, построенных исключительно на основе фиксированной логике.

Кроме того, за счёт такой программируемости архитектура Tofino позволяет обрабатывать пакеты любого сетевого протокола. Уже в первой 16-нм версии «кремния» Intel удалось добиться показателей производительности на уровне 6,5 Тбит/с за счёт реализации программируемой части на базе языка P4, который специально создан для сетевых устройств вроде коммутаторов и маршрутизаторов.

Это делает решения Tofino сравнимым по классу с чипами Broadcom Tomahawk и Trident, а в некоторых отношениях они превосходят их. Это относится как к производительности и более низкому уровню энергопотребления на порт, так и к более продвинутой системе телеметрии и удалённого управления.

Поколение Tofino2, о котором идёт речь, демонстрирует ещё более впечатляющие характеристики: 12,8 Тбит/с и 6 миллиардов пакетов в секунду. Оно использует модную сейчас мультичиповую компоновку (2,5D CoWoS, аналогична используемой в графических чипах) и производится с использованием 7-нм техпроцесса TSMC. В составе базовой части имеется четыре «ядра», каждое с производительностью 3,2 Тбит/с и единый буфер объёмом 64 Мбайт.

Также внутри реализовано 32 интерфейса MAC класса 400G; самый производительные аналогт имеют столько же. В отличие от соперников, блоки трансиверов (SerDes) у Tofino2 выполнены отдельными кристаллами-тайлами, каждый из которых содержит 64 канала 56G-PAM4. Контроллер PCI Express расположен в основном кристалле и он, увы, ограничен версией 3.0.

За счёт архитектуры VLIW Tofino2 очень быстро производит анализ пакетов и принимает решение об их дальнейшей «судьбе», для этого, помимо прочего, в составе чипа имеются и функции «машинного обучения» — процессор ведет метрики и статистику буферов ввода-вывода. Объёмистый и единый для всех «конвейеров» буфер пакетов используется для скоростного управления трафиком, задержка QoS не превышает 1,68 наносекунды для 64-байтного пакета.

Но, пожалуй, одним из самых главных новшеств в Tofino2 в сравнении с первым поколением программируемых коммутаторов Intel/Barefoot стало наличие установленных в единой упаковке с основным процессором оптических модулей ввода-вывода. Они соответствуют всем современным стандартам и способны обеспечивать работу на скорости 400 Гбит/с, актуальной на сегодня.

Другие разработчики кремния для высокоскоростных коммутаторов полагают, что фотоника такого уровня пока является «ранней пташкой» и будет востребована через одно-два поколения, но у Intel уже есть рабочая технология, которая успешно демонстрируется. И не только демонстрируется, но уже поставляется крупнейшим клиентам компании. Похоже, за программируемыми коммутаторами действительно лежит будущее.

Может быть, Tofino2 и несколько опережает своё время, но его архитектура является удобным и универсальным строительным блоком, позволяющим реализовывать владельцам поддержку новых функций малой кровью, а не заменой всех коммутаторов в ЦОД новые. Вопрос лишь в своевременном появлении нового программного обеспечения.

Постоянный URL: http://servernews.ru/1018646
14.08.2020 [18:45], Алексей Степин

От микрон до сотен миль: Intel видит будущее шин и сетей в фотонике

В этом году мероприятие Intel Architecture Day выдалось богатым на различного рода анонсы новых технологий, начиная с техпроцессов и заканчивая описанием того, как Intel видит будущее сетей и интерконнектов. Вопрос наиболее эффективного объединения компонентов вычислительных комплексов в единое, эффективно работающее целое стоит давно, но именно сейчас на него самое время дать ответ.

Проблема межсоединений (interconnect) существует сразу на нескольких уровнях: от упаковки кристаллов ЦП, ГП и различных ускорителей до уровня ЦОД и даже более высокого уровня, включающего в себя и высокоскоростные сети нового поколения. На промежуточном уровне, как мы уже знаем, Intel собирается решить проблему межпроцессорного взаимодействия с помощью протоколов CXL и DSA, причём CXL сможет использовать уже имеющуюся физическую инфраструктуру PCI Express.

Этим он напоминает подход, реализованный AMD в EPYC, которые общаются между собой посредством PCIe, но подход Intel является более универсальным и разносторонним. Data Streamig Accelerator же поможет при взаимодействии одного узла вычислительного кластера с другим; об этом подробнее рассказывалось ранее.

На самом глубинном уровне отдельных чипов Intel видит будущее за совмещением электроники и фотонных технологий. Предполагается, что функции ввода-вывода удастся переложить на оптический интерфейс, чиплет которого будет устанавливаться на общую с вычислительными кристаллами подложку EMIB. Дебютировала эта технология соединений достаточно давно, ещё в момент анонса процессоров Kaby Lake-G, в которых посредством EMIB были объединены кристаллы Kaby Lake, HBM-памяти и графического ускорителя AMD Vega. Но вот до оптики дело не дошло.

Почему Intel выбирает фотонику? Ответов на этот вопрос несколько: во-первых, рост пропускной способности при использовании традиционных электрических соединений имеет предел, а фотоника при использовании мультиволновых лазеров способна обеспечить порядка 1 Тбит/с на волокно. Во-вторых, фотоника позволяет использовать более длинные пути соединений — оптика не столь беспощадна к расстояниям, как медь и прочие металлы на сопоставимых скоростях. При этом плотность размещения интерфейсов может быть в шесть раз выше, нежели у PCI Express 6.0 и это при сопоставимых показателях латентности.

Переход на фотонику потребует внедрения новых высокоскоростных оптических модулей и коммутаторов. Здесь Intel полагается на платформу Barefoot Tofino 2, включающую в себя элементы фотоники. Работоспособные прототипы программируемых коммутаторов на базе Tofino 2 с пропускной способностью 12,8 Тбит/с были продемонстрированы компанией ещё весной этого года. 16 оптических каналов обеспечивали функционирование четырёх портов 400G. Использование новых, более скоростных SerDes-блоков позволит увеличить эти показатели.

Важным компонентом новой сетевой платформы является открытость (буквально переход к решениям open source) и программируемость, как на уровне коммутатора, так и конечных точек. На нижнем уровне находятся шины, связывающие CPU, xPU (различные ускорители) и память. Данные к ним и от них проходят через «умные» сетевые адаптеры (SmartNIC), которые сами по себе могут обрабатывать «на месте» часть проходящей через них информации. Такие адаптеры активно развиваются уже сейчас. 

На физическом уровне, как уже было сказано, ставка сделана на фотонику и оптические соединения. Выпуск трансиверов класса 400G и 800G на её основе уже не за горами. Ещё один важный компонент будущей сети — всестороння и повсеместная телеметрия, которая поможет оптимизировать работу всех компонентов на лету. Использование такой платформы способно не только ускорить производительность в конкретных сценариях, но в перспективе и упростить инфраструктуру ЦОД.

В отличие от «процессороцентричной», «сетецентричная» модель представляет всю систему в виде набора унифицированных вычислительных блоков и блоков хранения данных, объединённых сетевой топологией типа «leaf-spine». В качестве сроков внедрения новой архитектуры Intel называет 2025 год. Вполне возможно, что она сможет, как было сказано в презентации, объединить буквально всё на расстоянии от микрон до сотен миль.

Постоянный URL: http://servernews.ru/1018282
Система Orphus