Материалы по тегу: интерконнект

07.01.2026 [16:47], Владимир Мироненко

В попытке догнать Broadcom: Marvell купила за $540 млн XConn, разработчика коммутаторов PCIe и CXL

После объявления о заключении окончательного соглашения о приобретении XConn Technologies, поставщика передовых коммутаторов PCIe и CXL, акции Marvell Technology пошли в гору — их цена выросла на 4 %, сообщил ресурс SiliconANGLE. Сумма сделки составляет около $540 млн. Примерно 60 % будет выплачено наличными и 40 % — акциями Marvell, при этом стоимость последних будет определяться на основе средневзвешенной цены за 20 дней.

По словам Marvell, приобретение позволит ей расширить портфель коммутационных решений продуктами XConn PCIe и CXL, а также укрепить команду по разработке решений UALink высококвалифицированными инженерами XConn с глубокими знаниями в области высокопроизводительной коммутации. Коммутация необходима для соединения большого количества ИИ-микросхем в гигантские кластеры для запуска мощных больших языковых моделей.

Компания XConn, основанная в 2020 году и финансируемая частными инвесторами, выпустила в марте 2024 года первый в отрасли коммутатор Apollo с поддержкой CXL 2.0 и PCIe 5.0, обеспечивающий 256 линий. Его выпускает TSMC с использованием техпроцессов N16 и N5, сообщил ресурс Data Center Dynamics. Затем она выпустила в марте 2025 года гибридный коммутатор Apollo 2, объединяющий CXL 3.1 и PCIe 6.2 на одном чипе в конфигурациях от 64 до 260 линий.

 Источник изображения: Marvell

Источник изображения: Marvell

Когда-то Marvell считалась одной из самых перспективных компаний после NVIDIA, и многие эксперты полагали, что она станет одним из главных бенефициаров бума ИИ. Однако она по-прежнему уступает по темпам развития NVIDIA, а заодно и своему основному конкуренту Broadcom, который разрабатывает чипы как минимум для четырёх гиперскейлеров.

Покупка XConn призвана исправить ситуацию, дополняя недавнее приобретение Celestial AI. По словам Marvell, приобретение XConn добавит проверенные коммутационные продукты PCIe и CXL, IP-решения и инженерные кадры для расширения команды по масштабируемым коммутаторам UALink. «В сочетании с предстоящим приобретением Celestial AI мы будем иметь все возможности для предоставления клиентам производительности, гибкости и архитектурного выбора, необходимых им по мере роста размеров и сложности ИИ-систем», — отметил он.

 Источник изображения: XConn

Источник изображения: XConn

Сделка позволит Marvell расширить свой общий целевой рынок (Total Addressable Market, TAM) за счёт освоения растущих возможностей коммутаторов PCIe и CXL. PCIe-коммутаторы становятся критически важным строительным блоком для ИИ-инфраструктуры. В то же время CXL необходим для дезагрегации памяти в современных ЦОД. Сочетание контроллеров памяти Marvell CXL с коммутаторами XConn CXL позволит создать самый обширный в отрасли портфель коммутаторов для поддержки ресурсоёмких ИИ-задач.

На данный момент у XConn насчитывается более чем 20 клиентов. Marvell ожидает, что продукты XConn CXL и PCIe начнут приносить доход во II половине 2027 финансового года. Также ожидается, что в результате сделки Marvell получит около $100 млн дополнительного дохода в 2028 финансовом году.

Постоянный URL: http://servernews.ru/1134943
30.12.2025 [15:20], Руслан Авдеев

Радиоволна вместо меди и стекла: пластиковые волноводы обещают революцию в мире интерконнектов ИИ ЦОД

Point2 Technology и AttoTude работают над ARC-кабелями, способными стать альтернативой оптоволоконным и электрическим интерконнектам. Это позволит увеличить пропускную способность, повысить плотность размещения ускорителей и удешевить строительство ИИ ЦОД, сообщает IEEE Spectrum.

Внутри ИИ-стоек для объединения узлов обычно используются относительно короткие медные кабели, а сеть внутри и между ЦОД традиционно использует оптоволокно. Необходимость увеличить скорость передачи данных от ускорителя к ускорителю нередко ограничивается физическими свойствами меди. Для обеспечения терабитных скоростей медные интерконнекты должны становиться всё толще и короче. В условиях, когда NVIDIA рассчитывает в восемь раз увеличить максимальное число чипов в вычислительной системе с 72 до 576 к 2027 году, использование меди станет большой проблемой.

Медь весьма эффективна, в первую очередь экономически, при использовании на небольших дистанциях. На очень высоких частотах, характерных для современных чипов, сигнал в проводнике из-за скин-эффекта передаётся преимущественно в поверхностном слое. Для борьбы с этим явлением либо увеличивают количество проводников, либо покрывают их, например, серебром, либо попросту увеличивают размеры. Всё это не позволяет в конечном итоге создать компактные и недорогие системы. Сейчас всё большую популярность набирают активные электрические кабели (AEC), включающие ретаймеры, которые усиливают и «очищают» сигнал. Например, 800G-кабели Credo, которые полюбились гиперскейлерам (и не только) имеют длину до 7 м и весят порядка 800 г.

 Задача со звёздочкой: вычислить массу кабелей Credo (фиолетового цвета) / Источник изображения: X/@elonmusk

Задача со звёздочкой: вычислить массу кабелей Credo (фиолетового цвета) / Источник изображения: X/@elonmusk

Тем не менее в будущем даже AEC «упрутся в потолок» из-за законов физики. Тем временем Point2 Technology и AttoTude предлагают промежуточное решение — недорогое и надёжное как медь, с возможностью использования узких и длинных кабелей, соответствующих потребностям ИИ-систем будущего. В 2025 году Point2 намеревалась начать производство чипов для кабелей с пропускной способностью 1,6 Тбит/с, состоящих из восьми тонких полимерных волноводов, каждый из них может передавать данные со скоростью 448 Гбит/с с использованием частот 90 и 225 ГГц. Решение AttoTude практически такое же, только использует частоты терагерцового диапазона.

Обе компании утверждают, что их технологии превосходят медь по «дальнобойности» — сигнал легко передаётся на расстояние 10–20 м без значимых потерь, чего будет вполне достаточно для объединения будущих стоек. Point2 утверждает, что её решение в сравнение с оптическими интерконнектами потребляет втрое меньше электроэнергии, втрое дешевле и обеспечивает на три порядка меньшие задержки при передаче. По словам сторонников технологии, надёжность и лёгкость производства волноводов, сравнимая с лёгкостью выпуска оптоволокна, означает, что она способна не только заменить оптические интерконнекты между ускорителями, но и частично вытеснить медь с печатных плат.

 Источник изображения: AttoTude

Источник изображения: AttoTude

Основатель AttoTude Дэйв Уэлч (Dave Welch), участвовавший в создании Infinera, десятилетиями занимался фотонными системами и хорошо знает их слабые и сильные места. В частности, по данным NVIDIA, на «оптику» уже уходит около 10 % энергопотребления ИИ ЦОД. Системы на базе фотоники в принципе очень чувствительны к температурам, требуют высокой точности производства (на уровне микрометров) и в целом не особенно надёжны. В результате Уэлч заинтересовался не оптическим, а радиодиапазоном от 300 ГГц до 3 ТГц. Решение AttoTude используют волноводы толщиной около 200 мкм с диэлектрическим сердечником, которые уже показывают затухание на уровне 0,3 дБ/м, что в разы меньше, чем у медного 224G-кабеля.

У AttoTude уже есть все основные компоненты, включая интерфейс для подключения к ускорителям, терагерцовый генератор, мультиплексор, антенны и собственно волноводы. Главная задача сейчас — объединить всё в компактный модуль, который можно будет легко подключать к ускорителям, как уже действующие решения. Компания уже продемонстрировала передачу данных на скорости 224 Гбит/с на частоте 970 ГГц на расстояние 4 м.

 Источник изображения: Point2 Technologies via IEEE Spectrum

Источник изображения: Point2 Technologies via IEEE Spectrum

Point2, созданная девять лет назад ветеранами Marvell, NVIDIA и Samsung, привлекла $55 млн инвестиций, в основном от Molex, занимающейся кабелями и коннекторами. Последняя уже продемонстрировала, что можно выпускать кабели Point2 без изменения своих производственных линий, а теперь партнёром стартапа стала и Foxconn Interconnect Technology. Такая поддержка может оказаться решающей при попытке привлечь гиперскейлеров в качестве клиентов.

На каждом конце кабеля Point2 e-Tube, точно так же имеются генератор, антенны и чип для преобразования цифровых сигналов в радиоволны. Волновод состоит из диэлектрического ядра с металлическим покрытием. Для достижения скорости 1,6 Тбит/с требуется восемь волноводов, каждый из которых работает на собственной частоте и с собственными параметрами. Такой кабель значительно тоньше и легче AEC. По словам вице-президента компании Дэвида Куо (David Kuo), одним из ключевых преимуществ технологии Point2 является возможность выпуска чипов по дешёвому и доступному техпроцессу 28 нм.

 Источник изображения: Point2 Technologies via IEEE Spectrum

Источник изображения: Point2 Technologies via IEEE Spectrum

Оба стартапа параллельно занимаются вопросами интеграции своих решений непосредственно в вычислительные чипы. Интегрированная фотоника (CPO) уже появилась в коммутаторах Broadcom и NVIDIA, но до прямой интеграции аналогичных интерфейсов в ускорители и другие чипы дело всё никак не дойдёт. NVIDIA и Broadcom, работающие по отдельности, вынуждены проделывать массу работы для того, чтобы наладить выпуск надёжных систем, работающих в одном корпусе с дорогими ускорителями.

Одна из проблем — подключение оптоволокна к волноводу на фотонном чипе с точностью на уровне микрометров. В частности, инфракрасный лазер необходимо разместить точно напротив ядра оптоволокна, толщина которого составляет всего 10 мкм. Для сравнения, миллиметровые и терагерцовые сигналы имеют значительно большие длины волн, поэтому подобной точности при подключении радиоволновода не требуется.

Постоянный URL: http://servernews.ru/1134579
08.12.2025 [14:20], Владимир Мироненко

$2 млрд инвестиций NVIDIA в Synopsys несут риски для UALink

Объявление NVIDIA о расширении сотрудничества с Synopsys, разработчиком ПО для проектирования чипов и членом совета директоров UALink, и инвестициях в размере $2 млрд в совместные инициативы, последовавшее после недавнего решения производителя ИИ-ускорителей инвестировать $5 млрд в Intel, вызвали опасения по поводу его возможного влияния на разработку UALink — альтернативы собственному интерконнекту NVLink.

Как отметил Network World, Synopsys входит в совет директоров консорциума Ultra Accelerator Link (UALink) — отраслевой коалиции из более чем 80 компаний, включая AMD, Intel, Google, Microsoft и Meta, которая работает над созданием открытой альтернативы технологии NVIDIA NVLink для объединения ИИ-ускорителей в один домен.

NVIDIA инвестировала $2 млрд в обыкновенные акции Synopsys ($414,79/ед.), получив долю в разработчике ПО и планируя в рамках партнёрства объединить преимущества своих технологий с ведущими на рынке инженерными решениями Synopsys. В сентябре NVIDIA инвестировала $5 млрд в Intel, объявив о сотрудничестве с целью разработки чипов для ЦОД и ПК с использованием NVLink Fusion. За несколько месяцев до этого Intel взяла на себя обязательство совместно разрабатывать конкурирующий стандарт UAlink. Arm тоже присоединилась к консорциуму UAlink, участвуя при этом и в экосистеме NVLink Fusion.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Moor Insights & Strategy считает, что с помощью инвестиций NVIDIA укрепляет свою экосистему на фоне вызовов AMD, будь то CPU, GPU или сетевые решения. Вместе с тем аналитики признают, что это «действительно усиливает давление на UALink» — финансовая «доля» NVIDIA в консорциуме UALink может повлиять на разработку открытого стандарта, специально созданного для конкуренции с технологиями самой NVIDIA и предоставления предприятиям более широкого выбора компонентов. Компании считают такие открытые стандарты критически важными для предотвращения привязки к одному поставщику и поддержания конкурентоспособных цен.

В апреле консорциум ратифицировал спецификацию UALink 200G 1.0, определяющую открытый стандарт для объединения в один кластер до 1024 ИИ-ускорителей со скоростью 200 Гбит/с на линию. Это прямой конкурент NVLink, хотя и не такой производительный. При этом Synopsys играет ключевую роль в работе консорциума. Она не только вошла в совет директоров UALink, но и анонсировала первые в отрасли компоненты для проектирования UALink, позволяющие создавать ускорители, совместимые с UALink.

 Источник изображения: Synopsys

Источник изображения: Synopsys

Gartner признаёт наличие напряжённости: «Сделка между NVIDIA и Synopsys действительно вызывает вопросы о будущем UALink, поскольку Synopsys является ключевым партнёром консорциума и владеет критически важными IP на UALink, который конкурирует с проприетарным NVLink». По оценкам Greyhound Research, Synopsys играет ведущую роль в UALink, поэтому вхождение NVIDIA в структуру акционеров Synopsys может повлиять на заинтересованность последней в работе консорциума. UALink действует благодаря коммерческому согласованию, общим приоритетам НИОКР и близости планов развития участников. Даже потенциальная возможность влияния NVIDIA может подорвать доверие среди членов UALink.

«Партнёры по консорциуму должны быть готовы к тому, что будущие версии UALink могут быть сформированы таким образом, что это либо замедлит их развитие, либо будет смещено в сторону компромиссов в дизайне для минимизации конкурентного давления на NVLink», — предупреждает Greyhound Research, призывая консорциум «срочно усилить управление, повысить прозрачность в отношении вклада Synopsys и рассмотреть механизмы защиты, если хочет сохранить доверие».

 Источник изображения: Synopsys

Источник изображения: Synopsys

Объявляя о партнёрстве, NVIDIA и Synopsys подчеркнули, что сотрудничество будет сосредоточено на инженерных инструментах на базе ИИ, а не на интерконнектах. В частности, библиотеки NVIDIA CUDA-X будут интегрированы в приложения Synopsys для проектирования микросхем, молекулярного моделирования и электромагнитного анализа. В пресс-релизе по поводу сотрудничества не было никакого упоминания NVLink или интерконнектов. «Поэтому это больше похоже на партнёрство в сфере ПО, чем в сфере интеллектуальной собственности», — пишет Moor Insights & Strategy.

Генеральный директор Synopsys Сассин Гази (Sassine Ghazi), подчеркнул, что партнёрство никак не связано с циклическим финансированием. «Мы не намерены и не берём на себя обязательство использовать эти $2 млрд на покупку GPU NVIDIA», — сказал он, добавив, что к партнёрству могут присоединиться другие производители микросхем. Это означает, что компании могут продолжать сотрудничество в рамках более широкой экосистемы, то есть Synopsys продолжит работать с другими поставщиками, конкурирующими с NVIDIA, будь то AMD, Broadcom или один из гиперскейлеров.

В ответ на просьбу Network World прокомментировать возможное влияние партнёрства на её приоритеты, Synopsys заявила, что это не меняет её стратегию. В свою очередь, NVIDIA не ответила вопрос ресурса о том, как эти инвестиции могут повлиять на деятельность Synopsys в рамках UALink или на независимость консорциума. Впрочем, аналитики сходятся во мнении, что для консорциума это партнёрство вряд ли можно считать чем-то позитивным. UALink важен для будущих ИИ-платформ AMD. HPE, которая одной из первых поддержала решение AMD Helios AI, будет использовать реализацию UALink over Ethernet (UALoE).

Постоянный URL: http://servernews.ru/1133543
03.12.2025 [16:37], Руслан Авдеев

Вперёд в светлое будущее: Marvell купила за $3,25 млрд разработчика фотонного интерконнекта Celestial AI

Marvell Technology объявила о заключении окончательного соглашения, предусматривающего покупку компании Celestial AI — пионера в области создания оптических интерконнектов, работающих над технологией Photonic Fabric. Последняя специально разработана для масштабируемых интерконнектов, позволяющих объединять тысячи ИИ-ускорителей и стоек. Это ускорит реализацию стратегии Marvell, связанной с обеспечением подключений в ИИ ЦОД нового поколения и облаках, сообщает HPC Wire.

ИИ-системы нового поколения используют многостоечные конструкции, объединяющие сотни XPU. Они требуют интерконнектов с высокой пропускной способностью, сверхнизкой задержкой и возможностью подключения любых устройств. Подобная архитектура позволяет XPU напрямую обращаться к памяти любого другого XPU. Правда, для этого требуются специализированные коммутаторы и протоколы, разработанные для эффективного масштабирования.

Оптические интерконнекты показали себя наиболее эффективным решением, а новое приобретение позволит Marvell возглавить технологический переход. С учётом лидерства Marvell в технологиях горизонтального и распределённого масштабирования, компания рассчитывает, что её новая линейка продуктов обеспечит статус поставщика наиболее полных, комплексных решений для дата-центров следующего поколения с сетями с высокой пропускной способностью, низким энергопотреблением и малой задержкой.

 Источник изображений: Celestial AI

Источник изображений: Celestial AI

Компания подчёркивает, что инфраструктура ИИ трансформируется с беспрецедентной скоростью, поэтому будущее за решениями, обеспечивающими высочайшую пропускную способность, энергоэффективность и дальность связи. Комбинация UALink и технологий Celestial AI, позволит клиентам создавать ИИ-системы, способные преодолевать ограничения медных соединений. Это позволит переопределить стандарты архитектуры ИИ ЦОД.

В AWS заявляют, что Celestial AI добилась впечатляющего прогресса в разработке оптических интерконнектов и подчеркнули, что объединение с Marvell поможет ускорить инновации в области оптического масштабирования для ИИ нового поколения. Стоит отметить, что сама Amazon владеет небольшой долей акций Marvell.

По мере роста требований к пропускной способности и дальности передачи данных каждый узел в дата-центре должен перейти с меди на оптику. На уровне стоек и соединений между ЦОД это уже произошло, следующий этап — переход на оптические соединения в самих стойках. Платформа Celestial AI Photonic Fabric специально разрабатывалась для нового этапа развития. Она позволяет масштабировать крупные ИИ-кластеры как внутри стоек, так и между ними. Энергоэффективность при этом более чем вдвое выше, чем у медных интерконнектов, также обеспечивается большая дальность передачи данных и более высокая пропускная способность.

При этом, в сравнении с альтернативными оптическими технологиями, решение Celestial AI обеспечивает чрезвычайно низкое энергопотребление, сверхнизкую задержку на уровне наносекунд и превосходную термоустойчивость. Последнее является важным конкурентным преимуществом Photonic Fabric. Решение обеспечивает надёжную работу в экстремальных температурных условиях, создаваемых многокиловаттными XPU. Благодаря этому оптические компоненты можно размещать поверх вычислительных блоков XPU, а не по его краям, что даёт больше пространства для размещения HBM-стеков.

Первым вариантом применения технологии станут полностью оптические интерконнекты для вертикального масштабирования. Чиплет Photonic Fabric включает электрические и оптические компоненты в компактном чипе, обеспечивает скорость передачи данных до 16 Тбит/с (вдвое больше, чем у Ayar Labs TeraPHY). В один XPU можно интегрировать несколько таких чиплетов. При этом таким образом можно объединять и чиплеты внутри чипов, и массивы памяти.

Celestial AI уже активно взаимодействует с гиперскейлерами и другими партнёрами. Marvell ожидает, что чиплеты Photonic Fabric станут интегрировать в XPU и коммутаторы, что позволит отрасли обеспечить масштабное коммерческое развёртывание передовых интерконнектов. В компании рассчитывают, что значимый приток выручки от продуктов Celestial AI появится во II половине 2028 финансового года, в IV квартале того же года годовая выручка достигнет $500 млн, а годом позже вырастет до $1 млрд.

Первоначальная выплата за Celestial AI составит приблизительно $3,25 млрд. $1 млрд будет выплачен деньгами, а оставшуюся сумму — в виде приблизительно 27,2 млн обыкновенных акций Marvell. Кроме того, акционеры Celestial AI дополнительно получат ещё столько же акций Marvell стоимостью до $2,25 млрд при достижении компанией определённых финансовых показателей. Треть бонусов выплатят, если совокупная выручка Celestial AI составит не менее $500 млн к концу 2029 финансового года Marvell (январь 2030-го). Если же выручка превысит $2 млрд, то акционеры получат сразу все бонусы.

Как ожидается, сделка будет завершена в I квартале 2026 календарного года при выполнении обычных условий закрытия и получении необходимых разрешений регуляторов. Celestial AI неоднократно успешно привлекала средства на развитие перспективных интерконнектов. В частности, в марте 2024 года она получила от инвесторов $175 млн, а годом позже — $250 млн.

Постоянный URL: http://servernews.ru/1133312
03.12.2025 [01:28], Владимир Мироненко

AWS «сдалась на милость» NVIDIA: анонсированы ИИ-ускорители Trainium4 с шиной NVLink Fusion

AWS готовит Arm-процессоры Graviton5, которые составят компанию ИИ-ускорителям Trainium4 с интерконнектом NVLink Fusion, фирменными EFA-адаптерам и DPU Nitro 6 с движком Nitro Isolation Engine. Но что более важно, все они будут «упакованы» в стойки стандарта NVIDIA MGX.

Amazon и NVIDIA объявили о долгосрочном партнёрстве, в рамках которого ИИ-ускорители Trainium4 получит шину NVIDIA NVLink Fusion шестого поколения (по-видимому, 3,6 Тбайт/с в дуплексе), которая позволит создать стоечную платформу нового поколения, причём, что интересно, на базе архитектуры NVIDIA MGX, которая передана в OCP. Пикантность ситуации в том, что AWS годами практически игнорировала OCP, самостоятельно создавая стойки, их компоненты, включая СЖО, и архитектуру ИИ ЦОД в целом. Даже в нынешнем поколении стоек с GB300 NVL72 отказалась от референсного дизайна NVIDIA.

NVIDIA же напирает на то, что для гиперскейлерам крайне трудно заниматься кастомными решениями — циклы разработки стоечной архитектуры занимают много времени, поскольку помимо проектирования специализированного ИИ-чипа, гиперскейлеры должны озаботиться вертикальным и горизонтальным масштабированием, интерконнектами, хранилищем, а также самой конструкцией стойки, включая лотки, охлаждение, питание и ПО.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с тем управление цепочкой поставок отличается высокой сложностью, так как требуется обеспечить согласованную работу десятков поставщиков, ответственных за десятки тысяч компонентов. И даже одна задержка поставки или замена одного компонента может поставить под угрозу весь проект. Платформа NVIDIA если не устраняет целиком, то хотя бы смягчает эти проблемы, предлагая готовые стандартизированные решения, которые могут поставлять множество игроков рынка.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам NVIDIA, в отличие от других подходов к масштабированию сетей, NVLink — проверенная и широко распространённая технология. В сочетании с фирменным ПО NVLink Switch обеспечивает увеличение производительности и дохода от ИИ-инференса до трёх раз, объединяя 72 ускорителя в одном домене. Пользователи, внедрившие NVLink Fusion, могут использовать любую часть платформы — каждый компонент может помочь им быстро масштабироваться для удовлетворения требований интенсивного инференса и обучения моделей агентного ИИ, говорит NVIDIA.

 Источник изображения: AWS

Источник изображения: AWS

Что касается самих ускорителей Trainium4, то в сравнении с Trainium3 они будут вшестеро быстрее в FP4-расчётах, втрое быстрее в FP8-вычислениях, а пропускная способность памяти будет увеличена вчетверо. Впрочем, пока собственные ускорители Amazon не всегда могут составить конкуренцию чипам NVIDIA. Любопытно и то, что в рассказе о Trainium3 компания отметила о переходе от PCIe к UALink в коммутаторах NeuronSwitch для фирменного интерконнекта NeuronLink, объединяющего до 144 чипов Trainium. Однако после крупных инвестиций NVIDIA в Synopsys развитие UALink как открытой альтернативы NVLink теперь под вопросом.

Постоянный URL: http://servernews.ru/1133290
20.11.2025 [09:34], Владимир Мироненко

Представлены спецификации CXL 4.0: PCIe 7.0, агрегация портов и поддержка четырёх ретаймеров

Консорциум CXL Consortium объявил о выходе спецификации Compute Express Link (CXL) 4.0, которая более соответствует растущим требованиям рабочих нагрузок в современных ЦОД.

По словам Дерека Роде (Derek Rohde), президента CXL Consortium, также занимающего пост главного инженера в NVIDIA, выпуск спецификации CXL 4.0 открывает новую веху в развитии когерентной работы с памятью, удваивая пропускную способность по сравнению с предыдущим поколением и предлагая новые функции. Он отметил, что выпуск отражает стремление компаний-членов консорциума продвигать открытые стандарты, которые способствуют инновациям и открывают всей отрасли возможность масштабироваться для будущих моделей использования.

Новый стандарт CXL 4.0 получил поддержку линий с пропускной способности в 128 ГТ/с, что вдвое больше по сравнению с предыдущим, причём без увеличения задержки. Фактически стандарт приведён в соответствие с PCI Express 7.0. Также были сохранены ранее реализованные улучшения протокола CXL 3.0: FLIT-кадры размером 256 байт, FEC и CRC. Сохраняется и полная обратная совместимость со всеми предыдущими версиями — CXL 3.x, 2.0, 1.1 и 1.0.

Впрочем, тут есть нюансы. В CXL 4.0 появилась агрегация физических портов (Bundled Ports) в один логический порт, позволяющая одному устройству Type 1/2 одновременно подключаться к нескольким root-портам хоста или коммутатора для увеличения пропускной способности. При этом один из физических портов должен быть полнофункциональным, тогда как остальные порты могут быть оптимизированы исключительно для передачи данных. Агрегированные порты также поддерживают 256-байт FLIT-режим, но как минимум один физический порт должен поддерживать 68-байт режим ради обратной совместимости.

 Источник изображения: CXL Consortium

Источник изображения: CXL Consortium

Также спецификация реализует поддержку до четырёх ретаймеров для увеличения дальности передачи сигнала, повышение надёжности (RAS), снижение количества возможных ошибок, а также более детальные и актуальные отчёты о проблемах. Кроме того, появилась функция Post Package Repair (PPR), позволяющая хосту инициировать проверку устройства во время загрузки, т.е. до запуска рабочих нагрузок.

Комментируя выход CXL 4.0, Alibaba заявила, что как член-учредитель консорциума CXL, она активно поддерживает экосистему CXL: «Мы рады выпуску CXL 4.0, поддерживающей PCIe 7.0 и объединение портов, что отвечает растущим требованиям к пропускной способности памяти для современных облачных рабочих нагрузок. Кроме того, CXL 4.0 повышает надёжность и удобство обслуживания памяти благодаря расширенным возможностям оповещения об ошибках и резервирования памяти. Мы считаем, что CXL 4.0 представляет собой еще одну важную веху на пути к компонуемым, масштабируемыми надёжным стоечным архитектурам для ЦОД нового поколения».

Постоянный URL: http://servernews.ru/1132653
18.11.2025 [23:59], Владимир Мироненко

Arm добавила Neoverse поддержку NVIDIA NVLink Fusion

Arm объявила о расширении возможностей платформы Neoverse с помощью NVIDIA NVLink Fusion в рамках партнёрства с NVIDIA, обеспечивая всей экосистеме ту же производительность, пропускную способность и эффективность, которые впервые были реализованы на платформах Grace Hopper и Grace Blackwell. «NVLink Fusion — это связующее звено эпохи ИИ, объединяющее все CPU, GPU и ускорители в единую архитектуру стоечного масштаба», — заявил Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA.

Как сообщается в пресс-релизе, два года назад Arm и NVIDIA представили платформу Grace Hopper, в которой технология NVLink обеспечила согласованную интеграцию CPU и GPU. NVLink Fusion обеспечивает компаниям возможность подключать вычислительные системы на базе Arm к предпочитаемым ими ускорителям через согласованный интерфейс с высокой пропускной способностью.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Устойчивый спрос на Grace Blackwell способствует распространению NVLink Fusion во всей экосистеме Neoverse, позволяя партнёрам создавать дифференцированные, энергоэффективные ИИ-системы на базе Arm, отвечающие современным требованиям к производительности и масштабируемости. Arm отметила, что на текущий момент развёрнуто более чем 1 млрд ядер Neoverse и уверенно движется к достижению 50 % доли рынка среди ведущих гиперскейлеров к 2025 году. Все крупные провайдеры — AWS, Google, Microsoft, Oracle и Meta — используют Neoverse, а ИИ ЦОД следующего поколения, такие как проект Stargate, используют Arm как основную вычислительную платформу.

NVLink Fusion совместим с технологией AMBA CHI C2C (Coherent Hub Interface Chip-to-Chip) компании Arm, которая обеспечивает когерентное высокоскоростное соединения между CPU и ускорителями. Arm внедряет в платформу Neoverse последнюю версию протокола AMBA CHI C2C, чтобы SoC Neoverse могли беспрепятственно передавать данные между CPU Arm и ускорителями. Благодаря этому обеспечивается более быстрая интеграция, более быстрый вывод на рынок и большая гибкость для разработчиков ИИ-систем нового поколения.

В свою очередь, NVIDIA работает над стандартизацией многих компонентов в этих системах для повышения надёжности и времени безотказной работы. С этой целью в CPU NVIDIA Vera следующего поколения будут использоваться кастомные ядра Arm вместо ядер Neoverse. Fujitsu также разрабатывает собственные Arm-процессоры MONAKA-X, которые тоже получат NVLink Fusion. NVLink Fusion получат и x86-процессоры Intel.

Постоянный URL: http://servernews.ru/1132589
29.10.2025 [11:55], Сергей Карасёв

NVIDIA представила интерконнект NVQLink для гибридных вычислений на базе GPU и QPU

Компания NVIDIA анонсировала NVQLink — открытую системную архитектуру, предназначенную для тесной интеграции графических (GPU) и квантовых (QPU) процессоров с целью создания гибридных вычислительных платформ.

В разработке интерконнекта NVQLink приняли участие Брукхейвенская национальная лаборатория (BNL), Национальная ускорительная лаборатория им. Ферми (Fermilab), Национальная лаборатория имени Лоуренса в Беркли (LBNL), Лос-Аламосская национальная лаборатория (LANL), Национальная лаборатория Ок-Ридж (ORNL), Национальные лаборатории Сандия (SNL) и Тихоокеанская северо-западная национальная лаборатория (PNNL), которые принадлежат Министерству энергетики США (DoE). Кроме того, были вовлечены специалисты Линкольнской лаборатории Массачусетского технологического института (MIT Lincoln Laboratory).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Отмечается, что NVQLink обеспечивает открытый подход к квантовой интеграции. Максимальная пропускная способность в системах GPU — QPU заявлена в 400 Гбит/с, тогда как минимальная задержка (FPGA-GPU-FPGA) составляет менее 4 мкс. Интерконнект может применяться в составе ИИ-платформ, обладающих производительностью до 40 Пфлопс (FP4). Решение NVQLink оптимизировано для крупномасштабных квантовых вычислений в реальном времени.

В целом, NVQLink обеспечивает возможность непосредственного взаимодействия QPU разных типов и систем управления квантовым оборудованием с ИИ-суперкомпьютерами. Технология предоставляет готовое унифицированное решение для преодоления ключевых проблем интеграции, с которыми сталкиваются исследователи в области квантовых вычислений при масштабировании своих систем. Разработчики могут получить доступ к NVQLink благодаря интеграции с программной платформой NVIDIA CUDA-Q.

В число партнёров, вносящих вклад в NVQLink, входят разработчики квантового оборудования Alice & Bob, Anyon Computing, Atom Computing, Diraq, Infleqtion, IonQ, IQM Quantum Computers, ORCA Computing, Oxford Quantum Circuits, Pasqal, Quandela, Quantinuum, Quantum Circuits, Quantum Machines, Quantum Motion, QuEra, Rigetti, SEEQC и Silicon Quantum Computing, а также разработчики квантовых систем управления, включая Keysight Technologies, Quantum Machines, Qblox, QubiC и Zurich Instruments.

Постоянный URL: http://servernews.ru/1131533
22.10.2025 [17:09], Владимир Мироненко

AWS пожертвовала компактностью GB300 NVL72, лишь бы снизить зависимость от NVIDIA

Amazon Web Services (AWS) нашла выход, как использовать собственные Nitro DPU K2v5/6 (EFA) в новейших стоечных системах NVIDIA GB300 NVL72, которые, как считает гиперскейлер, превосходит адаптеры NVIDIA ConnectX-7/8 по производительности. В связи с тем, что в стойках NVIDIA Oberon используются укороченные лотки высотой 1U, AWS размещает NIC в отдельной стойке JBOK, предназначенной только для сетевых карт, пишет SemiAnalysis.

Причина кроется в невозможности установить в 1U сразу девять фирменных адаптеров (8 × EFA + 1 × ENA/EBS). Для серверных систем GB200 NVL предыдущего поколения AWS выбрала вариант NVL36×2, поскольку только в этом случае использовались 2U-узлы, где достаточно места для всех NIC. Однако сдвоенная конфигурация менее эффективна, чем нативная конструкция NVL72. NVIDIA сама была не очень довольна вариантами NVL36. Meta, например, и вовсе «растянула» NVL36×2 на шесть стоек, чтобы обойтись воздушным охлаждением.

 Источник изображения: SemiAnalysis

Источник изображения: SemiAnalysis

AWS в случае Blackwell Ultra предпочла остановиться на NVL72-варианте, а DPU вынести в отдельную стойку — всего 18 узлов высотой 2U, по 9 NIC в каждом. С узлами NVIDIA они соединены активными электрическими кабелями (AEC) и портами OSFP-XD для передачи сигналов PCIe 6.0. По словам AWS, её адаптеры лучше справляются с нагрузками, чем ConnectX-8 (RoCEv2), что отчасти спорно. В любом случае таким образом компания снижается зависимость от NVIDIA.

 Источник изображения: SemiAnalysis

Источник изображения: SemiAnalysis

С точки зрения SemiAnalysis, доработка GB300 в AWS помогает устранить единую точку отказа в референсной архитектуре NVIDIA, где каждый ускоритель взаимодействует только с одним сетевым адаптером ConnectX-8, тогда как в конфигурации AWS каждый ускоритель общается с двумя NIC.

У AWS накоплен богатый опыт разработки собственного оборудования для ЦОД. Ранее компания в партнёрстве с Broadcom разрабатывала специализированные сетевые коммутаторы. Также недавно представленные ею EC2-инстансы P6-B200 и P6e-GB200 оснащены собственным сетевым стеком Elastic Fabric Adapter (EFAv4) на базе собственных контроллеров Nitro, который оптимизирует обработку сетевых пакетов и снижает задержки для высокопроизводительных приложений.

Постоянный URL: http://servernews.ru/1131199
14.10.2025 [20:58], Владимир Мироненко

Oracle анонсировала крупнейший в мире зеттафлопсный ИИ-кластер OCI Zettascale10: до 800 тыс. ускорителей NVIDIA в нескольких ЦОД

Oracle анонсировала облачный ИИ-кластер OCI Zettascale10 на базе сотен тысяч ускорителей NVIDIA, размещённых в нескольких ЦОД, который имеет пиковую ИИ-производительность 16 Зфлопс (точность вычислений не указана). OCI Zettascale10 — это инфраструктура, на которой базируется флагманский ИИ-суперкластер, созданный совместно с OpenAI в техасском Абилине (Abilene) в рамках проекта Stargate и основанный на сетевой архитектуре Oracle Acceleron RoCE нового поколения.

OCI Zettascale10 использует NVIDIA Spectrum-X Ethernet — первую, по словам NVIDIA, Ethernet-платформу, которая обеспечивает высокую масштабируемость, чрезвычайно низкую задержку между ускорителями в кластере, лидирующее в отрасли соотношение цены и производительности, улучшенное использование кластера и надежность, необходимую для крупномасштабных ИИ-задач.

Как отметила Oracle, OCI Zettascale10 является «мощным развитием» первого облачного ИИ-кластера Zettascale, который был представлен в сентябре 2024 года. Кластеры OCI Zettascale10 будут располагаться в больших кампусах ЦОД мощностью в гигаватты с высокоплотным размещением в радиусе двух километров, чтобы обеспечить наилучшую задержку между ускорителями для крупномасштабных задач ИИ-обучения. Именно такой подход выбран для кампуса Stargate в Техасе.

Oracle отметила, что помимо возможности создавать, обучать и развёртывать крупнейшие ИИ-модели, потребляя меньше энергии на единицу производительности и обеспечивая высокую надёжность, клиенты получат свободу работы в распределённом облаке Oracle со строгим контролем над данными и суверенитетом ИИ.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Изначально кластеры OCI Zettascale10 будут рассчитаны на развёртывание до 800 тыс. ускорителей NVIDIA, обеспечивая предсказуемую производительность и высокую экономическую эффективность, а также высокую пропускную способность между ними благодаря RoCEv2-интерконнекту Oracle Acceleron со сверхнизкой задержкой. Acceleron предлагает 400G/800G-подключение со сверхнизкой задержкой, двухуровневую топологию, множественное подключение одного NIC к нескольким коммутатором с физической и логической изоляцией сетевых потоков, поддержку LPO/LRO и гибкость конфигурации. DPU Pensando от AMD в Acceleron место тоже нашлось.

 Источник изображения: Oracle

Источник изображения: Oracle

OCI уже принимает заказы на OCI Zettascale10, который поступит в продажу во II половине следующего календарного года. В августе NVIDIA анонсировала решение Spectrum-XGS Ethernet для объединения нескольких ЦОД в одну ИИ-суперфабрику, которым, по-видимому, воспользуется не только Oracle, но и Meta.

Постоянный URL: http://servernews.ru/1130803

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;