Материалы по тегу: интерконнект

08.04.2026 [17:29], Владимир Мироненко

Интерконнект UALink дорос до версии 2.0, хотя до сих пор не воплотился в «железе» — до NVLink ещё далеко

Консорциум UALink, созданный в 2024 году для разработки открытого интерконнекта для масштабируемого ИИ следующего поколения, который может стать альтернативой NVLink и NVSwitch от NVIDIA, объявил о ратификации следующей версии спецификации UALink 2.0, которая включает три основных дополнения — внутрисетевые вычисления (In-Network Compute), определение чиплетов (Chiplet Definition) и управляемость (Manageability).

Как указано в пресс-релизе, «новые спецификации поддерживают развёртывание решений UALink в средах с несколькими рабочими нагрузками, одновременно способствуя повышению эффективности технологии UALink, производительности для рабочих нагрузок ИИ и упрощению внедрения». Базовая скорость обмена данными (200G на линию) не изменилась. Более того, до сих пор нет и оборудования стандарта UALink 1.0, представленного год назад.

«Усовершенствования технологии UALink, представленные в этом релизе, позволят отрасли быстро и эффективно интегрировать решения UALink в свои архитектуры. Консорциум UALink по-прежнему привержен развитию инфраструктуры ИИ посредством открытых отраслевых стандартов, которые облегчают вывод на рынок приложений ИИ следующего поколения», — заявил Куртис Боуман (Kurtis Bowman), председатель совета директоров консорциума UALink.

 Источник изображения: UALink

Источник изображения: UALink

Консорциумом были представлены:

  • Общая спецификация UALink 2.0 (UALink Common Specification 2)
    • Снижает задержку, экономит полосу пропускания и повышает эффективность масштабирования для распределённого обучения и инференса для решений ИИ в сложных и многозадачных средах для систем UALink.
    • Добавляет поддержку внутрисетевых вычислений — метода, уменьшающего количество сообщений, которые необходимо отправлять между ускорителями для планирования работы. Меньший объём полосы пропускания, затрачиваемой на сообщения, означает больше полосы для данных, и более быструю работу для рабочих нагрузок ИИ.
  • Спецификация UALink 200G физического уровня и уровня передачи данных (DL/PL) 2.0 (UALink 200G Data Link and Physical Layers (DL/PL) Specification 2.0) — разделяет общую спецификацию UALink, создавая одно направление работы для протокола и транспортного уровня, и другое для технологий I/O. Как пояснил Боуман изданию The Register, это означает, что группа может разрабатывать решения для современных сетей 200G, сетей 400G, которые скоро станут доступны, а также всех будущих решений на физическом уровне. Разделение общей спецификации UALink позволяет UALink быстро развиваться по мере необходимости на новых физических уровнях и скоростях, не требуя изменений в других спецификациях.
  • Спецификация UALink Manageability Specification 1.0 стандартизирует управляемость систем и добавляет поддержку gRPC Network Management Interface, YANG, SAI и Redfish.
  • Спецификация UALink Chiplet Specification 1.0 описывает необходимую информацию для интеграции технологии UALink в SoC на основе чиплетов, включая интерфейсы, форм-факторы, управление потоком данных и управление чиплетами. Полностью соответствует спецификации UCIe 3.0 для упрощённой интеграции в существующие экосистемы чиплетов.

Боуман сообщил The Register, что чипы для спецификации 1.0 поступят в лаборатории во II половине 2026 года и появятся в продаже в 2027 году. К тому времени UALink выпустит спецификации версии 3.0 — задолго до дебюта чипов версии 2.0. Боуман признал, что версии 1.0 и 2.0 не будут полноценными конкурентами интерконнекту NVIDIA, но к версии 3.0, которая появится примерно через год, UALink достигнет паритета по производительности и темпам выпуска стандартов.

Консорциум UALink стремится создать альтернативу интерконнекту NVIDIA, которая будет работать с любым ускорителем и соответствовать его уровню производительности. Консорциум считает, что развивающиеся неооблачные платформы, специализирующиеся на размещении ИИ-систем, оценят возможность создания единого интерконнекта с поддержкой любых используемых ими GPU, отметил The Register.

Между тем NVIDIA не стоит на месте. В прошлом году она представила технологию NVIDIA NVLink Fusion, которая расширяет доступ к NVLink сторонним чипам. Компания уже заключила соглашения с Arm, AWS, Fujitsu, Intel, Marvell, MediaTek и SiFive. AMD же делает ставку на UALink.

Постоянный URL: http://servernews.ru/1139616
04.04.2026 [14:33], Сергей Карасёв

Стартап CavilinQ получил $8,8 млн на разработку квантового интерконнекта для объединения квантовых компьютеров

Стартап CavilinQ, специализирующийся на квантовых технологиях, объявил о проведении посевного (Seed) раунда финансирования, в ходе которого привлечено $8,8 млн. Инвестиционную программу возглавила компания QVT при участии Safar Partners, MFV Partners, Serendipity Capital и Harper Court Ventures.

CavilinQ занимается разработкой квантового интерконнекта, который, как ожидается, позволит масштабировать вычислительные платформы на основе квантовых компьютеров. Соучредителями стартапа являются Брэндон Гринкемейер (Brandon Grinkemeyer, на фото слева), который занимает пост технического директора, а также Шанкар Менон (Shankar Menon) — генеральный директор фирмы.

Стартап отмечает, что индустрия квантовых вычислений, несмотря на активное развитие, сталкивается с рядом препятствий. Одним из них является проблема масштабируемости, не позволяющая объединять отдельные квантовые процессоры в более крупные системы для повышения производительности.

 Источник изображения: CavilinQ

Источник изображения: CavilinQ

Для устранения этого ограничения CavilinQ намерена разработать фотонные каналы связи с усилением на базе резонаторов, которые позволят отдельным квантовым процессорам работать сообща в составе кластеров. На первом этапе такой интерконнект планируется адаптировать для квантовых платформ на основе нейтральных атомов. В дальнейшем может быть обеспечена совместимость с квантовыми компьютерами других типов. Ожидается, что технология CavilinQ позволит увеличить скорость передачи данных в сети на несколько порядков по сравнению с альтернативными квантовыми решениями.

Привлечённые в рамках посевного раунда средства будут направлены на создание специализированной лаборатории в Кембридже (Массачусетс, США), расширение команды и демонстрацию ключевых возможностей технологии.

Постоянный URL: http://servernews.ru/1139430
31.03.2026 [20:09], Владимир Мироненко

NVIDIA инвестировала $2 млрд в Marvell, приобщив её к своей ИИ-экосистеме и NVLink Fusion

Акции Marvell Technology подскочили более чем на 9 % на предрыночных торгах после объявления NVIDIA об инвестициях в размере $2 млрд в рамках стратегического партнёрства с интеграцией решений Marvell в экосистему NVIDIA. Это позволит Marvell подключиться к ИИ-фабрике NVIDIA и экосистеме AI-RAN посредством NVIDIA NVLink Fusion, предоставляя клиентам, использующим архитектуры NVIDIA, больший выбор и гибкость при разработке инфраструктуры следующего поколения.

Marvell предоставит клиентам специализированные XPU и масштабируемые сетевые решения, совместимые с NVLink Fusion, а NVIDIA — вспомогательные технологии, включая процессоры Vera, сетевые решения ConnectX и Bluefield, интерконнект NVLink и коммутаторы Spectrum-X, а также вычислительные ИИ-мощности в стоечном исполнении.

Для клиентов, разрабатывающих специализированные XPU, NVLink Fusion предлагает гетерогенную ИИ-инфраструктуру, полностью совместимую с системами NVIDIA, обеспечивая бесшовную интеграцию с платформами NVIDIA GPU, LPU, сетевыми и СХД-платформами, используя технологический стек NVIDIA и глобальную экосистему поставок. Ранее NVIDIA заключила похожие соглашения в отношении NVLink с SiFive, AWS, Arm, Fujitsu, Intel и MediaTek.

Компании также будут сотрудничать в ключевых областях, таких как кремниевая фотоника и телекоммуникационные сети с целью преобразования сетей в инфраструктуру ИИ с помощью NVIDIA Aerial AI-RAN для 5G/6G и развития передовых решений для оптического интерконнекта. «Вместе с Marvell мы даём клиентам возможность использовать экосистему ИИ-инфраструктуры NVIDIA и масштабировать её для создания специализированных вычислительных ИИ-мощностей», — заявил гендиректор NVIDIA Дженсен Хуанг (Jensen Huang).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Эта сделка является частью более широкой стратегии NVIDIA по инвестированию в ИИ-экосистему с целью укрепления своего лидерства на ИИ-рынке. Недавно NVIDIA инвестировала аналогичные суммы в несколько компаний, включая Synopsys, Nokia, CoreWeave, Coherent, Lumentum и Nebius, тем самым укрепляя свое влияние по всей цепочке создания стоимости.

Таким образом NVIDIA стремится удовлетворить экспоненциальный рост спроса на вычислительные мощности, обусловленный ИИ-инференсом и генерацией контента. Используя стратегические партнёрства, NVIDIA намерена ускорить развёртывание специализированной инфраструктуры и обеспечить разработку необходимых технологий для роста сегмента.

Постоянный URL: http://servernews.ru/1139215
16.03.2026 [00:10], Владимир Мироненко

Гиперскейлеры и разработчики чипов создали консорциум OCI MSA для внедрения масштабируемого оптического интерконнекта для ИИ

Группа компаний, включая AMD, Broadcom, Meta, Microsoft, NVIDIA и OpenAI, объявила о создании отраслевого консорциума OCI (Optical Compute Interconnect) Multi-Source Agreement (MSA) с целью формирования открытой экосистемы, управляемой гиперскейлерами, для обеспечения развития многовендорной цепочки поставок для масштабируемых оптических интерконнектов, отвечающих потребностям современной ИИ-инфраструктуры.

Компании отметили, что по мере совершенствования LLM традиционные медные интерконнекты достигают физических пределов с точки зрения пропускной способности, энергоэффективности и дальности. Оптические соединения позволяют передавать данные на большие расстояния, сохраняя при этом более предсказуемое энергопотребление. Поэтому многие компании рассматривают их как решение для расширения ИИ-инфраструктуры. До сих пор в отрасли отсутствовал единый стандарт для реализации оптических каналов связи в крупномасштабных ИИ-системах.

 Источник изображения: OCI MSA

Источник изображения: OCI MSA

Спецификация OCI разработана с учетом оптимизации энергопотребления, задержки и стоимости. Она основана на NRZ-модуляции с WDM-мультиплексированием. Кроме того, она отражает смещение фокуса подключения с «модульно-ориентированной» к «кремниево-ориентированной» модели. Благодаря более тесной интеграции оптики с вычислительными и сетевыми компонентами, OCI обеспечивает значительное увеличение плотности полосы пропускания и масштабируемости системы, обеспечивая энергопотребление на уровне медных линий связи.

 Источник изображения: OCI MSA

Источник изображения: OCI MSA

Как сообщает консорциум, открытая и совместимая спецификация позволяет гиперскейлерам дезагрегировать любые XPU и коммутаторы на основе общего оптического физического уровня (PHY), обеспечивая соответствие лучших в своём классе вычислительных мощностей самым современным оптическим решениям. Консорциум опубликовал первоначальную спецификацию оптического интерфейса 200G, разработанного для масштабных сетей ИИ:

  • Двунаправленная передача и приём по одному и тому же волокну.
  • Стандартизированные интерфейсы высокой плотности: OCI GEN1 4λ × 50 Гбит/с NRZ (200 Гбит/с в каждую сторону) и OCI GEN2 (400 Гбит/с в каждую сторону), что суммарно даёт до 800 Гбит/с на волокно.
  • Мультиплексирование DWDM с микрокольцевыми резонаторами (MRR).
  • Четыре оптических канала на двух различных группах длин волн.
  • Дальность работы до 500 м по волокну SMF-28.
  • Масштабируемость до 3,2 Тбит/с и более на волокно в будущем.
  • Поддержка традиционных трансиверов, интегрированной оптики и CPO.
  • Обеспечение соответствия оптических решений целевым показателям производительности, энергопотребления и стоимости, характерным для медных кабелей.
 Источник изображения: OCI MSA

Источник изображения: OCI MSA

В спецификации также подробно описаны требования к мощности сигнала, чувствительности приеъёмника, устойчивости к шуму и коррекции ошибок для поддержания стабильности сигнала на экстремальных скоростях. Стандартизированный подход и совместный план развития значительно снижают риски интеграции, сокращают циклы разработки и обеспечат всей цепочке поставок стоек для ИИ чёткий, безопасный путь для развёртывания многопоколенных оптических межсоединений от разных производителей.

 Источник изображения: OCI MSA

Источник изображения: OCI MSA

Как отметил ресурс The Technology Express, консорциум выделяется тем, что объединяет компании, выступающие конкурентами в разработке аппаратного обеспечения для ИИ. Например, собственная разработка NVLink одной компании доминирует в высокопроизводительных кластерах GPU. В то же время другие игроки отрасли поддерживают конкурирующий открытый стандарт UALink. Однако протокол OCI MSA фокусируется на PHY, а не на протоколах. Поэтому он потенциально может поддерживать трафик NVLink и UALink по оптическому волокну вместо медных кабелей.

Постоянный URL: http://servernews.ru/1138321
16.02.2026 [09:35], Сергей Карасёв

Мировой рынок оптических коммутаторов к 2029 году достигнет $2,5 млрд, но львиная доля всё равно придётся на Google

Исследовательская компания Cignal AI повысила прогноз по глобальному рынку оптических коммутаторов (OCS). Связано это с ускоренным развёртыванием кластеров ИИ на базе тензорных ускорителей (TPU) Google. Аналитики пришли к выводу, что сектор OCS имеет гораздо больший потенциал, нежели предполагалось ранее.

Google применяет оптические коммутаторы собственной разработки Apollo на базе MEMS-переключателей для формированя ИИ-кластеров. По заявлениям Google, решения OCS быстрее, дешевле и потребляют меньше энергии по сравнению с InfiniBand.

Cignal AI полагает, что объём мирового рынка OCS в 2026 году окажется в три раза больше, чем ожидалось ранее. Прогноз на 2029 год повышен более чем на 40 % по сравнению с цифрами, опубликованными в декабре: аналитики считают, что к этому времени продажи оптических коммутаторов увеличатся как минимум до $2,5 млрд.

 Источник изображения: Cignal AI

Источник изображения: Cignal AI

Предполагается, что до конца десятилетия большинство развёртываний OCS будут по-прежнему сосредоточены в инфраструктуре Google. При этом в ЦОД на основе GPU-ускорителей применение OCS окажется ограниченным: связано это с тем, что в таких экосистемах переход на оптические коммутаторы сопряжён со значительными техническими сложностями. В целом, внедрение OCS за пределами дата-центров Google пока находится на стадии проверки концепции и раннего тестирования.

«Общий потенциал рынка, безусловно, исчисляется миллиардами долларов, но основная часть краткосрочных инвестиций останется в пределах внутренних проектов Google», — говорит Скотт Уилкинсон (Scott Wilkinson), ведущий аналитик Cignal AI. Ранее эксперименты в этом направлении проводила Meta. Впрочем, не так давно в рамках OCP появилась отдельный проект OCS (Optical Circuit Switching), направленный на ускорение внедрения технологий оптической коммутации в ИИ ЦОД, что потенциально может ускорить развитие рынка.

Постоянный URL: http://servernews.ru/1136894
07.02.2026 [13:53], Сергей Карасёв

Montage Technology представила активные кабели PCIe 6.x/CXL 3.x

Компания Montage Technology объявила о разработке активных электрических кабелей (AEC) PCIe 6.x/CXL 3.x, предназначенных для организации высокоскоростного интерконнекта с низкой задержкой в дата-центрах, ориентированных на ресурсоёмкие задачи ИИ и НРС.

Отмечается, что на фоне стремительного внедрения ИИ и продолжающегося развития облачных вычислений быстро растёт нагрузка на ЦОД. При этом PCIe остаётся основным стандартом для обмена данными между CPU, GPU, сетевыми картами и высокопроизводительными хранилищами. Интерконнект на базе PCIe применяется как в рамках серверных стоек, так и в составе суперузлов, в связи с чем требуется увеличивать протяжённость соединений. В таких условиях, подчёркивает Montage Technology, медные линии на базе AEC имеют решающее значение для обеспечения целостности сигнала на больших расстояниях.

 Источник изображения: Montage Technology

Источник изображения: Montage Technology

Кабели Montage Technology PCIe 6.x/CXL 3.x с ретаймером используют фирменные блоки SerDes и передовую архитектуру DSP. Применён высокоплотный форм-фактор OSFP-XD. Говорится о развитых функциях мониторинга и диагностики каналов связи, что упрощает обслуживание систем и повышает их эффективность. Возможно использование в инфраструктурах с различными топологиями.

В разработке решения, как утверждается, принимали участие ведущие китайские производители кабелей. Проведены успешные тесты на совместимость с CPU, xPU, коммутаторами PCIe, сетевыми адаптерами и другими устройствами. В дальнейшем компания Montage Technology намерена развивать направление высокоскоростного интерконнекта, включая выпуск ретаймеров PCIe 7.0.

Постоянный URL: http://servernews.ru/1136493
30.01.2026 [10:43], Сергей Карасёв

Lightmatter представила оптический VLSP-движок Guide для ИИ-платформ нового поколения

Компания Lightmatter, специализирующаяся на разработке ИИ-ускорителей и других продуктов на основе фотоники, объявила о «фундаментальном прорыве» в лазерной архитектуре для систем передачи данных: представлена т.н. платформа сверхмасштабируемой фотоники — Very Large Scale Photonics (VLSP). Первым изделием на её основе стал оптический движок Guide, ориентированный на ИИ-системы следующего поколения.

Отмечается, что современные решения CPO (Co-Packaged Optics) и NPO (Near-Package Optics) базируются на дискретных лазерных диодах на основе фосфида индия (InP), интегрированных в модули ELSFP (External Laser Small Form Factor Pluggable). Однако эти архитектуры сталкиваются с трудностями, обусловленными ограничениями по мощности. Компоненты, при изготовлении которых используется эпоксидная смола, уязвимы к термическому повреждению. Вместе с тем для удвоения полосы пропускания требуется кратное увеличение количества ELSFP, что приводит к соответствующему повышению стоимости и энергопотребления, а также к увеличению занимаемого пространства. Кроме того, в случае дискретных лазеров могут возникать проблемы с обеспечением точного разнесения длин волн.

 Источник изображения: Lightmatter

Источник изображения: Lightmatter

Изделие Guide VLSP, как утверждается, устраняет существующие ограничения. Новая интегрированная архитектура по сравнению с дискретными лазерными модулями позволяет сократить количество компонентов, предлагая при этом значительно более высокую производительность и улучшенную надёжность. Технология предусматривает возможность масштабирования от 1 до 64+ длин волн при одновременном снижении сложности сборки. В результате значительно повышается плотность компоновки: платформа Guide первого поколения обеспечивает коммутационную способность до 100 Тбит/с в 1U-шасси. Для сравнения, в случае обычных решений потребовалось бы 18 модулей ELSFP в шасси высотой 4U.

Движок Guide используется в валидационных платформах Passage M-Series и L-Series (Bobcat). Говорится, что изделие обеспечивает пропускную способность до 51,2 Тбит/с на лазерный модуль в случае NPO и CPO. Выходная мощность составляет не менее 100 мВт в расчёте на оптическое волокно. Возможна генерация 16 длин волн с мультиплексированием. Поддерживаются двунаправленные фотонные каналы связи, в которых две сетки длин волн с шагом 400 ГГц чередуются с точным смещением на 200 ГГц (±20 ГГц). Новая платформа уже доступна заказчикам для тестирования.

Между тем компания Lightmatter сообщила о заключении сразу нескольких партнёрских соглашений. В частности, планируется интеграция решений Synopsys в платформу Lightmatter Passage 3D Co-Packaged Optics. В сотрудничестве с Global Unichip Corp. (GUC) Lightmatter намерена заняться разработкой CPO-продуктов для гиперскейлеров, ориентированных на ИИ. Кроме того, Lightmatter и Cadence объединили усилия с целью ускорения разработки передового интерконнекта для ИИ-инфраструктур.

Постоянный URL: http://servernews.ru/1136079
22.01.2026 [16:04], Владимир Мироненко

Upscale AI привлёк $200 млн для запуска ИИ-интерконнекта и коммутатора SkyHammer

Стартап Upscale AI, специализирующий на разработке ИИ-интерконнекта, объявил о привлечении $200 млн в рамках раунда финансирования серии А. С учётом предыдущего раунда общая сумма инвестиций в Upscale AI достигла $300 млн, а оценка его рыночной стоимости превысила $1 млрд, что придало ему статус «единорога». Это большая сумма для любой технологической компании со 150 сотрудниками, большинство из которых инженеры. Раунд серии А возглавили Tiger Global, Premji Invest и Xora Innovation, также в нём приняли участие Maverick Silicon, StepStone Group, Mayfield, Prosperity7 Ventures, Intel Capital и Qualcomm Ventures.

Upscale AI отметил, что поддержка инвесторов отражает растущее в отрасли мнение, что сети являются критически узким местом для масштабирования ИИ, а традиционные сетевые архитектуры, предназначенные для соединения вычислительных ресурсов общего назначения и хранилищ, принципиально не подходят для эпохи ИИ. Устаревшие сетевые решения для ЦОД были разработаны до появления ИИ, и слабо подходят для масштабного, синхронизированного масштабирования на уровне стоек.

Когда Upscale AI был основан в начале 2024 года, консорциум UALink и стандарт ESUN, предложенный Meta Platforms, ещё не были обнародованы, но идея гетерогенной инфраструктуры, безусловно, уже была, отметил ресурс The Next Platform. Созданная Upscale AI платформа объединяет GPU, ИИ-ускорители, память, хранилище и сетевые возможности в единый синхронизированный ИИ-движок. Для этого стартап разработал ASIC SkyHammer, который поддерживает ESUN, UALink, Ultra Ethernet, SONiC и Switch Abstraction Interface (SAI). Фактически Upscale AI хочет составить конкуренцию NVIDIA NVSwitch, дав возможность выбора интерконнекта при создании ИИ-инфраструктур.

 Источник изображения: Upscale AI

Источник изображения: Upscale AI

Upscale AI сообщил, что благодаря дополнительному финансированию представит первую полнофункциональную, готовую к использованию платформу, охватывающую кремниевые компоненты, системы и ПО. Также полученные средства будут направлены на расширение инженерных, торговых и операционных команд по мере перехода к коммерческому внедрению решения. По словам Арвинда Шрикумара (Arvind Srikumar), старшего вице-президента по продуктам и маркетингу компании, поставки образцов SkyHammer клиентам начнутся в конце 2026 года, а массовые поставки — в 2027 году, когда в это же время выйдут новые поколения GPU, XPU, коммутаторов и стоек. Коммутаторы должны быть у OEM/ODM-производителей за два квартала до того, как вычислительные ядра будут готовы к поставкам, чтобы они могли собрать системы и протестировать их.

«Я всегда считал, что гетерогенные вычисления — это правильный путь, и гетерогенные сети — это тоже правильный путь», — сообщил Шрикумар изданию The Next Platform. Он отметил, что Upscale AI фокусируется на демократизации интерконнекта для ИИ. Шрикумар признал, что у NVIDIA отличные технологии, и что это «потрясающая» компания, когда дело касается инноваций. Вместе с тем он считает, что в будущем, с учётом темпов развития ИИ, вряд ли одна компания сможет предоставить все необходимые технологии для ИИ.

Шрикумар считает, что PCIe-коммутация хорошо работает, когда несколько СPU взаимодействуют с несколькими GPU, относительная пропускная способность памяти GPU довольно низкая, а СPU и GPU расположены довольно близко друг к другу в серверном узле. В то же время Upscale AI скептически относится к попыткам создания коммутаторов UALink, ESUN или SUE путем использования ASIC-чипов для PCIe или путём извлечения начинки ASIC-чипов Ethernet-коммутаторов. «Те, кто давно занят в сфере ASIC, знают, что можно удалить много блоков, но основные элементы остаются прежними. Базовая ДНК каждого ASIC остается неизменной», — отметил Шрикумар. Поэтому в Upscale AI решили создать ASIC с нуля, а затем обеспечить поддержку протоколов семантики памяти по мере их появления.

Постоянный URL: http://servernews.ru/1135674
16.01.2026 [23:14], Владимир Мироненко

NVIDIA добралась до RISC-V: NVLink Fusion пропишется в серверных процессорах SiFive

Продолжая укреплять свои лидирующие позиции на ИИ-рынке NVIDIA не скрывает стремления построить целую экосистему ИИ-платформ с привязкой к своим решениям. Эти усилия активизировались в прошлом году с анонсом технологии NVLink Fusion, позволяющей использовать NVLink в чипах сторонних производителей. Как стало известно, вслед за Arm, Intel и AWS, присоединившимися к программе в прошлом году, экосистема NVLink Fusion пополнилась первым поставщиком чипов на архитектуре RISC-V — компанией SiFive, которая объявила о планах внедрить NVLink Fusion в свои будущие чипы для ЦОД.

SiFive отметила, что ИИ-вычисления вступают в фазу, когда архитектурная гибкость и энергоэффективность так же важны, как и пиковая пропускная способность. Нагрузки обучения и инференса растут быстрее, чем энергетические бюджеты, заставляя операторов ЦОД переосмыслить способы подключения и управления CPU, GPU и ASIC. Теперь производительность на Вт и эффективность перемещения данных стали первостепенными ограничениями при проектировании чипов.

Патрик Литтл (Patrick Little), президент и генеральный директор SiFive заявил, что ИИ-инфраструктура больше не строится из универсальных компонентов, а разрабатывается совместно с нуля: «Интегрируя NVLink Fusion с высокопроизводительными вычислительными подсистемами SiFive, мы предоставляем клиентам открытую и настраиваемую платформу CPU, которая легко интегрируется с ИИ-инфраструктурой NVIDIA, обеспечивая исключительную эффективность в масштабах ЦОД».

 Источник изображения: SiFive

Источник изображения: SiFive

Пресс-релиз SiFive не содержит каких-либо конкретных планов по продуктам, кроме сообщения о добавления поддержки NVLink к «высокопроизводительным решениям для ЦОД» SiFive. Предположительно, речь идёт о чипах платформы Vera Rubin или более поздних, т.е. о NVLink 6. Для SiFive — как поставщика IP-блоков RISC-V CPU — интерес заключается в использовании интерконнекта NVLink-C2C, который обеспечивает высокоскоростную, полностью кеш-когерентную связь между CPU и GPU, и это предпочтительный способ подключения к ускорителям NVIDIA в высокоинтегрированных системах.

В рамках экосистемы NVLink Fusion NVIDIA предлагает NVLink-C2C в качестве лицензируемого IP-ядра, что упростит интеграцию шины в будущие чипы SiFive. Для SiFive это может стать конкурентным преимуществом. Кроме того, NVIDIA объявила о поддержке RISC-V — на эту архитектуру портируют CUDA и драйверы, что со временем откроет для компании новые рынки.

Постоянный URL: http://servernews.ru/1135392
07.01.2026 [16:47], Владимир Мироненко

В попытке догнать Broadcom: Marvell купила за $540 млн XConn, разработчика коммутаторов PCIe и CXL

После объявления о заключении окончательного соглашения о приобретении XConn Technologies, поставщика передовых коммутаторов PCIe и CXL, акции Marvell Technology пошли в гору — их цена выросла на 4 %, сообщил ресурс SiliconANGLE. Сумма сделки составляет около $540 млн. Примерно 60 % будет выплачено наличными и 40 % — акциями Marvell, при этом стоимость последних будет определяться на основе средневзвешенной цены за 20 дней.

По словам Marvell, приобретение позволит ей расширить портфель коммутационных решений продуктами XConn PCIe и CXL, а также укрепить команду по разработке решений UALink высококвалифицированными инженерами XConn с глубокими знаниями в области высокопроизводительной коммутации. Коммутация необходима для соединения большого количества ИИ-микросхем в гигантские кластеры для запуска мощных больших языковых моделей.

Компания XConn, основанная в 2020 году и финансируемая частными инвесторами, выпустила в марте 2024 года первый в отрасли коммутатор Apollo с поддержкой CXL 2.0 и PCIe 5.0, обеспечивающий 256 линий. Его выпускает TSMC с использованием техпроцессов N16 и N5, сообщил ресурс Data Center Dynamics. Затем она выпустила в марте 2025 года гибридный коммутатор Apollo 2, объединяющий CXL 3.1 и PCIe 6.2 на одном чипе в конфигурациях от 64 до 260 линий.

 Источник изображения: Marvell

Источник изображения: Marvell

Когда-то Marvell считалась одной из самых перспективных компаний после NVIDIA, и многие эксперты полагали, что она станет одним из главных бенефициаров бума ИИ. Однако она по-прежнему уступает по темпам развития NVIDIA, а заодно и своему основному конкуренту Broadcom, который разрабатывает чипы как минимум для четырёх гиперскейлеров.

Покупка XConn призвана исправить ситуацию, дополняя недавнее приобретение Celestial AI. По словам Marvell, приобретение XConn добавит проверенные коммутационные продукты PCIe и CXL, IP-решения и инженерные кадры для расширения команды по масштабируемым коммутаторам UALink. «В сочетании с предстоящим приобретением Celestial AI мы будем иметь все возможности для предоставления клиентам производительности, гибкости и архитектурного выбора, необходимых им по мере роста размеров и сложности ИИ-систем», — отметил он.

 Источник изображения: XConn

Источник изображения: XConn

Сделка позволит Marvell расширить свой общий целевой рынок (Total Addressable Market, TAM) за счёт освоения растущих возможностей коммутаторов PCIe и CXL. PCIe-коммутаторы становятся критически важным строительным блоком для ИИ-инфраструктуры. В то же время CXL необходим для дезагрегации памяти в современных ЦОД. Сочетание контроллеров памяти Marvell CXL с коммутаторами XConn CXL позволит создать самый обширный в отрасли портфель коммутаторов для поддержки ресурсоёмких ИИ-задач.

На данный момент у XConn насчитывается более чем 20 клиентов. Marvell ожидает, что продукты XConn CXL и PCIe начнут приносить доход во II половине 2027 финансового года. Также ожидается, что в результате сделки Marvell получит около $100 млн дополнительного дохода в 2028 финансовом году.

Постоянный URL: http://servernews.ru/1134943

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;