Материалы по тегу: ии

22.04.2026 [01:35], Владимир Мироненко

MWS: в России продолжается олигополизация IT-рынка, а самым конкурентным рынком ПО остаётся рынок ИИ

Согласно исследованию MWS Cloud, на российском ИТ-рынке (ПО и оборудование) продолжается процесс олигополизации. В частности, на рынке ПО в 2026 году на Топ-5 компаний приходилось 58 %, тогда как годом ранее их доля составляла 56,8 %, а в 2022 — 52,8 %. Лидером по олигополизации оказался рынок платёжных систем, где доля Топ-5 игроков составила 93 %, а самым конкурентным — рынок ИИ, где их доля равна 36 %.

В 2026 году на рынке облаков на Топ-5 игроков придётся 74 % рынка, тогда как в 2022 году на них приходилось 63 %. На рынке ERP и бухучёта на Топ-5 компаний придётся 67 % (в 2022 году — 66 %), HR и ИБ-сервисов — 62 % (в 2022 году — HR — 57 %, ИБ-сервисов — 55 %), ПО для взаимодействия с клиентами — 59 % (33 %), систем управления данными — 56 % (51 %), управления бизнесом — 54 % (53 %), производственного ПО — 51 % (50 %), систем продуктивности — 44 % (38 %), платформенного ПО — 42 % (38 %).

 Источник изображения: MWS

Источник изображения: MWS

Аналогичная ситуация наблюдается и на рынке оборудования в России. На Топ-5 компаний в среднем приходится 57,6 % рынка (в 2025 году — 54,8 %). Наибольшая доля Топ-5 компаний отмечена на рынке СХД — 75 % (62 % в 2022 году); далее следуют рынок серверов — 58 % (51 %), сетевого оборудования и ИБ — 57 % (в 2022 году 5 7% — на рынке сетевого оборудования, 56 % — на рынке ИБ-оборудования), оборудования для ЦОД — 41 % (59 %).

Также укрепляются позиции Топ-5 компаний на рынке ИТ-услуг. Если в 2022 году в среднем их доля составляла 44 %, то в 2025 году она увеличилась до 51 %, а в 2026 году — до 53 %. Лидирует по олигополизации рынок колокации, где в 2026 году доля Топ-5 компаний составит 89 % (в 2022 году — 84 %). За ним следует рынок ИИ-сервисов — 71 % (53 %), далее — консалтинг — 64 % (51 %), заказная разработка ПО — 47 % (28 %), аутсорсинг — 43 % (38 %), системная интеграция — 35 % (31 %), услуги ИБ — 24 % (27 %).

Постоянный URL: http://servernews.ru/1140410
21.04.2026 [22:14], Руслан Авдеев

Fermi 2.0: из проекта мега-ЦОД им. Трампа ушёл не только гендир, но и главбух

Многочисленные проблемы Fermi America, занимающейся эпохальным проектом мега-ЦОД им. Дональда Трампа (The President Donald J. Trump Advanced Energy and Intelligence Campus), сообщает The Register. В последние дни компания, отвечающая за строительство 17-ГВт кампуса Project Matador (HyperGrid) площадью 2,9 тыс. га в Западном Техасе, пережила серию потрясений. Сооснователь компании Тоби Нойгебауэр (Toby Neugebauer) отказался от поста генерального директора, следом подал в отставку и финансовый директор Майлз Эверсон (Miles Everson). Впрочем, оба остались членами совета директоров.

Fermi не так давно столкнулась с проблемами при закупках энергетического оборудования, а также с поиском якорного арендатора мощностей своего будущего кампуса. Ранее сообщалось, что некий арендатор найден в ноябре 2025 года, но позже он отказался от сделки. Неофициально глава Fermi говорил об AWS, но фактически ни одна из сторон не признала факт переговоров. Среди других потенциальных клиентов также называлась Palantir. В результате инвесторы подали к компании коллективный иск.

По данным экспертов Stifel, в минувшие выходные компания провела конференцию с целью успокоить инвесторов. По словам компании, в уходе Нойгебауэра есть и положительные стороны. Беспокойство, вызванное соответствующей новостью, понятно, но в смене CEO нет ничего экстраординарного. Кроме того, после объявления об уходе в пятницу отмечена активизация переговоров с клиентами — высока вероятность того, что проблема была именно в самом Нойгебауэре, поэтому в дальнейшем переговоры, вероятно, упростятся.

 Источник изображения: Fermi America

Источник изображения: Fermi America

Нойгебауэр уже столкнулся с многочисленными судебными исками, в одном из которых его обвиняют в мошенничестве. Сам бизнесмен тоже подал в суд на некоторых бывших инвесторов, в том числе известных политиков и бизнесменов, связанных PayPal, Palantir и Founders Fund. Более того, Нойгебауэ недавно вступил в перепалку с министром торговли США Говардом Лютником, который, по его мнению, частично блокирует реализацию Project Matador.

Так или иначе в понедельник были анонсированы изменения, получившие название Fermi 2.0. Ведущий независимый член совета директоров Fermi Мариус Хаас (Marius Haas) назначен председателем совета. Ранее он занимал руководящие должности в Compaq, HPE, KKR и Dell. Он же будет курировать поиск нового генерального директора. В качестве временной меры сформирован т.н. «Офис генерального директора» (Office of the CEO) — структура с двойным руководством, которую будут возглавлять недавно назначенный сопрезидент и бывший операционный директор Хакобо Ортис Бланес (Jacobo Ortiz Blanes), а также бывший советник совета директоров Анна Бофа (Anna Bofa), имеющая опыт работы в Google, Dropbox, Pinterest и Meta.

Параллельно ведутся переговоры с кандидатом на должность временного финансового директора. Также компания прибегла к услугам кадрового агентства Heidrick & Struggles. Кроме того, появятся два новых места в совете директоров. Дополнительно компания формирует новую штаб-квартиру в Далласе (Техас) и обустраивает офис в Амарилло (Техас) — в непосредственной близости от места реализации Project Matador. В понедельник акции Fermi закрылись с падением на 15 %, их цена оказалась на 80 % ниже максимума октября 2025 года, когда они стоили $29,08.

Постоянный URL: http://servernews.ru/1140341
21.04.2026 [21:56], Андрей Крупин

«Турбо облако» представило платформу для быстрого запуска ИИ-моделей с поминутной тарификацией и автоматическим масштабированием

Облачный провайдер «Турбо облако» (входит в коммерческий IT-кластер «Ростелекома»), запустил Inference Platform — платформу для развёртывания и эксплуатации моделей искусственного интеллекта, в основу которой положены ускорители NVIDIA H200 SXM с интерконнектом InfiniBand.

Inference Platform поддерживает различные типы ИИ-моделей, включая open source-решения. Пользователи могут загружать собственные модели или использовать контейнерные образы, разворачивая их в облачной среде без дополнительных инфраструктурных настроек. Сервис обеспечивает автоматическое масштабирование ресурсов (автоскейлинг) в зависимости от нагрузки. Такой подход позволяет оптимизировать использование GPU и снизить затраты при нерегулярной нагрузке, говорит компания.

Платформа поддерживает распределённый инференс, позволяя запускать модели объёмом до 1 тплн параметров с размещением на нескольких вычислительных узлах. Также доступно гибкое использование GPU-ресурсов, включая их дробление под задачи меньшего объёма. Дополнительным преимуществом является поминутная тарификация ресурсов, гарантирующая более точный контроль расходов по сравнению с почасовой оплатой.

 Источник изображения: Omar Lopez-Rincon / unsplash.com

Источник изображения: Omar Lopez-Rincon / unsplash.com

В настоящее время новый продукт доступен для тестирования: компании могут оценить его возможности на собственных моделях.

Постоянный URL: http://servernews.ru/1140402
21.04.2026 [20:48], Владимир Мироненко

В ВТБ призвали к партнёрству с Китаем для развития суверенного ИИ

Развивать суверенные технологий ИИ в России, включая использование больших языковых моделей (LLM) и вычислительных мощностей, необходимо в партнёрстве с дружественными странами, прежде всего, с Китаем, заявил заместитель руководителя технологического блока ВТБ. Он подчеркнул, что при этом важно учитывать необходимость защиты данных россиян, которые используются при обучении ИИ.

Топ-менеджер отметил, что открытые LLM, разработанные китайскими компаниями, работают «чуть лучше», чем российские модели, но их использование несёт определенные риски для технологического суверенитета, так как они созданы за пределами России. Использование российских моделей, в частности, от «Яндекса» и Сбера, снимает часть этих рисков.

Вместе с тем топ-менеджер ВТБ считает, необходимо использовать лучшие технологии, чтобы не оказаться в числе отстающих: «Для того, чтобы наши модели были не хуже, мы стараемся обучать их на обезличенных данных. И считаем, что партнёрство с Китаем — это правильный возможный вариант, они действительно сейчас по многим направлениям лидируют». Это также относится к развитию суперкомпьютеров, необходимых для ИИ: «Если взять вычислительные мощности, которые есть за рубежом и которые есть у нас, понятно, что те суперкомпьютеры, которые сейчас работают, в первую очередь в США, многократно превышают те мощности, которые есть в России. И это тоже проблема».

 Источник изображения: Hanson Lu/unsplash.com

Источник изображения: Hanson Lu/unsplash.com

Он добавил, что в рамках кооперации уже запущены большие совместные лаборатории с китайскими коллегами. Также начинают осуществлять сборку серверов в России с китайскими GPU: «Это — будущее, так как без кооперации не обойтись. Мы большая и сильная страна, но есть другие большие и сильные страны, вместе с которыми мы достигнем больших результатов».

Также было отмечено, что применение ИИ-технологий в финансовом секторе усложняется в связи с необходимостью выполнения требований по соблюдению банковской тайны и защите персональных данных. Поэтому, для того чтобы использовать самые эффективные и популярные большие языковые модели, но при этом не допустить утечку данных, в ВТБ используют их on-premise, ограничивая их применение защищённым банковским контуром. «На сегодняшний день к такому режиму работы готовы наши российские большие языковые модели, в том числе YandexGPT и GigaChat», — сообщил топ-менеджер.

Постоянный URL: http://servernews.ru/1140399
21.04.2026 [19:38], Руслан Авдеев

Google и CoreWeave взялись за «мусорные» облигации на миллиарды долларов

Поддерживаемая Google рекордная сделка по привлечению инвестиций и дополнительная продажа облигаций компанией CoreWeave обеспечили новое вливание в индустрию ИИ, на этот раз в объёме $6,7 млрд, сообщает Bloomberg. При это речь идёт о высокодоходных, но высокорисковых «мусорных» облигациях.

Связанная с Google сделка под руководством Morgan Stanley оценивается в $5,7 млрд, хотя общая сумма заявок от всех желающих составила $19 млрд. Средства пойдут на строительство двух дата-центров в кампусе Meridian Arc HoldCo в округе Салливан (Sullivan, Индиана). Мощности ЦОД будут сданы в аренду неооблаку Fluidstack, а сама сделка поддерживается Google.

Тем временем провайдер облачной инфраструктуры CoreWeave продал новый пакет облигаций на сумму $1 млрд под 9,75 % с погашением в 2031 году, всего через неделю после предыдущего размещения ценных бумаг на $1,75 млрд. По данным Datacenter Dynamics, в марте 2026 года CoreWeave получила взаймы $8,5 млрд для поддержки закупок ИИ-ускорителей для Meta. Неооблачный провайдер наращивает свою долговую нагрузку для расширения инфраструктуры, к концу 2025 года совокупный долг компании составил $21,6 млрд. Ранее в текущем году она получила $2 млрд инвестиций от NVIDIA.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Быстрое распространение ИИ вызвало беспрецедентный дефицит свободных мощностей ЦОД, ИИ-ускорителей и электроэнергии для обеспечения их работы. Для финансирования компании буквально воюют за все доступные на рынке средства от «мусорных» облигаций до проектного финансирования. За последние недели резиденты Уолл-Стрит обеспечили финансирование на десятки миллиардов долларов, даже несмотря на то, что конфликт на Ближнем Востоке заставил некоторых потенциальных участников снизить активность. Но по мере того как у многих растёт оптимизм относительно перспектив долгосрочного мира, стоимость заёмных средств для компаний всех типов постепенно снижается.

Meridian Arc HoldCo представляет собой совместное предприятие Next Frontier и Fluidstack, именно оно выпустило пятилетние облигации для финансирования ЦОД в Индиане; компания поддерживается Google. Заём на $5,7 млрд с доходностью 6,25 % — это крупнейший выпуск высокодоходных облигаций в США, связанных с ИИ. Кроме того, это крупнейшая сделка такого рода, организованная единственной финансовой структурой с Уолл-Стрит. Размещение завершилось всего через день после старта официальной маркетинговой компании. Размещение побило собственный рекорд Morgan Stanley. Ранее рекордным считалось размещение облигаций в интересах криптомайнера TeraWulf в 2025 году на $3,2 млрд, также поддержанное Google и сделанное в интересах Fluidstack.

Fluidstack занимается строительством высокопроизводительной вычислительной инфраструктуры, в этой сфере наблюдается бум на фоне взрывного развития ИИ-проектов. Недавно компания анонсировала сделку с Anthropic на $50 млрд, предусматривающую строительство кастомных ЦОД для разработчика ИИ-моделей. В феврале 2026 года Google привлекла со помощью облигаций $32 млрд для поддержки растущих капитальных расходов. Техногигант рассчитывает, что последние составят в 2026 году $185 млрд, большая доля которых пойдёт на ЦОД и ИИ-инфраструктуру. Кроме того, Google снова поддержала Fluidstack, купив облигации на $1,3 млрд.

Постоянный URL: http://servernews.ru/1140353
21.04.2026 [18:29], Руслан Авдеев

Глава Microsoft пообещал досрочно ввести в эксплуатацию самый мощный в мире ИИ ЦОД проекта Fairwater

Многоцелевой ИИ-кампус Microsoft Fairwater в Висконсине строится ускоренными темпами и будет введён в эксплуатацию раньше запланированного срока, сообщает Datacenter Dynamics. Об этом на днях упомянул глава Microsoft Сатья Наделла (Satya Nadella). По его словам, это самый мощный в мире ИИ ЦОД, объединяющий «сотни тысяч» NVIDIA GB200, а оптоволокна в нём хватит, чтобы «обернуть планету четыре раза».

Пока нет данных, готова ли уже площадка Fairwater к эксплуатации или просто будет сдана несколько раньше. О том, что кампус в городке Маунт-Плезант (Mount Pleasant) будет вот-вот достроен, сообщалось ещё осенью 2025 года. Тогда же компания объявила, что суммарные инвестиции в площадку в течение нескольких лет составят $7,3 млрд. Строительство началось ещё в 2023 году на территории производственной площадки Foxconn. Первоначально планировалось застроить более 127 га.

Впоследствии компания получила разрешение застроить ещё 405 га, а чуть позже она купила за $43 млн ещё 65 га. В январе 2026 года Microsoft дано разрешение на строительство на территории кампуса ещё 15 зданий ЦОД. На данный момент Fairwater включает три больших объекта общей площадью около 11,5 тыс. м2. Для строительства понадобилось 74,9 км глубоких свай для фундамента, более 12 тыс. т строительной стали, 193 км подземного кабеля среднего напряжения и 116,8 км трубопроводов.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Похожий кампус Fairwater в Атланте (Джорджия) заработал в ноябре 2025 года, он будет напрямую связан с кампусом в Висконсине. Есть и планы строительства ЦОД в Лидсе (Leeds, Великобритания). По имеющимся данным компания, «близка» к получению разрешения на строительство в Западном Йоркшире. Кампус планируется построить на территории бывшей электростанции, он будет включать три трёхэтажных ЦОД (LBA10, 11 и 12) объекта площадью около 39 тыс. м2 каждый. Также на территории комплекса разместится электроподстанция. Строительство может стартовать в начале 2027 года.

Постоянный URL: http://servernews.ru/1140370
21.04.2026 [11:19], Сергей Карасёв

Anthropic получит от AWS до 5 ГВт ИИ-мощностей и до $25 млрд инвестиций

Компании Anthropic и Amazon объявили о расширении сотрудничества в области облачной инфраструктуры и технологий ИИ. В рамках партнёрства Anthropic получит до 5 ГВт мощностей в инфраструктуре AWS для обучения и поддержания работы своих передовых ИИ-моделей семейства Claude. В ответ Amazon инвестирует в Anthropic дополнительные $5 млрд, а в будущем — ещё до $20 млрд в зависимости от достижения определённых коммерческих целей. Ранее Amazon уже вложила $8 млрд в Anthropic.

Отмечается, что Anthropic и Amazon тесно работают с 2023 года. В настоящее время более 100 тыс. клиентов используют модели Claude на платформе Amazon Bedrock. Партнёры также запустили Project Rainier — крупнейший в истории AWS и один из самых масштабных вычислительных кластеров в мире. На сегодняшний день Anthropic использует более 1 млн ускорителей AWS Trainium2 для обучения и обслуживания Claude.

В рамках расширенного соглашения Anthropic обязуется потратить более $100 млрд в течение следующих десяти лет на вычислительные мощности AWS. Речь идёт об использовании изделий Trainium текущих и будущих поколений, включая Trainium4. Кроме того, будут использоваться «десятки миллионов» ядер Graviton. В общей сложности это даст до 5 ГВт вычислительной мощности. Так, к концу 2026 года будет введено в эксплуатацию около 1 ГВт ресурсов на базе Trainium.

 Источник изображения: Amazon

Источник изображения: Amazon

Договор предполагает использование дата-центров в Азии и Европе, что поможет повысить качество обслуживания растущей международной клиентской базы Claude. При этом пользователи смогут получить доступ к полнофункциональной консоли Claude (биллинг, безопасность, управление) непосредственно в облаке AWS — без необходимости управления дополнительными учётными данными или контрактами.

Нужно отметить, что Anthropic сотрудничает и с другими поставщиками облачных услуг. В частности, недавно компания объявила о расширении использования инфраструктуры Google Cloud, а также ускорителей Google TPU. Кроме того, Anthropic взяла на себя обязательство приобрести вычислительные мощности Microsoft Azure стоимостью $30 млрд и заключить контракт на поставку дополнительных мощностей объёмом до 1 ГВт.

Постоянный URL: http://servernews.ru/1140337
21.04.2026 [08:49], Руслан Авдеев

Испанцы разрабатывают аппаратный «стоп-кран» для защиты от бэкдоров в зарубежных чипах

На фоне изменчивой геополитической обстановки и сопутствующих проблем Национальный центр суперкомпьютерных вычислений Барселоны (Barcelona Supercomputing Center, BSC) совместно с Политехническим университетом Каталонии (Politècnica de Catalunya, UPC) запустили проект Safe and Secure Technologies, сообщает EE Times. Он предназначен для разработки безопасных чипов для критической инфраструктуры и экстренных служб.

Проект обеспечит разработки для сфер, в которых сбои в работе оборудования и угрозы безопасности могут иметь серьёзные последствия. В числе прочего это касается энергосетей, автомобильной промышленности, железнодорожного транспорта, телеком-сектора, гражданской обороны и др. ЕС стремится снизить зависимость от внешних технологий, поэтому Safe and Secure Technologies должен поспособствовать достижению технологического суверенитета.

В компании заявляют, что уязвимость часто заключается не в доступности оборудования, а в его происхождении. Проблема в том, что Европа в контексте чипов для критически важных систем во многом зависит от технологий из США, Тайваня и Юго-Восточной Азии в целом. Предполагается, что при определённых условиях сторонние игроки могут, например, использовать недокументированный бэкдор для полного отключения энергосистемы и др.

 Источник изображения: Barcelona Supercomputer Center

Источник изображения: Barcelona Supercomputer Center

Акцент в проекте сделан не на создании собственных уникальных решений, а на прозрачности, позволяющей полностью проверить безопасность продуктов. Основным аппаратным компонентом проекта станет т.н. «остров безопасности» (Safety Island), созданный на основе наработок европейских программ De-RISC, SELENE, ISOLDE и FRACTAL — интегрированный модуль обеспечения безопасности. Этот компонент будет устанавливаться в непосредственной близости от процессора и гарантирует, что устройство будет работать в соответствии со спецификации, необходимыми пользователю.

Фактически модуль контролирует работу основного процессора, отслеживает выполнение им задач в режиме реального времени и распределение ресурсов. Если эти условия не соблюдаются, модуль способен или сам принять меры, или инициировать прерывание, чтобы ПО или операционная система отреагировали на него в соответствии с пользовательскими запросами. Заявлено, что разработанное «железо» может выйти из строят только в исключительных обстоятельствах. В этому случае оно распознаёт ситуацию и контролируемым образом прерывает исполнение до того, как остальная система получит ошибочные инструкции.

 Источник изображения: Barcelona Supercomputer Center

Источник изображения: Barcelona Supercomputer Center

Разработка Safe and Secure Technologies ориентирована в первую очередь на интеграцию с продуктами на базе RISC-V, но в целом «ядро», предназначенное для размещения в хост-процессоре, можно интегрировать и с чипами Intel, Arm и AMD. Учитывая будущие нормативные требования и требования к безопасности продуктов, компания намерена поддерживать передовые стандарты криптографии. Строго говоря, продукт не является «криптографическим чипом как таковым», поскольку в его задачи входит контроль над функциями безопасности, но в будущем по запросу клиентов можно добавить даже поддержку «квантовой криптографии».

У компании не будет собственных производственных мощностей, основное внимание она будет уделять проектированию, а собственно выпуск поручат контрактным производителям. Сейчас проект работает над привлечением капитала, чтобы поменьше зависеть от государственных субсидий. Хотя возможности для государственного финансирования открыты, они не являются основным драйвером разработок. Переговоры с инвесторами продолжаются, ожидается, что в конечном итоге численность персонала составит несколько десятков человек. Выход на рынок будет зависеть от капитализации, начать работы планируется через 6-12 месяцев, после чего возможно значительное ускорение.

Safe and Secure Technologies — уже пятнадцатый проект, «отпочковавшийся» от BSC. Ранее коммерческие предприятия центра уже привлекли €44 млн частного капитала и наняли более 600 специалистов. В феврале сообщалось, что BSC уже активно участвует в гонке за обретением Европой технологического суверенитета. Первый европейский суверенный RISC-V-процессор Cinco Ranch изготовлен по техпроцессу Intel 3. В этом приняла непосредственное участие Лаборатория суперкомпьютерных вычислений (BZL) центра BSC-CNS, а в апреле появилась информация, что процессор готов к началу массового производства.

Постоянный URL: http://servernews.ru/1140262
20.04.2026 [19:29], Сергей Карасёв

AMD поможет в развитии экосистемы ИИ во Франции

Компания AMD и власти Франции объявили о расширении сотрудничества в области ИИ. Соответствующий документ подписан в Париже в Министерстве экономики, финансов, промышленности, энергетики и цифрового суверенитета.

Речь идёт о реализации Национальной стратегии Франции в области ИИ. Многолетнее сотрудничество с AMD направлено на укрепление местной экосистемы ИИ посредством развития соответствующей вычислительной инфраструктуры, организации исследовательских и образовательных программ. В частности, AMD планирует предоставлять учёным, разработчикам и стартапам оборудование, необходимое ПО и экспертную поддержку в рамках своих инициатив AMD University Program, AMD AI Developer Program и AMD AI Academy.

Ещё одним направлением работ станет углубление взаимодействия между AMD, французским национальным агентством высокопроизводительных вычислений (GENCI), французско-нидерландским Консорциумом Жюля Верна и Французской комиссией по альтернативным источникам энергии и атомной энергии (CEA). Стороны реализуют проект суперкомпьютера Alice Recoque — второй в Европе НРС-системы экзафлопсного класса после JUPITER. Ранее сообщалось, что в основу Alice Recoque войдут серверы с 256-ядерными процессорами AMD EPYC Venice и ускорителями Instinct MI430X (432 Гбайт HBM4). Монтаж системы стоимостью более €550 млн начнётся в 2026 году.

 Источник изображения: AMD

Источник изображения: AMD

В рамках проекта Alice Recoque планируется создание Центра передового опыта (Center of Excellence), который обеспечит экспертные знания, обучение и поддержку для максимально эффективного использования ресурсов нового суперкомпьютера. Появление центра также будет способствовать развитию более широкой экосистемы ИИ-фабрик во Франции.

Постоянный URL: http://servernews.ru/1140312
20.04.2026 [17:38], Владимир Мироненко

Ещё капельку: XPO-модули повысят плотность сетей в ИИ ЦОД, но CPO всё равно не избежать

Экосистема XPO (eXtra-dense Pluggable Optics) набирает обороты после презентации на OFC 2026, поскольку производители объединяются вокруг нового формата подключаемых 12,8-Тбит/с модулей, разработанного для ИИ-инфраструктуры, сообщил ресурс Converge Digest. Инициатива, возглавляемая Arista Networks и поддерживаемая растущей группой поставщиков оптических и кремниевых компонентов, ориентирована на следующее поколение ИИ-кластеров, где плотность портов, полоса пропускания и тепловые ограничения будут основными факторами, ограничивающими производительность.

Модуль XPO помещает 64 200G-канала (224 Гбит/с PAM4) в то же пространство, что и два модуля OSFP. В 1OU помещается 16 модулей XPO, что даёт 204,8 Тбит/с на юнит или 6,5 Пбит/с на ORv3-стойку. Это примерно вчетверо больше в сравнении 1.6T-модулями OSFP 1,6T, сообщил ресурс The Next Platform. XPO поддерживает интегрированное жидкостное охлаждение (водоблок), позволяет использовать любые типы оптики, а также предлагает значительное повышение отказоустойчивости. XPO поддерживает оптические стандарты SR, DR, FR, LR и ZR/ZR+, а также совместим с LPO.

 Источник изображений: Arista Networks

Источник изображений: Arista Networks

По словам Андреаса Бехтольсхайма (Andreas Bechtolsheim), соучредителя и главного архитектора Arista, в ИИ ЦОД мощностью 400 МВт с 1024 стойками, в каждой из которых размещено по 128 GPU, из расчёта 12,8 Тбит/с на вертикальное масштабирование и 1,6 Тбит/с для горизонтального масштабирования на каждый GPU при использовании коммутаторов с OSFP плотностью 1,6 Пбит/с на стойку потребуется более 1400 стоек. XPO позволит сократить количество стоек на 75 %, попутно сэкономив 44 % площади ЦОД.

Бехтольсхайм отметил, что крупные ИИ ЦОД будут охлаждаться жидкостью, и коммутаторы, используемые в них, также должны изначально поддерживать СЖО. Он допустил, что можно добавить охлаждающие пластины с жидкостным охлаждением на модули OSFP с плоской верхней панелью, но это не улучшит существенно тепловые характеристики. В случае XPO водоблок интегрируется внутрь модуля и способен отводить более 400 Вт как от маломощных, так и высокопроизводительных модулей, таких как 8×1.6T-ZR/ZR+, утверждает Бехтольсхайм.

Еще одно дополнительное преимущество заключается в том, что при жидкостном охлаждении компонентов XPO они работают с температурой на 20–25 °C ниже в ZR-модуле на 12,8 Тбит/с, чем в модуле OSFP-ZR на 1,6 Тбит/с с воздушным охлаждением. Кроме того, модули XPO конструктивно значительно проще, чем модули OSPF, что также повышает надёжность. «Каждая 32-канальная плата имеет только один микроконтроллер и один набор преобразователей напряжения, что на 75 % меньше общих компонентов по сравнению с четырьмя модулями OSPF», — сообщил Бехтольсхайм.

Вместе с тем повышение плотности размещения ведёт и к повышению энергопотребления. По оценкам Arista, 1,6-Пбит/с стойка с OSFP потребляет порядка 32 кВт, тогда как 6,5-Пбит/с XPO-стойка требует уже 128 кВт. Однако XPO-модули рассчитаны на питание 48/50 В DC непосредственно от общей шины всей стойки и уже сами отдают трансиверам 3,3 В, что способствуют упрощению всей конструкции, повышению компактности и снижению энергопотерь.

Arista объявила о заключении многостороннего соглашения (MSA) на поставку XPO, к которому присоединились около 45 ведущих поставщиков оптических модулей, включая Lightmatter, Eoptolink Technology и TeraHop. Ожидается, что серийное производство XPO начнётся в 2027 году. Впрочем, XPO можно рассматривать как временное решение до начала действительно массового внедрения интегрированной оптикой (CPO).

Постоянный URL: http://servernews.ru/1140303

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;