Материалы по тегу:

15.05.2026 [18:22], Руслан Авдеев

Уж лучше АЭС за домом, чем ЦОД: американцам разонравились дата-центры

Исследование Gallup свидетельствует, что большинство американцев выступают против строительства ЦОД в своих регионах. При этом многие — категорически против, и это является серьёзной проблемой для застройщиков, сообщает The Register. 71 % опрошенных не согласны на ИИ ЦОД в своём районе, из них 48 % — решительно не согласны, и лишь 27 % высказались за строительство. Фактически дата-центры стали в США политически токсичными объектами, особенно с учётом их влияния на цены на электричество, доступность питьевой воды, чистоту воздуха и уровень шума. Примечательно, что против строительства АЭС рядом с их домом высказались лишь 53 %.

Помимо вышеназванных причин неприятия ЦОД есть и другие. Так, о том, что кампусы займут земли сельхозназначения и повлияют на природу, беспокоятся всего 7 % опрошенных (в сельской местности показатели могут быть выше). Около 25 % опрошенных обеспокоены возможным ухудшением качества жизни — увеличением транспортного потока и др., около 20 % боятся увеличения коммунальных платежей. Немало респондентов опасаются, что ИИ заменит работников-людей, подчёркивая, что отрасль нуждается в регулировании.

Что касается сторонников ЦОД, то они ссылаются на экономические выгоды — 55 % упомянули увеличение количества рабочих мест, а 13 % говорят об увеличении налоговых поступлений. Впрочем, на деле дата-центры после окончания строительства требуют для обслуживани очень небольшой штат, а вместо налоговых поступлений ЦОД часто добиваются больших субсидий, которые некоторым штатам обходятся в $1 млрд недополученного дохода ежегодно. Бывают и казусы — ЦОД JPMorgan Chase получил налоговые льготы на $77 млн в обмен на создание ровного одного постоянного рабочего места.

 Источник изображения: Kt Nash / Unsplash

Источник изображения: Kt Nash / Unsplash

По политическим предпочтениям голоса тоже разделились. 56 % сторонников Демократической партии выступают решительно против строительства дата-центров в своих регионах. Правда, против и 39 % сторонников республиканцев. По данным Gallup, для наращивания использования ИИ в США необходимо всё больше дата-центров, но большинство жителей страны, похоже, относятся к ЦОД негативно, и ситуация только ухудшается, что признают и гиперскейлеры.

Ещё в прошлом году представитель CyrusOne подчеркнула, что люди не связывают цифровые услуги, от которых они зависят, с необходимостью вычислительной инфраструктуры. Впрочем, как отмечает Digital Infrastructure Ireland, большинство людей боится ИИ, словно речь идёт о кормлении монстра. Поэтому, пытаться убедить их, что ЦОД нужны как раз для ИИ — не самая лучшая стратегия убедительный аргумент. Тем временем в США разворачивается нешуточная борьба против ЦОД и их сторонников. В Индианаполисе дом чиновника, способствовавшего постройке крупного ЦОД, расстреляли, а в Миссури жители городка свергли местные власти после одобрения строительства ЦОД, сместив половину городского совета и пообещав отстранить от работы оставшихся, с мэром во главе.

Постоянный URL: http://servernews.ru/1141788
15.05.2026 [17:28], Сергей Карасёв

Доля контрафактных комплектующих для зарубежного инфраструктурного оборудования в России приблизилась к 20 %

В России наблюдается увеличение доли контрафактных комплектующих для зарубежного инфраструктурного оборудования, включая системы хранения данных (СХД). Об этом говорят результаты исследования, проведённого специалистами центра экспертизы по комплексному сервису компании «К2Тех».

Представленные данные базируются на тестировании 2,5 тыс. компонентов, проведенном в собственных демо-лабораториях «К2Тех» в 2024–2025 гг. Изучались комплектующие для СХД, модули оперативной памяти, накопители, батареи и другие элементы. Спрос на подобные изделия растёт, поскольку инфраструктура российских компаний до сих пор почти на 70 % состоит из зарубежного оборудования. В процессе эксплуатации этим системам требуется обслуживание и ремонт, однако с поставками необходимых компонентов могут возникать сложности.

Как отмечает руководитель направления сервиса вычислительной инфраструктуры «К2Тех», после ухода иностранных компаний в 2022 году привычная структура поставок запчастей рухнула, а объём поддельной продукции резко вырос. По данным исследования, чаще всего контрафакт выявляется в запчастях для хранилищ Dell EMC — в 22 % случаев. На втором месте в этом антирейтинге находятся компоненты Lenovo (21 %), на третьем — Cisco (19 %). В пятерку по объёму подделок также вошли Hitachi Vantara (16 %) и Dell Technologies (13 %). В среднем доля контрафакта в комплектующих зарубежных инфраструктурных решений достигает 18,2 %.

 Источник изображения: unsplash.com / Marc PEZIN

Источник изображения: unsplash.com / Marc PEZIN

Выделяются три основных типа подделок. Один из них — визуальная имитация: отличить такие изделия от оригинальных запчастей можно по нестандартному шрифту на наклейках, ошибках в наименованиях, нелогичной маркировке и по другим признакам. Следующий вид контрафакта — это продукты сторонних производителей: визуально копия неотличима от оригинала, но в её конструкции используются компоненты без оригинальных идентификаторов и микрокодов поставщика. В результате в процессе работы могут возникать сбои и конфликты, наблюдаться нестабильность и пр. Третий тип подделок включает не только имитацию внешнего вида, но и перепрошивку устройств: таким способом могут имитироваться накопители для СХД. Однако из-за специфических требований к прошивкам ведущих поставщиков подобные диски либо не работают с самого начала, либо выходят из строя спустя короткое время.

Постоянный URL: http://servernews.ru/1141799
15.05.2026 [14:33], Андрей Крупин

«Группа Астра» запустила магазин приложений Astra Store для корпоративного рынка

«Группа Астра» объявила о коммерческом релизе Astra Store — корпоративного магазина приложений для работы с Linux-софтом на базе операционной системы Astra Linux. Платформа предназначена для предприятий, государственных структур и образовательных учреждений, которые находятся в процессе миграции на отечественное программное обеспечение или уже работают в экосистеме Astra Linux.

Astra Store представляет собой централизованное решение для управления жизненным циклом ПО в корпоративной среде. Платформа объединяет витрину самообслуживания для сотрудников, инструменты администрирования для IT-служб и встроенный конвейер проверки безопасности приложений. Магазин поддерживает установку Linux-приложений в форматах .deb, .flatpak и shell-скриптов. Каталог включает open source и вендорский софт, а также продукты экосистемы «Группы Астра». Все программные решения проходят многоуровневую проверку: тестирование на вирусы, угрозы, контроль целостности пакетов и проверку на уязвимости по CVE-базам.

 Магазин приложений Astra Store (источник изображения: «Группа Астра» / astra.ru)

Магазин приложений Astra Store (источник изображения: «Группа Астра» / astra.ru)

Платформа Astra Store позволяет администраторам централизованно управлять доступом к ПО: формировать профили пользователей, подготавливать коллекции приложений, разграничивать права на установку, контролировать используемое в организации программное обеспечение и планировать свою работу на основе аналитических данных и телеметрии с рабочих мест сотрудников. Магазин приложений совместим с корпоративными каталогами AD, ALD PRO, FreeIPA и другими решениями через LDAP и Kerberos, поддерживает сквозную SSO-авторизацию и инструменты автоматизации, подключение собственных репозиториев заказчика, а также интеграцию с ITSM- и SCCM- системами через API.

 Магазин приложений Astra Store (источник изображения: «Группа Астра» / astra.ru)

Магазин приложений Astra Store (источник изображения: «Группа Астра» / astra.ru)

В настоящий момент витрина приложений Astra Store включает широкий набор программных продуктов для построения корпоративного цифрового ландшафта. В магазине представлены браузеры, офисные пакеты, средства для коммуникаций и работы с медиафайлами, графические редакторы, инструменты для защиты данных и обеспечения безопасности, а также специализированный софт.

Магазин приложений Astra Store совместим со всеми версиями Astra Linux и поддерживает развёртывание на рабочих станциях, ноутбуках, VDI-терминалах и мобильных устройствах.

Постоянный URL: http://servernews.ru/1141793
15.05.2026 [13:32], Руслан Авдеев

23 атомные бомбы в день — 9-ГВт мега-ЦОД в Юте грозит значительно повысить температуру окрестностей, если вообще будет построен

Проект строительства в штате Юта кампуса ЦОД поднял немало острых вопросов, в том числе вопрос влияния объекта на местную экологию. Согласно расчётам одного из учёных, кампус и связанные с ним электрогенерирующие мощности ежедневно могут выделять энергию, эквивалентную энергии 23 атомных бомб, сообщает The Register.

Дата-центр является частью специальной зоны Stratos Project Area в округе Бокс-Элдер (Box Elder County). Он курируется Управлением по развитию военных объектов (MIDA), координирующим действия военных структур, местных властей и частных застройщиков. Создание зоны Stratos площадью более 16 тыс. га было одобрено местными властями в начале мая после MIDA одобрения MIDA и несмотря на опасения и протесты жителей, обеспечившие отсрочку голосования.

Мощность Stratos Project Area после завершения строительства составит 9 ГВт — примерно столько же в среднем потребляет Нью-Йорк. Фактически речь идёт об одном из крупнейших дата-центров в мире. Для сравнения, кластер Hyperion компании Meta рассчитан «всего» на 5 ГВт, а первые объекты мощностью 1 ГВт должны заработать только в 2026 году.

 Источник изображения: Alex Vámos/unspalsh.com

Источник изображения: Alex Vámos/unspalsh.com

По подсчётам профессора физики из Университета штата Юта (USU) Роба Дэвиса (Rob Davies), кампус и питающая его электростанция на природном газе ежедневно будут выбрасывать в окружающую среду энергию, эквивалентную энергии 23 атомных бомб (неуточнённой мощности). Согласно прогнозам профессора, это способно повысить в округе дневную температуру на 1–3 °C, а ночную — на 4–6 °C, с потенциально серьёзными экологическими последствиями в высокогорной пустынной долине, куда энергия и будет фактически «сбрасываться».

Выкладки многими ставятся под сомнение, особенно с учётом того, что тот предпочитает не делиться расчётами. Тем не менее даже скептики считают, что в целом расчёты могут быть верны, если за эталон принимать бомбу «Малыш» (15 кт ТНТ), сброшенную американцами на Хиросиму. При этом важно, что бомба высвобождает энергию мгновенно, а в случае в ЦОД процесс растянется на 24 часа. Так или иначе, большинство сходится во мнении, что цифры свидетельствуют о необходимости независимой экологической оценки.

Не так давно учёные Кембриджского университета пришли к выводу, что ЦОД могут создавать «тепловые острова», прогревая окружающую среду на несколько градусов на расстоянии до 10 км. Впрочем, в Omdia скептически относятся к таким выкладкам, утверждая, что даже очень крупные ЦОД обеспечивают лишь небольшой дополнительный приток тепла.

 Источник изображения: Craig Manners/unsplash.com

Источник изображения: Craig Manners/unsplash.com

Stratos рассматривается как долгосрочный проект с реализацией в течение многих лет. Это означает, что на полную мощность он может не выйти даже в течение десяти лет. Не исключено, что не выйдет никогда, поскольку финансистов всё больше беспокоят заимствования, необходимые для продолжения активного строительства ЦОД. Не так давно СМИ сообщали, что банки желают снизить риски, связанные со строительством ЦОД, а JPMorgan Chase и Morgan Stanley пытаются распределить связанные с ЦОД сделки на более широкий круг инвесторов.

CoStar Group предупреждает, что стоимость строительства таких объектов значительно выросла из-за роста первоначальных затрат на землю, электроснабжение и специальные строительные работы. По некоторым оценкам, строительство ИИ ЦОД на 1 ГВт мощности обойдётся приблизительно в $35 млрд, а NVIDIA утверждает, что речь идёт уже о $50–$60 млрд. Другими словами, строительство Stratos обойдётся в сотни миллиардов.

В Omdia называют более скромные, но тоже впечатляющие цифры. В компании предлагают исходить из стоимости в $8 млн/МВт, или $8 млрд/ГВт — только на строительство самих зданий, без учёта расходов на электроэнергию и вычислительное оборудование. Таким образом, проект Stratos будет дороже $100 млрд. Деньги на строительство, электростанцию, IT-оборудование и др. будут поступать из разных источников, но при оценке рисков долгового финансирования будет учитываться стоимость проекта целиком.

Застройщики ЦОД в США и других странах уже столкнулись с растущим противодействием развитию ЦОД, как в «условно-правовом» поле, так и со стрельбой. В результате реализация некоторых проектов задерживается, либо они полностью отменяются.

Постоянный URL: http://servernews.ru/1141774
15.05.2026 [12:34], Руслан Авдеев

Великобритания инициировала антимонопольное расследование практик лицензирования ПО в экосистеме Microsoft

Британский антимонопольный регулятор — Управление по конкуренции и рынкам (CMA) занялся изучением экосистемы Microsoft на предмет присвоения компании «стратегического рыночного статуса» (Strategic Market Status, SMS). Очередное расследование инициировано после введения в Великобритании режима контроля конкуренции на цифровых рынках. В случае, если компанию признают подпадающей под режим SMS, регулятор сможет применять в отношении неё специальные меры для поддержки конкуренции на рынке, сообщает The Register.

О грядущем расследовании CMA заявило в конце марта. Регулятора беспокоила практика лицензирования Microsoft программного обеспечения, мешающая конкуренции на рынке облачных сервисов. Сегодня CMA объявило, что «слышало» о том, что британские клиенты не всегда способны эффективно использовать ПО Microsoft с продуктами других вендоров. Это ограничивает возможности доступа к лучшим продуктам по самым конкурентоспособным ценам.

В 2025 году AWS и Google призывали (и не в первый раз) регулятора вмешаться в политику Microsoft и ограничить «экстраординарные и беспрецедентные» цены, взимаемые с клиентов за использование продуктов компании на сторонних облачных платформах. Ещё два года назад Google прямо назвала практику запретительного лицензирования по таким ценам «налогом» или «штрафом», который платят клиенты за то, что ПО Microsoft не используется в инфраструктуре Azure. Например, запуск Windows Server в облаке Google обходится до четырёх раз дороже, чем в Azure. С похожими жалобами выступала и AWS.

 Источник изображения: UX Indonesia/unspalsh.com

Источник изображения: UX Indonesia/unspalsh.com

CMA оценит, использует ли Microsoft монопольное положение, чтобы ограничить клиентам финансовые возможности выбора, и насколько успешно конкуренты на рынке ИИ могут интегрировать свои сервисы с ПО компании (дело касается агрессивного внедрения Copilot). По словам представителя Open Cloud Coalition, созданной под патронажем Google и раскритикованной Microsoft, новое расследование должно быть «быстрым и окончательным». Утверждается, что оно должно навсегда устранить несправедливые практики лицензирования Microsoft, обеспечив на британском облачном рынке равные условия конкуренции и уверенность в том, что можно будет внедрять инновации и инвестировать в долгосрочной перспективе.

Впрочем, результатов не стоит ждать в ближайшее время. Например, CMA потребовался 21 месяц, чтобы опубликовать результаты расследования на облачном рынке услуг Великобритании — утверждалось, что Microsoft и AWS пользуются доминирующим положением, фактически нанося ущерб британским клиентам облачных сервисов. В частности, в нём утверждалось, что Microsoft, возможно, взяла с корпоративных клиентов в Великобритании на £500 млн больше за размещение в облаках AWS и Google, чем если бы они платили за размещение в Azure.

В основе того расследования был вопрос, не мешают ли меры лицензирования ПО Microsoft конкуренции на рынке облачных сервисов. Он стал основой и для нынешнего. Последнее расследование должны завершить за девять месяцев, а решение о присвоении компании статуса SMS должны принять к февралю 2027 года. Сама Microsoft заявляет, что полна решимости «оперативно и конструктивно» сотрудничать с CMA. Всестороннее расследование будет касаться ПО для повышения производительности, ОС, СУБД и ИБ-инструментов.

В CMA утверждают, что намерены понять, как развиваются соответствующие рынки, какова на них роль Microsoft и какие целенаправленные действия могут потребоваться для того, чтобы у британских клиентов был выбор, доступ к инновациям и конкурентоспособные цены. Стоит отметить, что за лицензионной политикой Microsoft уже следят власти США, Европы, Бразилии, Южной Африки и Японии.

Постоянный URL: http://servernews.ru/1141767
15.05.2026 [12:23], Сергей Карасёв

Cerebras провела крупнейшее IPO в США в 2026 году, получив $5,55 млрд

Американская компания Cerebras Systems, специализирующаяся на разработке ИИ-ускорителей, провела первичное публичное размещений акций (IPO) на бирже Nasdaq. В ходе процедуры привлечено $5,55 млрд, что стало крупнейшим размещением в США в нынешнем году.

Cerebras намеревалась предложить 28 млн обыкновенных акций класса А. Предполагалось, что стоимость бумаг во время IPO составит от $115 до $125. Позднее стало известно, что будут выпущены 30 млн акций по цене $185. Кроме того, Cerebras предоставила андеррайтерам 30-дневный опцион на приобретение до 4,5 млн дополнительных акций класса А по цене IPO за вычетом комиссий.

В число организаторов размещения вошли Morgan Stanley, Citigroup, Barclays, UBS Investment Bank, Mizuho, TD Cowen, Needham & Company, Craig-Hallum, Wedbush Securities, Rosenblatt, Academy Securities, Credit Agricole CIB, MUFG и First Citizens Capital Securities. Торги бумагами начались 14 мая 2026 года под тикером CBRS: сразу же после этого их стоимость подскочила на 108% — до $385. Рыночная капитализация Cerebras в первый день торгов превысила $66 млрд.

 Источник изображения: Cerebras

Источник изображения: Cerebras

Отраслевые эксперты полагают, что после проведения IPO компания Cerebras сосредоточится на обновлении своего продуктового семейства. Ускорители Cerebras Wafer Scale Engine третьего поколения (WSE-3), дебютировавшие в марте 2024 года, уже изрядно устарели, а конкуренция со стороны других игроков рынка усиливается. Ожидается, что изделия Cerebras WSE-4 обеспечат значительный прирост производительности по сравнению с предшественниками, которые демонстрируют показатель на уровне 125 Пфлопс в разреженных FP16-вычислениях.

Предполагается также, что Cerebras увеличит объём памяти SRAM, который у WSE-3 составляет 44 Гбайт. Отмечается, что именно размер памяти является ограничивающим фактором при работе с LLM, оперирующими огромным количеством параметров. Так, для моделей с триллионами параметров, например, Kimi K2, требуется от 12 до 48 ускорителей WSE-3 — в зависимости от способа хранения весов и других характеристик. Таким образом, любое увеличение объёма SRAM позволит значительно повысить эффективность работы ускорителей.

На фоне IPO компания Cerebras также может упрочить партнёрские отношения с ведущими облачными провайдерами и разработчиками ИИ-моделей. Напомним, ранее компания заключила соглашение о сотрудничестве с Amazon Web Services (AWS). Вместе с тем OpenAI намерена закупить ускорители Cerebras на $20 млрд.

Постоянный URL: http://servernews.ru/1141763
15.05.2026 [10:57], Сергей Карасёв

Мини-ПК DX-AIPlayer получил ИИ-ускоритель DX-M1 с производительностью 25 Топс

Южнокорейский стартап Deepx, по сообщению ресурса CNX Software, выпустил компьютер DX-AIPlayer небольшого форм-фактора, предназначенный для решения ИИ-задач на периферии. В устройстве соседствуют процессор Intel поколения Alder Lake-N и фирменный ускоритель DX-M1.

Новинка заключена в корпус с габаритами 95 × 95 × 55 мм, а масса составляет около 450 г. Установлен чип Intel Processor N97 с четырьмя ядрами (без многопоточности), работающими на частоте до 3,6 ГГц (TDP — 12 Вт). Объём оперативной памяти LPDDR5 составляет 8 Гбайт с возможностью расширения до 16 Гбайт. Вместимость флеш-накопителя eMMC — 64 или 128 Гбайт.

Упомянутый ускоритель Deepx DX-M1 выполнен в виде модуля M.2 2280 M-Key с интерфейсом PCIe 3.0 x4. Он располагает 4 Гбайт памяти LPDDR5 и чипом QSPI NAND на 1 Гбит, а TDP составляет 5 Вт. Заявленная ИИ-производительность достигает 25 TOPS в режиме INT8.

 Источник изображения: Deepx

Источник изображения: Deepx

В оснащение мини-компьютера входит двухпортовый 1GbE-контроллер; опционально может быть добавлен комбинированный адаптер Wi-Fi/Bluetooth (M.2 2230 E-key). Есть интерфейсы HDMI 2.0b и DisplayPort 1.2 для вывода изображения, три порта USB 3.1 Type-A, два гнезда RJ45 для сетевых кабелей, два последовательных порта (RS-232/422/485), а также 3,5-мм аудиогнёзда. Питание (12 В) подаётся через DC-разъём. Возможен монтаж на стену или монитор посредством крепления VESA. Диапазон рабочих температур — от 0 до +60 °C.

Говорится о поддержке ОС Windows 10/11, Ubuntu (20.04/22.04/24.04 LTS) и Yocto Project (v5.1), а также популярных фреймворков, включая PyTorch, TensorFlow, ONNX, Keras и Ultralytics YOLO. Цена составляет $995 за версию с 8 Гбайт ОЗУ.

Постоянный URL: http://servernews.ru/1141746
15.05.2026 [09:34], Владимир Мироненко

Вот это разворот: SAP всё же предоставит ИИ-агентов для локальных ECC и S4/HANA, но при обещании переехать в облако

SAP совершила резкий разворот в своей стратегии внедрения ИИ, пишет The Register. Ранее немецкая компания утверждала об отсутствии планов внедрять «инновации», такие как ИИ, в системы on-premise, включая устаревшую ERP-платформу ECC, вызывав возмущение у некоторых пользователей.

В июле 2023 года генеральный директор Кристиан Кляйн (Christian Klein) заявил, что «новейшие инновации и возможности» SAP будут предоставляться только в публичном или частном облаке с использованием RISE with SAP — программы переноса и трансформации, которую компания запустила совместно с партнёрами и облачными провайдерами в начале 2021 года. «Наши новые инновации не будут доступны для клиентов, использующих локальные или размещённые на локальных серверах ERP-системы крупных облачных провайдеров», — отметил он тогда.

Но сейчас SAP утверждает обратное. На этой неделе на конференции SAP Sapphire Кляйн заявил, что «никакой путаницы нет». По его словам, новые технологии, такие как ИИ-агенты, созданные на платформе SAP Joule, будут доступны клиентам, использующим локальные решения, при условии, что они «зарегистрировались для перехода в облако», уточнил он.

 Источник изображения: Stephen Andrews / Unsplash

Источник изображения: Stephen Andrews / Unsplash

Кляйн добавил, что большинство ИИ-помощников и агентов Joule будут доступны on-premise в качестве временного решения в ECC и S/4HANA клиентов, которые уже вложили значительные силы в процесс миграции, чтобы они могли воспользоваться преимуществами ИИ во время модернизации. «Это абсолютно правильное решение, и я рад видеть, как клиенты воспользуются этой возможностью», — добавил он.

Мухаммад Алам (Muhammad Alam), член исполнительного совета по продуктам и разработке, заявил на конференции, что SAP предоставит «значительную часть ИИ-помощников и агентов Joule для работы в гибридных средах с возможностью подключения к локальной среде S/4 и ECC». Он тоже отметил, что предложение будет доступно «клиентам, которые начали модернизацию на платформе RISE with SAP».

 Источник изображения: SAP

Источник изображения: SAP

Новая возможность включена в пакет услуг под новым брендом Business AI Platform, сказал Алам: «Мы сделали это для того, чтобы вы могли начать получать выгоду от ИИ уже сегодня на платформе SAP Business AI Platform, пока вы модернизируете свою инфраструктуру». Опцией смогут воспользоваться только подписчики тарифного плана Max Success Plan. Согласно заявлению компании, этот план позволит клиентам ускорить активацию помощников и агентов, а также «внедрять ИИ, включая облачные и подходящие локальные системы, в удобном для них темпе по мере перехода в облако». Планируется, что предложение станет доступно уже в этом месяце.

Постоянный URL: http://servernews.ru/1141757
15.05.2026 [08:38], Сергей Карасёв

Сетевой протокол Multipath Reliable Connection (MRC) улучшит производительность и надёжность ИИ-кластеров

OpenAI в партнёрстве с AMD, Broadcom, Intel, Microsoft и NVIDIA анонсировала технологию Multipath Reliable Connection (MRC) — сетевой протокол, призванный повысить производительность и отказоустойчивость масштабных GPU-кластеров, ориентированных на ресурсоёмкие задачи ИИ. MRC уже используется во всех крупных кластерах OpenAI c NVIDIA GB200, в том числе в первом ЦОД Stargate, а также в ЦОД Microsoft по проекту Fairwater.

Отмечается, что при обучении больших языковых моделей (LLM) каждый этап предполагает огромное количество пересылок данных между узлами в кластере. При этом единственная задержка при подобных транзакциях может повлиять на весь процесс, потенциально провоцируя простои тысяч ИИ-ускорителей. Такие прерывания приводят к снижению эффективности использования имеющихся вычислительных мощностей и к увеличению временных затрат. Наиболее распространёнными причинами задержек и нестабильности при передаче данных являются перегрузка сети, сбои в работе каналов связи и коммутационных устройств. Причём по мере увеличения масштабов кластеров проблемы усугубляются: неполадки возникают всё чаще, а их устранение становится более затруднительным.

Протокол MRC, как утверждается, устраняет ряд ключевых недостатков сетей Ethernet применительно к инфраструктурам ИИ. В частности, вводятся такие механизмы, как адаптивная многопутевая передача данных, многоканальные перекрёстные Ethernet-фабрики, «распыление» пакетов, быстрое восстановление после сбоев и пр. MRC коренным образом меняет способ передачи трафика по сети.

 Источник изображений: OpenAI

Источник изображений: OpenAI

Традиционные платформы RoCE обычно привязывают поток данных к одному сетевому пути, что может снижать эффективность при возникновении неполадок. MRC же распределяет пакеты из одной серии одновременно по сотням путей и нескольким физическим сетевым каналам. В пакетах содержатся сведения об их конечном назначении, что позволяет ускорителям размещать данные в нужной последовательности, даже если пакеты поступают не по порядку. MRC хранит информацию о состоянии множества используемых путей: если обнаруживается перегрузка какого-либо из них, выбирается альтернативный маршрут, что позволяет оперативно перераспределить нагрузку по всей сети.

Ещё одной важной особенностью MRC является многоуровневая архитектура, которая изменяет саму физическую концепцию построения интерконнекта. Так, например, сетевой интерфейс 800GbE может быть разделён на 100GbE-каналы, связанные с восемью различными коммутаторами отдельными каналами. В результате можно построить восемь отдельных параллельных сетей. Такой подход оказывает значительное влияние на структуру кластера. В частности, коммутатор c 64 портами 800GbE можно использовать в конфигурации на 512 × 100GbE. И это позволяет построить сеть, объединяющую около 131 тыс. GPU, используя всего два уровня коммутации, против традиционных трёх- или четырёхуровневых топологий.

В протоколе MRC также используется новый способ обработки перегрузок и потери пакетов в сетях Ethernet. Обычно применяется технология PFC (Priority Flow Control) — управление потоками на основе приоритетов: этот механизм предполагает приостановку передачи данных для конкретных классов трафика, а не для всего порта целиком. В случае MRC задействован иной подход, основанный на выборочных подтверждениях, явных запросах на повторную передачу и обрезке пакетов. Так, когда коммутатор сталкивается с перегрузкой, он может отрезать полезную нагрузку и переслать в пункт назначения только заголовок пакета, что позволяет получателю быстро идентифицировать отсутствующие данные и запросить повторную передачу. Утверждается, что это даёт возможность восстанавливаться после сбоев и перегрузок в течение микросекунд, что на порядки быстрее по сравнению с обычными архитектурами.

С внедрением MRC сокращается необходимость в динамической маршрутизации. Если пакеты теряются на каком-либо пути, система на основе MRC просто перестаёт использовать этот путь. Вместо динамической маршрутизации применяется так называемая сегментная маршрутизация IPv6 (IPv6 Segment Routing, SRv6), которая позволяет отправителю напрямую задать путь прохождения пакета, прописав последовательность идентификаторов коммутаторов. При пересылке данных коммутатор проверяет наличие собственного идентификатора. Если он присутствует, он удаляет из пакета свой идентификатор и ищет следующий за ним идентификатор в статической таблице маршрутизации, которая указывает, куда необходимо отправить пакет данных.

В отличие от динамической маршрутизации, такая статическая таблица формируется при первой настройке коммутатора и в дальнейшем не изменяется. MRC использует SRv6 для передачи пакетов по всем физическим каналам и уровням, а также по множеству путей в каждом из них. Если какой-либо путь становится недоступен, система игнорирует его. При этом коммутаторам не нужно пересчитывать маршруты или выполнять другие действия, кроме как строго следовать статическим маршрутам, заложенным в таблице.

Протокол MRC выпущен в рамках проекта OCP. В целом, как отмечается, MRC обеспечивает три ключевых преимущества перед стандартными Ethernet-сетями для кластеров ИИ. Во-первых, MRC позволяет создавать многоуровневые высокоскоростные инфраструктуры для платформ с более чем 131 072 конечных точек, используя всего два уровня коммутаторов. Во-вторых, адаптивное распределение пакетов обеспечивает эффективную балансировку нагрузки, благодаря чему практически отсутствуют перегрузки в ядре сети. В-третьих, применение SRv6 обеспечивает быстрый обход сбоев и отправку пакетов только по работающим путям.

Компания Broadcom заявила, что её сетевые адаптеры Thor Ultra, а также коммутаторы Tomahawk 5 и Tomahawk 6 изначально поддерживают функциональность MRC. В частности, Thor Ultra позволяет использовать 2, 4 или 8 параллельных сетей на одном порту и распределять трафик одновременно по 128 каналам. При этом Tomahawk 5 обеспечивает коммутационную способность до 51,2 Тбит/с, а Tomahawk 6 — до 102,4 Тбит/с. В свою очередь, NVIDIA отмечает, что протокол MRC, будучи расширением RoCE, совместим с решениями Spectrum-X Ethernet. OpenAI уже использовала MRC при обучении нескольких ИИ-моделей, задействовав коммутаторы Broadcom и NVIDIA. Конкуренцию MRC составляет схожий во многих аспектах Ultra Ethernet.

Постоянный URL: http://servernews.ru/1141441
15.05.2026 [00:29], Владимир Мироненко

США разрешили покупку NVIDIA H200 десяти китайским компаниям, но сделки застопорились

В преддверии визита президента США Дональда Трампа (Donald Trump) в Китай правительство страны разрешило десятку китайских компаний приобрести ИИ-ускорители NVIDIA H200, но их поставки пока так и не начались, сообщили источники агентства Reuters, знакомые с ситуацией. Как сообщается, глава NVIDIA Дженсен Хуанг (Jensen Huang) присоединился к американской делегации, и, как ожидается, предпримет усилия, чтобы разрешить зашедшую в тупик ситуацию с поставками.

До ужесточения экспортных ограничений США компания NVIDIA контролировала около 95 % китайского рынка передовых чипов и на Китай приходилось 13 % её выручки. После ввода ограничений поставки чипов NVIDIA в Поднебесную практически сошли на нет. По оценкам Хуанга, объём ИИ-рынка в стране в этом году составит $50 млрд.

Согласно данным источников, в число компаний, получивших разрешение на покупку H200, вошли Alibaba, Tencent, ByteDance и JD.com. Также добро получили несколько дистрибьюторов, включая Lenovo и Foxconn. Покупателям разрешено приобретать чипы либо напрямую у NVIDIA, либо через избранных посредников, и каждый получивший одобрение клиент может приобрести до 75 тыс. чипов в соответствии с условиями лицензирования США. Из всех названных компаний лишь Lenovo подтвердила Reuters факт получения лицензии на покупку американских чипов, остальные оставили без ответа запрос о комментариях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам источников, несмотря на одобрение США, поставки H200 застопорились из-за отказа китайских фирм от сотрудничества после указания властей КНР. Это подтвердил министр торговли Говард Лютник (Howard Lutnick), заявивший на слушаниях в Сенате в прошлом месяце, что правительство Китая пока не позволяет компаниям покупать чипы, стремясь сосредоточить инвестиции на отечественной промышленности. Хотя китайские ИИ-чипы уступают решениям той же NVIDIA, китайские компании, как, например, DeepSeek, всё чаще полагаются на отечественные чипы, включая разработанные Huawei.

Их переход на чипы Huawei подчёркивает шаткое положение NVIDIA в Китае. Хуанг неоднократно говорил, что экспортный контроль США подрывает позиции компании на местном рынке. При этом, по оценкам некоторых экспертов, у NVIDIA уже скопился запас из примерно 700 тыс. нереализованных H200.

Следует отметить, что осуществление поставок H200 затруднено множеством требований с обеих сторон. В частности, США в январе одобрили правила, согласно которым от китайских покупателей требуется продемонстрировать наличие «достаточных мер безопасности» и подтвердить отказ от использования чипов в военных целях. NVIDIA также должна подтвердить наличие достаточных запасов чипов для американских клиентов. В свою очередь, Государственный совет КНР недавно издал два постановления о безопасности цепочек поставок, что побудило правительство заняться выявлением и устранением потенциальной зависимости от иностранных технологий в КИИ.

Постоянный URL: http://servernews.ru/1141761

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;