Материалы по тегу: ии

15.05.2026 [08:38], Сергей Карасёв

Сетевой протокол Multipath Reliable Connection (MRC) улучшит производительность и надёжность ИИ-кластеров

OpenAI в партнёрстве с AMD, Broadcom, Intel, Microsoft и NVIDIA анонсировала технологию Multipath Reliable Connection (MRC) — сетевой протокол, призванный повысить производительность и отказоустойчивость масштабных GPU-кластеров, ориентированных на ресурсоёмкие задачи ИИ. MRC уже используется во всех крупных кластерах OpenAI c NVIDIA GB200, в том числе в первом ЦОД Stargate, а также в ЦОД Microsoft по проекту Fairwater.

Отмечается, что при обучении больших языковых моделей (LLM) каждый этап предполагает огромное количество пересылок данных между узлами в кластере. При этом единственная задержка при подобных транзакциях может повлиять на весь процесс, потенциально провоцируя простои тысяч ИИ-ускорителей. Такие прерывания приводят к снижению эффективности использования имеющихся вычислительных мощностей и к увеличению временных затрат. Наиболее распространёнными причинами задержек и нестабильности при передаче данных являются перегрузка сети, сбои в работе каналов связи и коммутационных устройств. Причём по мере увеличения масштабов кластеров проблемы усугубляются: неполадки возникают всё чаще, а их устранение становится более затруднительным.

Протокол MRC, как утверждается, устраняет ряд ключевых недостатков сетей Ethernet применительно к инфраструктурам ИИ. В частности, вводятся такие механизмы, как адаптивная многопутевая передача данных, многоканальные перекрёстные Ethernet-фабрики, «распыление» пакетов, быстрое восстановление после сбоев и пр. MRC коренным образом меняет способ передачи трафика по сети.

 Источник изображений: OpenAI

Источник изображений: OpenAI

Традиционные платформы RoCE обычно привязывают поток данных к одному сетевому пути, что может снижать эффективность при возникновении неполадок. MRC же распределяет пакеты из одной серии одновременно по сотням путей и нескольким физическим сетевым каналам. В пакетах содержатся сведения об их конечном назначении, что позволяет ускорителям размещать данные в нужной последовательности, даже если пакеты поступают не по порядку. MRC хранит информацию о состоянии множества используемых путей: если обнаруживается перегрузка какого-либо из них, выбирается альтернативный маршрут, что позволяет оперативно перераспределить нагрузку по всей сети.

Ещё одной важной особенностью MRC является многоуровневая архитектура, которая изменяет саму физическую концепцию построения интерконнекта. Так, например, сетевой интерфейс 800GbE может быть разделён на 100GbE-каналы, связанные с восемью различными коммутаторами отдельными каналами. В результате можно построить восемь отдельных параллельных сетей. Такой подход оказывает значительное влияние на структуру кластера. В частности, коммутатор c 64 портами 800GbE можно использовать в конфигурации на 512 × 100GbE. И это позволяет построить сеть, объединяющую около 131 тыс. GPU, используя всего два уровня коммутации, против традиционных трёх- или четырёхуровневых топологий.

В протоколе MRC также используется новый способ обработки перегрузок и потери пакетов в сетях Ethernet. Обычно применяется технология PFC (Priority Flow Control) — управление потоками на основе приоритетов: этот механизм предполагает приостановку передачи данных для конкретных классов трафика, а не для всего порта целиком. В случае MRC задействован иной подход, основанный на выборочных подтверждениях, явных запросах на повторную передачу и обрезке пакетов. Так, когда коммутатор сталкивается с перегрузкой, он может отрезать полезную нагрузку и переслать в пункт назначения только заголовок пакета, что позволяет получателю быстро идентифицировать отсутствующие данные и запросить повторную передачу. Утверждается, что это даёт возможность восстанавливаться после сбоев и перегрузок в течение микросекунд, что на порядки быстрее по сравнению с обычными архитектурами.

С внедрением MRC сокращается необходимость в динамической маршрутизации. Если пакеты теряются на каком-либо пути, система на основе MRC просто перестаёт использовать этот путь. Вместо динамической маршрутизации применяется так называемая сегментная маршрутизация IPv6 (IPv6 Segment Routing, SRv6), которая позволяет отправителю напрямую задать путь прохождения пакета, прописав последовательность идентификаторов коммутаторов. При пересылке данных коммутатор проверяет наличие собственного идентификатора. Если он присутствует, он удаляет из пакета свой идентификатор и ищет следующий за ним идентификатор в статической таблице маршрутизации, которая указывает, куда необходимо отправить пакет данных.

В отличие от динамической маршрутизации, такая статическая таблица формируется при первой настройке коммутатора и в дальнейшем не изменяется. MRC использует SRv6 для передачи пакетов по всем физическим каналам и уровням, а также по множеству путей в каждом из них. Если какой-либо путь становится недоступен, система игнорирует его. При этом коммутаторам не нужно пересчитывать маршруты или выполнять другие действия, кроме как строго следовать статическим маршрутам, заложенным в таблице.

Протокол MRC выпущен в рамках проекта OCP. В целом, как отмечается, MRC обеспечивает три ключевых преимущества перед стандартными Ethernet-сетями для кластеров ИИ. Во-первых, MRC позволяет создавать многоуровневые высокоскоростные инфраструктуры для платформ с более чем 131 072 конечных точек, используя всего два уровня коммутаторов. Во-вторых, адаптивное распределение пакетов обеспечивает эффективную балансировку нагрузки, благодаря чему практически отсутствуют перегрузки в ядре сети. В-третьих, применение SRv6 обеспечивает быстрый обход сбоев и отправку пакетов только по работающим путям.

Компания Broadcom заявила, что её сетевые адаптеры Thor Ultra, а также коммутаторы Tomahawk 5 и Tomahawk 6 изначально поддерживают функциональность MRC. В частности, Thor Ultra позволяет использовать 2, 4 или 8 параллельных сетей на одном порту и распределять трафик одновременно по 128 каналам. При этом Tomahawk 5 обеспечивает коммутационную способность до 51,2 Тбит/с, а Tomahawk 6 — до 102,4 Тбит/с. В свою очередь, NVIDIA отмечает, что протокол MRC, будучи расширением RoCE, совместим с решениями Spectrum-X Ethernet. OpenAI уже использовала MRC при обучении нескольких ИИ-моделей, задействовав коммутаторы Broadcom и NVIDIA. Конкуренцию MRC составляет схожий во многих аспектах Ultra Ethernet.

Постоянный URL: http://servernews.ru/1141441
15.05.2026 [00:29], Владимир Мироненко

США разрешили покупку NVIDIA H200 десяти китайским компаниям, но сделки застопорились

В преддверии визита президента США Дональда Трампа (Donald Trump) в Китай правительство страны разрешило десятку китайских компаний приобрести ИИ-ускорители NVIDIA H200, но их поставки пока так и не начались, сообщили источники агентства Reuters, знакомые с ситуацией. Как сообщается, глава NVIDIA Дженсен Хуанг (Jensen Huang) присоединился к американской делегации, и, как ожидается, предпримет усилия, чтобы разрешить зашедшую в тупик ситуацию с поставками.

До ужесточения экспортных ограничений США компания NVIDIA контролировала около 95 % китайского рынка передовых чипов и на Китай приходилось 13 % её выручки. После ввода ограничений поставки чипов NVIDIA в Поднебесную практически сошли на нет. По оценкам Хуанга, объём ИИ-рынка в стране в этом году составит $50 млрд.

Согласно данным источников, в число компаний, получивших разрешение на покупку H200, вошли Alibaba, Tencent, ByteDance и JD.com. Также добро получили несколько дистрибьюторов, включая Lenovo и Foxconn. Покупателям разрешено приобретать чипы либо напрямую у NVIDIA, либо через избранных посредников, и каждый получивший одобрение клиент может приобрести до 75 тыс. чипов в соответствии с условиями лицензирования США. Из всех названных компаний лишь Lenovo подтвердила Reuters факт получения лицензии на покупку американских чипов, остальные оставили без ответа запрос о комментариях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам источников, несмотря на одобрение США, поставки H200 застопорились из-за отказа китайских фирм от сотрудничества после указания властей КНР. Это подтвердил министр торговли Говард Лютник (Howard Lutnick), заявивший на слушаниях в Сенате в прошлом месяце, что правительство Китая пока не позволяет компаниям покупать чипы, стремясь сосредоточить инвестиции на отечественной промышленности. Хотя китайские ИИ-чипы уступают решениям той же NVIDIA, китайские компании, как, например, DeepSeek, всё чаще полагаются на отечественные чипы, включая разработанные Huawei.

Их переход на чипы Huawei подчёркивает шаткое положение NVIDIA в Китае. Хуанг неоднократно говорил, что экспортный контроль США подрывает позиции компании на местном рынке. При этом, по оценкам некоторых экспертов, у NVIDIA уже скопился запас из примерно 700 тыс. нереализованных H200.

Следует отметить, что осуществление поставок H200 затруднено множеством требований с обеих сторон. В частности, США в январе одобрили правила, согласно которым от китайских покупателей требуется продемонстрировать наличие «достаточных мер безопасности» и подтвердить отказ от использования чипов в военных целях. NVIDIA также должна подтвердить наличие достаточных запасов чипов для американских клиентов. В свою очередь, Государственный совет КНР недавно издал два постановления о безопасности цепочек поставок, что побудило правительство заняться выявлением и устранением потенциальной зависимости от иностранных технологий в КИИ.

Постоянный URL: http://servernews.ru/1141761
14.05.2026 [18:02], Владимир Мироненко

Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит Arm

AMD добилась значительных успехов в сегменте серверных процессоров в I квартале 2026 года. По оценкам Mercury Research, на EPYC пришлось 46,2 % рынка серверных процессоров в денежном выражении, что стало новым историческим максимумом у компании в этой категории продукции. При этом в количественном выражении доля AMD EPYC в общем объёме продаж в сегменте гораздо меньше — 27,4 % (последовательный рост на 230 базисных пунктов), что указывает на их гораздо более высокую среднюю цену продажи (ASP) по сравнению с конкурентами.

Общий объём поставок серверных процессоров увеличился примерно на 6 % последовательно и примерно на 19 % год к году. Больше половины рынка серверных чипов в количественном выражении (54,9 %, снижение на 370 базисных пунктов по сравнению с предыдущим кварталом) принадлежит Intel. И судя по её доле рынка в денежном выражении в размере 53,8 % и доле в количественном выражении, можно с уверенностью предположить, что средняя цена серверных процессоров Intel Xeon ниже, чем у AMD EPYC.

По данным Mercury Research, на Arm-процессоры ля ЦОД приходится около 17,7 % (последовательный рост на 140 базисных пунктов), что составляет почти пятую часть от общего объёма поставок в I квартале 2026 года. Вместе с тем, не уточняется, идёт ли речь о продукции Ampere и других производителей Arm-процессоров, или же о собственных разработках таких компаний, как Google, AWS или Microsoft.

 Источник изображения: AMD

Источник изображения: AMD

В 2026 году ключевым трендом на рынке ИИ стало активное внедрение ИИ-агентов и мультиагентных систем, что обусловило высокий спрос на процессоры и успех AMD. При развёртывании агентного ИИ растёт роль CPU, что привело к изменению конфигурации вычислительных систем от традиционного соотношения, когда один процессор работает в паре с четырьмя или даже восемью ускорителями, в сторону соотношения один к одному.

Благодаря возросшему спросу AMD сейчас продаёт каждый произведённый процессор, а Intel реализует заинтересованным клиентам даже то, что ранее списывалось как брак. Вместе с тем в настоящее время AMD удаётся добиваться более высоких средних цен на свою продукцию.

Постоянный URL: http://servernews.ru/1141742
14.05.2026 [16:47], Владимир Мироненко

Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMware

Компания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок».

V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты.

V/IS включает следующие компоненты:

  • V/OS — ОС на базе Linux, разработанная для поддержки как виртуальных машин, так и контейнеров, обеспечивая, по словам компании, производительность, близкую к производительности аппаратного обеспечения, а также минимальные накладные расходы и максимальную плотность нагрузок.
  • V/Orchestration — унифицированная система оркестрации вычислительных ресурсов, хранилища, сети и сред Kubernetes, упрощающую развёртывание и масштабирование инфраструктуры для любых типов рабочих ИИ-нагрузок.
  • V/Management — система, отвечающая за централизованное управление и прозрачность инфраструктуры и сервисов, предназначенных для оптимизации использования ресурсов, максимизации производительности и упрощения операций в любом масштабе.
  • V/Automation — встроенная система автоматизации для предоставления ресурсов, выставления счетов и управления клиентами, позволяющая поставщикам запускать и монетизировать сервисы ИИ и GPU без отдельных дорогостоящих внешних систем.
  • V/Protection — интегрированная система резервного копирования (Acronis), аварийного восстановления и кибербезопасности для вычислительных ресурсов, хранилищ и сетей, отвечающая за обеспечение отказоустойчивости критически важных, ресурсоёмких ИИ-сред.
 Источник изображений: Virtuozzo

Источник изображений: Virtuozzo

Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU.

Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.

Постоянный URL: http://servernews.ru/1141724
14.05.2026 [15:33], Руслан Авдеев

Uptime Institute: сбои в дата-центрах стали реже, но значительнее

Согласно новому отчёту Uptime Institute, за последнюю пятилетку отказоустойчивость ЦОД значительно выросла. При этом сбои в работе дата-центров по-прежнему происходят, а устранение их обходится всё дороже и времени на это уходит в среднем всё больше, сообщает The Register.

Согласно докладу, половина опрошенных представителей операторов ЦОД за последние три года отметили значительные или масштабные сбои. Это наиболее низкий уровень с 2020 года, т.е. инфраструктура становится всё надёжнее. При этом операторам ЦОД всё сложнее повышать прописанный в SLA уровень надёжности — хотя отказы случаются реже, дальнейшее улучшение показателей требует всё больших усилий.

Усилия по повышению времени безотказной работы отчасти сводятся на нет усложнением систем и условий эксплуатации, вызванными повсеместным внедрением ресурсоёмкой инфраструктуры для обучения и инференса ИИ. Повышенная плотность размещения оборудования в стойках, перепады нагрузок и другие факторы способны увеличить вероятность каскадных отказов. Кроме того, нехватка генераторов, распределительных устройств, трансформаторов, систем охлаждения и др. заставляет операторов ЦОД иногда использовать б/у или непроверенное оборудование. Предполагается, что именно это могло привести к сбоям в некоторых ЦОД.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Основной причиной критических неполадок называются сбои электроснабжения, хотя в этом отношении наметились определённые улучшения — если в 2024 году на проблемы с электроснабжением приходилось 54 % самых серьёзных отключений, то в 2025 году речь шла уже о 45 %. При этом ситуация может измениться, поскольку электросети на местах испытывают всё большую нагрузку из-за ввода в эксплуатацию новых ЦОД. Хотя сбои энергосетей не станут главной причиной отключений в будущем, они скажутся на доступности локальной генерации — при сбоях сети ЦОД не всегда успевают переключиться на ДГУ и иные резервные источники питания.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

В поле зрения экспертов Uptime попадает не только перегрузка электросетей. По словам экспертов, многие сбои ЦОД связаны с обрывами оптоволокна и другими неполадками. Поскольку инфраструктура ЦОД становится всё более распределённой, сбои за пределами дата-центров играют всё большую роль. Даже если сам ЦОД работает корректно, неправильная сетевая конфигурация, например, может привести к перебоям с предоставлением услуг клиентам. SDN и автоматическое перераспределение трафика позволяет снизить риски, и всё больше компаний не сталкиваются с простоями вообще. Около 20 % опрошенных не регистрировали в последние три года сбоев IT-сервисов, что значительно лучше, чем годом ранее.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Обеспечение устойчивости на уровне ПО помогает смягчить эффекты от локальных инцидентов, включая обрывы оптоволоконных кабелей, за счёт распределения рабочих нагрузок между рядом связанных площадок. Впрочем, такие системы довольно сложны сами по себе. Более того, на примере ударов беспилотниками по ЦОД в ОАЭ и Бахрейне можно увидеть, что распределение нагрузок имеет малую эффективность, если сбой касается сразу нескольких площадок.

Хотя в 2025 году Uptime Institute зарегистрировала меньше сбоев, чем годом ранее, в отчёте полагают, что сбои могут длиться в целом дольше. 55 % инцидентов, информация о которых сообщалось публично, разрешаются в течение 12 часов, но доля инцидентов продолжительностью более 48 часов увеличивается вот уже второй год подряд. При этом многие из них связаны с теми же повреждениями ВОЛС. По информации Uptime, в отчётный период это происходило более чем вдвое чаще, чем ранее.

При этом по мере роста длительности простоя растут и убытки от инцидентов, особенно в случае с ИИ-инфраструктурой. По данным Uptime, в настоящее время 20 % простоев обходится дороже $1 млн. Ожидается, что соответствующий показатель в ближайшие годы будет только увеличиваться.

Постоянный URL: http://servernews.ru/1141712
14.05.2026 [10:00], Владимир Мироненко

«Группа Астра» запустила отечественное облако Astra Cloud на российских Arm-процессорах Baikal-S

«Группа Астра» объявила о запуске облачного сервиса Astra Cloud, построенного на российских процессорах Baikal-S от компании «Байкал Электроникс» и ориентированного, в первую очередь, на критическую информационную инфраструктуру. Компания подчеркнула, что это первое в стране коммерческое облако, весь технологический стек которого, начиная от чипа и заканчивая конечным сервисом, разработан в России.

«Группа Астра» отметила, что ключевым условием формирования суверенной и безопасной среды для субъектов КИИ является использование экосистемного и платформенного подхода, при котором контролируется каждый технологический слой, включая низкоуровневое аппаратное обеспечение. Astra Cloud на Baikal-S призвано обеспечить такую среду российским предприятиям: полная импортонезависимость с полным соответствием на уровне архитектуры регуляторным требованиям, которые вступают в силу с января 2028 года.

Генеральный директор Astra Cloud заявил, что компания нацелена на создание сквозной технологию в облаке — от российского центрального процессора до конечного сервиса для использования заказчиком. «Для нас здесь нет выбора между “российским” и “эффективным”. Облако Astra Cloud на Baikal-S — это прямое и честное соответствие мировому Arm-стандарту, и мы даём бизнесу инструмент для спокойного перехода на доверенную инфраструктуру уже сегодня, а не в последнюю ночь перед дедлайном», — сообщил он.

 Источник изображений: «Группа Астра»

Источник изображений: «Группа Астра»

Также это один из первых в России облачных сервисов с использованием Arm-архитектуры, отличающейся высокой энергоэффективностью, что снижает операционные расходы, обеспечивая высокую производительность обработки современных облачных нагрузок (AI/ML, СУБД или веб-сервисы) и более низкую совокупную стоимость владения (TCO) по сравнению с x86-решениями, говорит компания. Она отмечает, что Arm-архитектура получила признание среди гиперскейлеров, которые используют её в своих собственных CPU, что в целом укрепляет программную экосистему.

У Microsoft есть Arm-процессоры Cobalt 200, у AWS — Graviton 5, у Alibaba Cloud — Yitian 710, а у Google — Axion. Среди крупных независимых поставщиков серверных процессоров можно выделить Ampere Computing (активно используется Oracle), которая теперь принадлежит SoftBank, и Huawei, активно использующую процессоры Kunpeng в своей продукции, в том числе в облаке. Собственные процессоры также готовят сама Arm, Qualcomm и Fujitsu. Последние, как и чипы NVIDIA Vera, ориентированы в первую очередь на ИИ.

Компания «Байкал электроникс» поставила в Россию не менее 85 тыс. процессоров собственной разработки, включая модели Baikal-T, Baikal-M и Baikal-S, но из-за санкций производство чипов пришлось прекратить, а также отменить выпуск Baikal-S. Также пришлось отменить планы по старту серийного производства в 2025–2026 гг. 128-ядерных серверных Arm-процессоров второго поколения Baikal-S2. Однако вскоре будут доступны и они.

«Группа Астра» также готовит для партнёров и интеграторов совместные пакеты поставки, чтобы обеспечить их не только технологией, но и отлаженными коммерческими сценариями её внедрения. Например, в публичном облаке Astra Cloud с Baikal-S заказчик получит защищённую аттестованную инфраструктуру и приложения в ЦОД Astra Cloud, предоставляемые как сервис, для использования под конкретные бизнес-задачи (от пилота до промышленной нагрузки) без надобности в создании собственной аппаратной площадки.

В свою очередь, частное облако на Baikal-S — это выделенная инфраструктура в контуре заказчика для тех, кому важен контроль с максимальной изоляцией данных. Также предлагается ПАК XCloud на Baikal-S — готовая облачная платформа «под ключ», которая разворачивается либо в контуре заказчика по лицензии, либо в ЦОД Astra Cloud по подписке. Пока что предоставляется IaaS (узлы 2 × 48 ядер, 128–768 Гбайт RAM, 1 Тбайт системный диск + HDD/SSD), а в будущем появятся VDI, Kubernets, почтовая служба и т.д. — всё, что запланировано к реализации в платформе Astra Cloud, будет доступно и на Baikal S.

В настоящее время облако Astra Cloud на Baikal-S проходит финальную доработку на реальных нагрузках в «Группе Астра». Речь, в частности, о полноценном развёртывании платформы 1С. Ожидается, что до конца июля для избранных клиентов будет открыт пилотный доступ в неаттестованном сегменте с возможностью бесплатного тестирования до конца года. Также в этом году будет запущен аттестованный сегмент с дальнейшим расширением сервисов для разработчиков и коммерческой подписки.

Одновременно с облачной инфраструктурой Astra Cloud предоставит готовую платформу разработки, включающую репозитории кода, CI/CD-конвейеры и инструменты безопасной разработки, что позволит заказчикам существенно ускорить адаптацию приложений под архитектуру Baikal-S без необходимости в самостоятельном построении DevOps-цепочек. Также компания планирует в течение этого года дополнить облако Astra Cloud на Baikal-S GPU-серверами для ИИ- и HPC-задач, чтобы позволит запускать ИИ-нагрузки на полностью отечественном стеке без необходимости параллельного использования зарубежных ИИ-облаков для машинного обучения.

Для участия в пилоте Astra Cloud на Baikal-S компаниям необходимо заполнить заявку на предтестирование и предзаказ IaaS на Baikal-S, указав планируемые сценарии использования — например, перенос продуктивных нагрузок, разработка и CI/CD, запуск ИИ-задач или отработка сценариев отказоустойчивости. Это позволит компании заранее подобрать конфигурацию ресурсов под реальный профиль заказчика и сопроводить пилот методически.

«Группа Астра» выразила уверенность в том, что облако на Baikal-S в ближайшем будущем станет «стандартом для российских значимых объектов, а в горизонте двух-пяти лет — основой для экспорта доверенной инфраструктуры». Компания приглашает к сотрудничеству разработчиков, вендоров в сфере информационной безопасности и облачных интеграторов, которые «видят в технологическом суверенитете пространство для качественного рывка».

Постоянный URL: http://servernews.ru/1141687
14.05.2026 [09:00], Сергей Карасёв

Basis Dynamix Cloud Control 5.5: новые безопасные инструменты для организации облачной инфраструктуры и хранения данных

Компания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, представила релиз 5.5 платформы для управления частными, публичными и гибридными облаками Basis Dynamix Cloud Control. В новой версии реализована интеграция со средством защиты виртуализации Basis Virtual Security, представлена гибкая ролевая модель, расширены возможности управления виртуальными центрами обработки данных и сетевой функциональностью.

Basis Dynamix Cloud Control — облачное решение, позволяющее заказчику управлять различными платформами виртуализации — в том числе расположенными в разных ЦОДах — через единый графический интерфейс. Продукт обеспечивает создание и администрирование виртуальных центров обработки данных (ВЦОД), развёртывание платформенных сервисов, предбиллинг и разграничение доступа. Поддерживаются сегменты на базе Basis Dynamix Enterprise, Basis Dynamix Standard, VMware vSphere.

Новые инструменты для управления виртуальным ЦОД

В обновлённом Basis Dynamix Cloud Control были существенно расширены возможности управления жизненным циклом виртуального ЦОД. В частности, для упрощения администрирования решение может при удалении одного дата-центра автоматически удалять и все связанные с ним компоненты — серверы, сети, порты, роутеры и диски. Для защиты от случайного удаления реализован механизм специального тега, при наличии которого операция блокируется. В релизе 5.5 жизненный цикл дополняется возможностью переносить виртуальный центр обработки данных между проектами, доступными администратору заказчика, в том числе между проектами разных клиентов. Новая возможность упрощает реорганизацию облачной инфраструктуры и администрирование мультитенантных сред.

Также было снято ограничение на развёртывание платформенных сервисов (PaaS) — теперь можно запускать параллельно несколько таких сервисов в рамках одного ВЦОД. Это сокращает время подготовки комплексных виртуальных окружений, включающих несколько сервисов.

Централизованное управление правами и доступом

В новом Basis Dynamix Cloud Control 5.5 была реализована интеграция с решением защиты Basis Virtual Security. Basis Virtual Security используется в качестве единого провайдера идентификации, оно обеспечивает поддержку технологии единого входа (Single Sign-On, SSO) и даёт администраторам возможность управлять учётными записями и правами доступа пользователей «из одного окна». Централизованное управление снижает нагрузку на администраторов, а пользователей платформы избавляет от необходимости вводить учётные данные при переходе между компонентами экосистемы «Базиса».

 Источник изображений: «Базис»

Источник изображений: «Базис»

Дополнительное удобство обеспечивает гибкая ролевая модель, с помощью которой администратор может тонко настраивать права доступа пользователей — собирать собственные роли из атомарных разрешений и назначать их в нужном объёме конкретным пользователям.

Усовершенствованные политики хранения данных и поддержка внутренних сетей

В новой версии Basis Dynamix Cloud Control реализована поддержка политик хранения данных, используемых в Basis Dynamix Enterprise. Политики позволяют распределять нагрузку между пулами СХД в зависимости от их загруженности, что обеспечивает более равномерное использование ресурсов хранения и упрощает эксплуатацию крупных инсталляций с несколькими пулами.

При создании сервера из пользовательского образа в сегментах Basis Dynamix Enterprise теперь можно выбрать профиль хранения индивидуально для каждого диска — как системного, так и дополнительных. Это даёт возможность распределять диски одного сервера по разным типам хранилищ в зависимости от требований к производительности и стоимости. В сегменте Basis Dynamix Enterprise также появилась возможность создавать образы дополнительных дисков: при создании образа сервера сохраняются данные не только на системном, но и на подключенных дисках.

Для ресурсных пулов Basis Dynamix Standard было реализовано полноценное управление сетями и роутерами — аналогично другим сегментам оркестратора. В разделе управления сетевыми подключениями добавлены фильтры по восьми параметрам: типу устройства, серверу, роутеру, балансировщику, кластеру Kubernetes, IP-адресу, признаку служебного подключения и тегам. Это упрощает администрирование комплексной инфраструктуры, состоящей из большого количества физических и виртуальных компонентов.

«Экосистемный подход остаётся приоритетом нашей разработки, поэтому в новом релизе Basis Dynamix Cloud Control мы сделали акцент на расширении совместимости с другими решениями нашей экосистемы. Кроме того, значительное внимание было уделено инструментам администрирования прав пользователей и удобству управления виртуальным ЦОД, что будет особенно полезно крупным заказчикам со сложной инфраструктурой», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1141673
13.05.2026 [17:16], Руслан Авдеев

Аэрокосмический ИИ-стартап Aetherflux сменил имя на Cowboy Space Corporation и привлёк $275 млн на создание орбитального ЦОД

Подконтрольная одному из учредителей Robinhood Байджу Бхатту (Baiju Bhatt) аэрокосмическая ИИ-компания Cowboy Space Corporation (ранее Aetherflux), основанная всего два года назад, привлекла $275 млн в раунде финансирования серии B. Капитализация компании составила $2 млрд, сообщает Datacenter Dynamics. Ранее Бхатт вложил в компанию $10 млн собственных средств.

Компания рассчитывает, что полученные средствам помогут в разработке «вертикально интегрированных орбитальных ЦОД и ракет». Ранее она обязалась создать группировку вычислительных космических ИИ ЦОД Galactic Brain. Принципиально новым является подход, в рамках которого ракета и ЦОД являются единым целым, что отличает их от прочих орбитальных разработок.

Первый спутник планируется запустить в конце 2026 года, чтобы провести демонстрацию перенаправления энергии Солнца из космоса на Землю. Это было первоначальной целью Aetherflux, которая решила несколько сменить профиль. Cowboy Space является партнёром NVIDIA и рассчитывает на развёртывание ИИ-ускорителей Space-1 Vera Rubin Module, специально разработанных для ИИ-инфраструктуры на низкой околоземной орбите.

 Источник изображения: Aetherflux

Источник изображения: Aetherflux

Последний раунд финансирования возглавила Index Ventures, в нём приняли участие новые инвесторы, включая IVP Blossom Capital и SAIC, а также уже вкладывавшие средства ранее Andreessen Horowitz, Breakthrough Energy Ventures, Construct Capital, NEA, Interlagos и сам Байжу Бхатта. По данным источников, знакомых с вопросом, Cowboy Space рассчитывала привлечь $250–$300 млн, и уже получила $50 млн в ходе раунда серии A, также возглавленного Index Ventures.

Постоянный URL: http://servernews.ru/1141654
13.05.2026 [13:16], Руслан Авдеев

Не просто ЦОД: NTT Data меняет стратегию и расширяет амбиции в сфере ИИ

Японская NTT Data намерена провести масштабные изменения, став ИИ-бизнесом полного стека. Её интересы простираются на суверенные облака, услуги GPUaaS, ЦОД гиперскейл-уровня, вопросы кибербезопасности, ИИ-платформы, сетевую инфраструктуру, услуги по управлению IT-инфраструктурой и отраслевые ИИ-решения, сообщает Converge Digest.

Компания уже работает в более чем 70 стран и регионов, её штат превышает 200 тыс. человек, а консолидированная выручка по итогам 2025 финансового года превысила ¥5 трлн. На бизнес за пределами Японии приходится более 60 % выручки, благодаря чему NTT Data, согласно рейтингам Gartner, занимает восьмое место среди IT-сервисных бизнесов.

2025 финансовый год стал для компании рекордным. Выручка выросла год к году на 7,9 % до ¥5,0046 трлн, а операционная прибыль — на 50,7 % до ¥488,2 млрд. Чистая прибыль составила ¥265,1 млрд, с ростом на 90,4 % г/г. Новые заказы выросли на 21,1 % до ¥6,0105 трлн. Связанный с ЦОД бизнес обеспечил ¥1,0882 трлн новых заказов, портфолио полученных, но ещё не выполненных заказов составило ¥3,1997 трлн. В 2026 финансовом году запланирован рост выручки до ¥5,19 трлн — продолжатся интенсивные инвестиции в ИИ-инфраструктуру, облачные сервисы и глобальную экспансию.

 Источник изображения: NTT Data

Источник изображения: NTT Data

Краеугольным камнем новой стратегии стало создание подконтрольной структуры AIVista в Кремниевой долине. Она должна ускорить запуск изначально ориентированных на ИИ продуктов, усилить экосистемное партнёрство и позиции NTT на рынке. В компании позиционируют AIVista как оркестратора более широкой стратегии Core AI Platform. Предполагается, что специальная платформа объединит ИИ-агентов, оркестрацию рабочих процессов, управление данными, интеграцию LLM и специальных ИИ-моделей для банков, страхования, промышленности, государственного сектора и корпоративных пользователей.

Новая инфраструктурная стратегия основана на концепции Next-Gen Infrastructure, предусматривающей объединение публичных и суверенных облаков, GPUaaS, ЦОД, сетевых решений и кибербезопасности в единую экосистему. В рамках своей архитектуры компания заявляет о поддержке платформ и моделей OpenAI, Google, Anthropic, Mistral AI, tsuzumi2, а также моделей с открытым кодом. Особое внимание — сегменту суверенных облаков, который всё более востребован на фоне требований государств и корпоративных игроков к локализации данных и ужесточению контроля над IT-системами на местах.

 Источник изображения: NTT Data

Источник изображения: NTT Data

Ключевое место в долгосрочных проектах компании занимают дата-центры. На сегодня NTT Data управляет приблизительно 1,63 ГВт мощностей ЦОД по всему миру, в т.ч. 675 МВт в Северной и Южной Америке, 430 МВт в EMEA, 425 МВт в Индии и 100 МВт в Азиатско-Тихоокеанском регионе. К 2030 финансовому году планируется нарастить совокупную мощность ЦОД до более 3 ГВт. Ставка будет сделана на облачную инфраструктуру и ИИ-инференс, т.е. на строительство крупных кампусов, в первую очередь рассчитанных на гиперскейлеров. Предполагается развитие площадок на рынках уровня Tier 1 и Tier 2, а также привлечения стороннего капитала по схеме cash recycling помимо использования традиционной REIT-модели.

Как следует из итогов 2025 финансового года, инвестиции в ЦОД составили ¥377,9 млрд ($2,5 млрд). В 2026 финансовом году их рассчитывают увеличить до ¥505 млрд ($3,3 млрд). NTT Data всё активнее позиционирует бизнес как платформу для ИИ-инфраструктуры, а не просто как колокейшн-оператора. В числе стратегических приоритетов — инвестиции в ИИ-инновации, M&A-сделки, расширение бизнеса ЦОД, рост консалтингового направления, усиление компетенций персонала в области внедрения ИИ и отраслевой специализации.

В презентации стратегии на 2026 финансовый год компания отмечает рост спроса не только на обучение моделей, но и на инфраструктуру для инференса, а также переход на более крупные ЦОД. Это соответствует более широкому тренду в индустрии — гиперскейлеры и корпоративные пользователи стремительно расширяют рассчитанные на инференс проекты для поддержки корпоративных ИИ-помощников, агентных ИИ-систем, инфраструктуры для поиска внешних данных и суверенных ИИ-нагрузок.

Постоянный URL: http://servernews.ru/1141636
13.05.2026 [13:03], Руслан Авдеев

Бывший глава Fermi America стремится вернуться к власти, заполнить совет директоров своими приспешниками и организовать продажу компании

И без того испытывающая немало проблем компания Fermi, специализирующаяся на проектах ЦОД, отменила внеочередное собрание акционеров, организованное по инициативе отправленного в отставку директора Тоби Нойгебауэра (Toby Neugebauer), сообщает Datacenter Dynamics. Утверждается, что Нойгебауэра в своё время уволили «по уважительной причине» — в результате серьёзных нарушений условий трудового договора и многочисленных внутренних правил компании. Свой пост бывший глава Fermi покинул в середине апреля, вскоре свой пост покинул и финансовый директор Майлз Эверсон (Miles Everson).

Компания занята реализацией в Амарилло (Amarillo, Техас) 11-ГВт проекта ЦОД Project Matador (Hypergrid) с энергетическими мощностями на площадке. Кампус носит имя Дональда Трампам — The President Donald J. Trump Advanced Energy and Intelligence Campus. Хотя ни один из арендованных у Техасского технологического университета участков компания не освоила в значимой степени, не заключила контракты с клиентами и фактически не имела опыта работы в индустрии ЦОД, это не помешало ей выйти на IPO в октябре 2025 года.

На тот момент её рыночная капитализация составила порядка $15 млрд, но теперь она упала до приблизительно $3,42 млрд. Нойгебауэру, членам его семьи, а также топ-менеджерам и руководителям Fermi, покинувшим компанию 17 апреля или позднее, принадлежит около 40 % акций, имеющихся в обращении. Нойгебауэр заявил, что «не может не гордиться» тем, как проходила реализация проекта под его началом и какой прогресс был достигнут в отношениях с арендаторами на момент его ухода из компании. Бизнесмен подчёркивает, что до сих пор не продал ни одной акции Fermi с момента IPO, поскольку точно знает, сколько они стоят.

 Источник изображения: Sebastian Herrmann/unsplash.com

Источник изображения: Sebastian Herrmann/unsplash.com

Правда, в совете директоров придерживаются иного мнения. Подчёркивается, что во времена, когда Нойгебауэр руководил компанией, её акции упали в цене более чем на 80 %. Кроме того бизнесмена обвинили в попытке заполнить совет директоров своими приспешниками для того, чтобы организовать продажу компании по заниженной цене. Второй по величине акционер — компания Caddis Capital с долей 9,3 %, объявила о поддержке решений совета директоров и сообщила, что категорически против попыток Нойбауэра захватить контроль над компанией для «поспешной и необдуманной продажи».

Нойгебауэр и Fermi активно действуют друг против друга в правовом поле. При этом Нойгебауэр утверждает, что компания не имеет право просто уволить его решением менеджмента или совета директоров, этого якобы можно добиться только по итогам голосования акционеров. Одним из основателей Fermi выступил бывший губернатор Техаса и министр энергетики США Рик Перри (Rick Perry). Одной из главных проблем, стоящих перед компанией, является отсутствие публично подтверждённого якорного арендатора — как правило, крупного облачного провайдера, — наличие которого считается необходимым для дальнейшего развития проекта.

Площадь кампуса близ Амарилло должна составить фантастические 167 га. Для электроснабжения будет использоваться комбинация локальных энергоресурсов, включая газовые турбины, солнечные и ветряные станции и даже атомные реакторы. Первые два этапа Project Matador мощностью 1,1 ГВт, предположительно, обойдутся в $2 млрд. В декабре 2025 года Fermi обвинили в манипуляциях ценными бумагами, а в январе сообщалось о коллективном иске со стороны акционеров, подавшим его после того, как неназванный крупный арендатор отказался от будущей аренды мощностей.

Постоянный URL: http://servernews.ru/1141627