Материалы по тегу:

15.05.2026 [00:29], Владимир Мироненко

США разрешили покупку NVIDIA H200 десяти китайским компаниям, но сделки застопорились

В преддверии визита президента США Дональда Трампа (Donald Trump) в Китай правительство страны разрешило десятку китайских компаний приобрести ИИ-ускорители NVIDIA H200, но их поставки пока так и не начались, сообщили источники агентства Reuters, знакомые с ситуацией. Как сообщается, глава NVIDIA Дженсен Хуанг (Jensen Huang) присоединился к американской делегации, и, как ожидается, предпримет усилия, чтобы разрешить зашедшую в тупик ситуацию с поставками.

До ужесточения экспортных ограничений США компания NVIDIA контролировала около 95 % китайского рынка передовых чипов и на Китай приходилось 13 % её выручки. После ввода ограничений поставки чипов NVIDIA в Поднебесную практически сошли на нет. По оценкам Хуанга, объём ИИ-рынка в стране в этом году составит $50 млрд.

Согласно данным источников, в число компаний, получивших разрешение на покупку H200, вошли Alibaba, Tencent, ByteDance и JD.com. Также добро получили несколько дистрибьюторов, включая Lenovo и Foxconn. Покупателям разрешено приобретать чипы либо напрямую у NVIDIA, либо через избранных посредников, и каждый получивший одобрение клиент может приобрести до 75 тыс. чипов в соответствии с условиями лицензирования США. Из всех названных компаний лишь Lenovo подтвердила Reuters факт получения лицензии на покупку американских чипов, остальные оставили без ответа запрос о комментариях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам источников, несмотря на одобрение США, поставки H200 застопорились из-за отказа китайских фирм от сотрудничества после указания властей КНР. Это подтвердил министр торговли Говард Лютник (Howard Lutnick), заявивший на слушаниях в Сенате в прошлом месяце, что правительство Китая пока не позволяет компаниям покупать чипы, стремясь сосредоточить инвестиции на отечественной промышленности. Хотя китайские ИИ-чипы уступают решениям той же NVIDIA, китайские компании, как, например, DeepSeek, всё чаще полагаются на отечественные чипы, включая разработанные Huawei.

Их переход на чипы Huawei подчёркивает шаткое положение NVIDIA в Китае. Хуанг неоднократно говорил, что экспортный контроль США подрывает позиции компании на местном рынке. При этом, по оценкам некоторых экспертов, у NVIDIA уже скопился запас из примерно 700 тыс. нереализованных H200.

Следует отметить, что осуществление поставок H200 затруднено множеством требований с обеих сторон. В частности, США в январе одобрили правила, согласно которым от китайских покупателей требуется продемонстрировать наличие «достаточных мер безопасности» и подтвердить отказ от использования чипов в военных целях. NVIDIA также должна подтвердить наличие достаточных запасов чипов для американских клиентов. В свою очередь, Государственный совет КНР недавно издал два постановления о безопасности цепочек поставок, что побудило правительство заняться выявлением и устранением потенциальной зависимости от иностранных технологий в КИИ.

Постоянный URL: http://servernews.ru/1141761
14.05.2026 [18:02], Владимир Мироненко

Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит Arm

AMD добилась значительных успехов в сегменте серверных процессоров в I квартале 2026 года. По оценкам Mercury Research, на EPYC пришлось 46,2 % рынка серверных процессоров в денежном выражении, что стало новым историческим максимумом у компании в этой категории продукции. При этом в количественном выражении доля AMD EPYC в общем объёме продаж в сегменте гораздо меньше — 27,4 % (последовательный рост на 230 базисных пунктов), что указывает на их гораздо более высокую среднюю цену продажи (ASP) по сравнению с конкурентами.

Общий объём поставок серверных процессоров увеличился примерно на 6 % последовательно и примерно на 19 % год к году. Больше половины рынка серверных чипов в количественном выражении (54,9 %, снижение на 370 базисных пунктов по сравнению с предыдущим кварталом) принадлежит Intel. И судя по её доле рынка в денежном выражении в размере 53,8 % и доле в количественном выражении, можно с уверенностью предположить, что средняя цена серверных процессоров Intel Xeon ниже, чем у AMD EPYC.

По данным Mercury Research, на Arm-процессоры ля ЦОД приходится около 17,7 % (последовательный рост на 140 базисных пунктов), что составляет почти пятую часть от общего объёма поставок в I квартале 2026 года. Вместе с тем, не уточняется, идёт ли речь о продукции Ampere и других производителей Arm-процессоров, или же о собственных разработках таких компаний, как Google, AWS или Microsoft.

 Источник изображения: AMD

Источник изображения: AMD

В 2026 году ключевым трендом на рынке ИИ стало активное внедрение ИИ-агентов и мультиагентных систем, что обусловило высокий спрос на процессоры и успех AMD. При развёртывании агентного ИИ растёт роль CPU, что привело к изменению конфигурации вычислительных систем от традиционного соотношения, когда один процессор работает в паре с четырьмя или даже восемью ускорителями, в сторону соотношения один к одному.

Благодаря возросшему спросу AMD сейчас продаёт каждый произведённый процессор, а Intel реализует заинтересованным клиентам даже то, что ранее списывалось как брак. Вместе с тем в настоящее время AMD удаётся добиваться более высоких средних цен на свою продукцию.

Постоянный URL: http://servernews.ru/1141742
14.05.2026 [16:47], Владимир Мироненко

Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMware

Компания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок».

V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты.

V/IS включает следующие компоненты:

  • V/OS — ОС на базе Linux, разработанная для поддержки как виртуальных машин, так и контейнеров, обеспечивая, по словам компании, производительность, близкую к производительности аппаратного обеспечения, а также минимальные накладные расходы и максимальную плотность нагрузок.
  • V/Orchestration — унифицированная система оркестрации вычислительных ресурсов, хранилища, сети и сред Kubernetes, упрощающую развёртывание и масштабирование инфраструктуры для любых типов рабочих ИИ-нагрузок.
  • V/Management — система, отвечающая за централизованное управление и прозрачность инфраструктуры и сервисов, предназначенных для оптимизации использования ресурсов, максимизации производительности и упрощения операций в любом масштабе.
  • V/Automation — встроенная система автоматизации для предоставления ресурсов, выставления счетов и управления клиентами, позволяющая поставщикам запускать и монетизировать сервисы ИИ и GPU без отдельных дорогостоящих внешних систем.
  • V/Protection — интегрированная система резервного копирования (Acronis), аварийного восстановления и кибербезопасности для вычислительных ресурсов, хранилищ и сетей, отвечающая за обеспечение отказоустойчивости критически важных, ресурсоёмких ИИ-сред.
 Источник изображений: Virtuozzo

Источник изображений: Virtuozzo

Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU.

Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.

Постоянный URL: http://servernews.ru/1141724
14.05.2026 [16:22], Руслан Авдеев

К 2035 году Вьетнам намерен построить собственное гособлако и стать «развитой цифровой нацией»

Вьетнамские власти решили построить собственную облачную платформу для правительственных структур и государственных ведомств, чтобы не зависеть от принадлежащих иностранным компаниям сервисам, сообщает The Register. В рамках правительственного постановления Decision 808/QD-TTg, утверждающего развитие 20 стратегических технологий в стране для обретения технологического суверенитета, предусмотрено и создание «независимого» облака.

Предполагается добиться национального суверенитета данных и обеспечить кибербезопасность для «цифрового правительства» и ключевой инфраструктуры цифровой экономики. Необходимо сформировать централизованную и безопасную цифровую инфраструктуру для обслуживания национальной цифровой трансформации и постепенно заменить иностранные облачные сервисы, используемые государственными ведомствами — это снижает риск утечек данных, в том числе секретных.

Новые меры свидетельствуют о том, что вьетнамское правительство, как и многие другие, опасается проблем с зарубежными облачными провайдерами, которые обязаны выполнять чужие законы. Невозможность обеспечить полный суверенитет в своё время подтвердила Microsoft. Последняя, наряду с Google и Tencent Cloud, пока не построила своих мощностей во Вьетнаме, тогда как AWS намерена открыть одну из своих локальных зон доступности (Local Zones) в Ханое, а Alibaba Cloud собирается построить в стране дата-центр. Кроме того, интерес к рынку выразила и Huawei Cloud.

Вьетнамские власти приветствуют присутствие в стране гиперскейлеров, и недавно встречались с представителем AWS для обсуждения развития сотрудничества. Тем не менее, выполнение правительственных задач на площадках зарубежных гиперскейлеров прямо нарушает местные законы, требующие хранения персональных данных в пределах Вьетнама.

 Источник изображения: Kiril Dobrev/unsplash.com

Источник изображения: Kiril Dobrev/unsplash.com

В числе прочих технологий, которые Вьетнам намерен развивать числятся крупная ИИ-модель, виртуальные ассистенты, ИИ для управления камерами, оценки кредитных рисков и т. п. Также страна желает получить национальный брандмауэр нового поколения, антивирусное ПО, SIEM-систему следующего поколения, постквантовое шифрование и др. В числе прочего планируется развивать переработку редкоземельных элементов, нарастить компетенции в сфере 5G, научиться строить промышленных роботов и управлять ими, совершенствовать технологии разработки полупроводников.

Времени немного — программа Decision 808 должна быть полностью реализована уже в 2030 году. Тогда же Ханой рассчитывает перевести в онлайн все ключевые правительственные сервисы и развить цифровую инфраструктуру для социальной защиты, борьбы с преступностью, обеспечения национальной безопасности и поддержки науки и инноваций. А уже в 2035 году Вьетнам намерен стать «развитой цифровой нацией», где базы с национальными данными о населении станут основой для создания умного цифрового правительства, в котором принятие решений будет осуществляться на основе поступления информации в режиме реального времени, а граждане «получат персонализированные, автоматизированные и удобные цифровые услуги, адаптированные к различным событиям их жизни».

В конце 2025 года сообщалось, что Вьетнам готовится стать «следующим Сингапуром» и привлекает всё больше инвестиций в цифровые технологии. Например, G42 из ОАЭ подписала соглашение о строительстве трёх дата-центров во Вьетнаме за $1 млрд.

Постоянный URL: http://servernews.ru/1141729
14.05.2026 [15:33], Руслан Авдеев

Uptime Institute: сбои в дата-центрах стали реже, но значительнее

Согласно новому отчёту Uptime Institute, за последнюю пятилетку отказоустойчивость ЦОД значительно выросла. При этом сбои в работе дата-центров по-прежнему происходят, а устранение их обходится всё дороже и времени на это уходит в среднем всё больше, сообщает The Register.

Согласно докладу, половина опрошенных представителей операторов ЦОД за последние три года отметили значительные или масштабные сбои. Это наиболее низкий уровень с 2020 года, т.е. инфраструктура становится всё надёжнее. При этом операторам ЦОД всё сложнее повышать прописанный в SLA уровень надёжности — хотя отказы случаются реже, дальнейшее улучшение показателей требует всё больших усилий.

Усилия по повышению времени безотказной работы отчасти сводятся на нет усложнением систем и условий эксплуатации, вызванными повсеместным внедрением ресурсоёмкой инфраструктуры для обучения и инференса ИИ. Повышенная плотность размещения оборудования в стойках, перепады нагрузок и другие факторы способны увеличить вероятность каскадных отказов. Кроме того, нехватка генераторов, распределительных устройств, трансформаторов, систем охлаждения и др. заставляет операторов ЦОД иногда использовать б/у или непроверенное оборудование. Предполагается, что именно это могло привести к сбоям в некоторых ЦОД.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Основной причиной критических неполадок называются сбои электроснабжения, хотя в этом отношении наметились определённые улучшения — если в 2024 году на проблемы с электроснабжением приходилось 54 % самых серьёзных отключений, то в 2025 году речь шла уже о 45 %. При этом ситуация может измениться, поскольку электросети на местах испытывают всё большую нагрузку из-за ввода в эксплуатацию новых ЦОД. Хотя сбои энергосетей не станут главной причиной отключений в будущем, они скажутся на доступности локальной генерации — при сбоях сети ЦОД не всегда успевают переключиться на ДГУ и иные резервные источники питания.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

В поле зрения экспертов Uptime попадает не только перегрузка электросетей. По словам экспертов, многие сбои ЦОД связаны с обрывами оптоволокна и другими неполадками. Поскольку инфраструктура ЦОД становится всё более распределённой, сбои за пределами дата-центров играют всё большую роль. Даже если сам ЦОД работает корректно, неправильная сетевая конфигурация, например, может привести к перебоям с предоставлением услуг клиентам. SDN и автоматическое перераспределение трафика позволяет снизить риски, и всё больше компаний не сталкиваются с простоями вообще. Около 20 % опрошенных не регистрировали в последние три года сбоев IT-сервисов, что значительно лучше, чем годом ранее.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Обеспечение устойчивости на уровне ПО помогает смягчить эффекты от локальных инцидентов, включая обрывы оптоволоконных кабелей, за счёт распределения рабочих нагрузок между рядом связанных площадок. Впрочем, такие системы довольно сложны сами по себе. Более того, на примере ударов беспилотниками по ЦОД в ОАЭ и Бахрейне можно увидеть, что распределение нагрузок имеет малую эффективность, если сбой касается сразу нескольких площадок.

Хотя в 2025 году Uptime Institute зарегистрировала меньше сбоев, чем годом ранее, в отчёте полагают, что сбои могут длиться в целом дольше. 55 % инцидентов, информация о которых сообщалось публично, разрешаются в течение 12 часов, но доля инцидентов продолжительностью более 48 часов увеличивается вот уже второй год подряд. При этом многие из них связаны с теми же повреждениями ВОЛС. По информации Uptime, в отчётный период это происходило более чем вдвое чаще, чем ранее.

При этом по мере роста длительности простоя растут и убытки от инцидентов, особенно в случае с ИИ-инфраструктурой. По данным Uptime, в настоящее время 20 % простоев обходится дороже $1 млн. Ожидается, что соответствующий показатель в ближайшие годы будет только увеличиваться.

Постоянный URL: http://servernews.ru/1141712
14.05.2026 [15:01], Руслан Авдеев

Cisco уволит 4 тыс. сотрудников, взамен предложив им обучение на платформе Cisco U

Cisco намерена отправить на улицу 5 % штата, взамен предложив им бесплатное обучение новым навыкам на образовательной платформе Cisco U в течение года после увольнения, сообщает The Register.

По словам главы компании Чака Роббинса (Chuck Robbins), опубликовавшего в социальных сетях пост, озаглавленный «Наш путь вперёд» (Our Path Forward), в III квартале 2026 финансового года выручка составила рекордные $15,8 млрд, на 12 % больше год к году. Рост чистой прибыли составил 35 %, до $3,4 млрд. Впрочем, сохранить сотрудникам рабочие места это никак не помогло.

Роббинс заявил, что сокращения штата необходимы, поскольку компаниями-победителями станут те, у кого есть «фокус», чувство срочности и дисциплина для постоянного перераспределения инвестиций в зоны наибольшего спроса и наиболее выгодные в долгосрочной перспективе направления. Для Cisco, в частности, это означает «сокращение должностей в некоторых сферах», а также чёткие стратегические инвестиции — в полупроводники, оптику, безопасность и использование сотрудниками ИИ в масштабах всей компании.

По словам Роббинса, увольняемым помогут найти работу, компания обеспечивает в этом вопросе 75-%. Кроме того, она предоставит доступ к курсам и сертификации на образовательной платформе Cisco U — сотрудники смогут получить новые навыки в сфере ИИ, информационной безопасности, сетевых технологий и др.

 Источник изображения: Yogi Atmo/unsplash.com

Источник изображения: Yogi Atmo/unsplash.com

В 2024 году компания провела две больших серии увольнений, в ходе первой её покинули 7 % сотрудников, а в ходе второй — 5 %. При этом реструктуризация, похоже, пошла бизнесу только на пользу. По данным Роббинса, в III квартале заказы продуктов выросли на 35 % г/г, рост заказов от гиперскейлеров составил 105 %, а от прочих покупателей — скромные 18 %. С начала года зарегистрированы продажи в сфере ИИ-инфраструктуры на сумму $5,3 млрд, прогноз на год составляет $9 млрд, в 4,5 раза больше, чем в прошлом году. Продажи Wi-Fi оборудования тоже выросли на 40 %.

Компания рассчитывает сохранить высокие темпы продаж, разработав беспроводное оборудование, использующее меньше памяти. Роббинс объявил, что уже в IV квартале можно будет заказать продукты, которые требуют на 50 % меньше памяти — компания реализует более 20 программ, снижающих использование памяти во всём портфолио продуктов. Несмотря на рост цен на память и накопители, маржинальность продуктов компании не изменилась — проблемы компенсируются эффективным управлением цепочками поставок.

Дополнительно глава компании раскрыл, что Cisco участвует в инициативе Project Glasswing компании Anthropic, направленной на поиск уязвимостей в коде, и использует модель Mythos для тестирования своего кода. При этом использование Mythos разными вендорами только ускорит замену ИБ-оборудования по мере выявления уязвимостей, которые сложно устранить. По данным Роббинса, компания уже получила заказы на обновление оборудования от нескольких клиентов, которые и так были близки к решению о его замене, а применение Mythos только ускорило процесс. Впрочем, в III квартале пока никаких существенных заказов, связанных с Mythos, не зарегистрировано — это может измениться в будущем.

Постоянный URL: http://servernews.ru/1141722
14.05.2026 [10:56], Сергей Карасёв

SiFive представила RISC-V-ядра Performance P570 Gen 3 для IoT-приложений

Компания SiFive анонсировала производительные процессорные ядра Performance P570 третьего поколения (Gen 3) с архитектурой RISC-V. Они ориентированы на требовательные периферийные ИИ-приложения, потребительские и коммерческие решения интернета вещей (IoT) и пр.

Новые ядра используют 64-бит архитектуру RISC-V с поддержкой внеочередного исполнения инструкций. Допускаются конфигурации, насчитывающие до четырёх ядер в кластере. При этом возможно использование до четырёх кластеров, что в сумме даёт до 16 вычислительных ядер. Используется общий кеш L3 на уровне кластера и опциональный общий кеш L2.

Для Performance P570 Gen 3 заявлена поддержка широкого спектра типов данных: INT8, INT16, INT32, INT64, FP16, FP32, FP64 и BFloat16. Заявлена полная совместимость с профилем RVA23, который стандартизирует набор инструкций ISA. Реализованы такие функции, как векторные операции, инструкции с плавающей запятой и атомарные инструкции, которые востребованы в сферах НРС и ИИ. Добавлены расширения для повышения производительности и улучшения безопасности, включая Smepmp, Zvkng, Zvksg, Zicfilp, Zicfiss, Zfbfmin, Zvfbfmin, Zvfbfwma и Zvdot4a8i. Упомянута возможность работы с современными ОС, включая Android, Ubuntu 26.04 LTS и платформы Red Hat.

 Источник изображения: SiFive

Источник изображения: SiFive

В тесте Geekbench 6 ядра Performance P570 Gen 3 демонстрируют примерно вдвое более высокую производительность в расчёте на 1 ГГц по сравнению с изделиями P550. При выполнении определённых ИИ-задач, таких как распознавание объектов, достигается 21-кратный прирост быстродействия благодаря 128-битному векторному конвейеру VLEN. Если сравнивать с ядрами P470 Gen2, то у P570 выигрыш в производительности составляет 30 % и 350 %. В традиционных CPU-нагрузках, по данным SpecInt 2006/2017, ядра P570 показывают прирост быстродействия на 7–13 % по сравнению с P550 при сопоставимых значениях с P470.

Кроме того, обеспечивается повышение энергетической эффективности. У ядер Performance P570 Gen 3 динамическое энергопотребление (мВт/ГГц) снижено на 13 % и 5 % по сравнению с P550 и P470 соответственно, а потери мощности (мВт) уменьшены на 51 % и 5 %.

Постоянный URL: http://servernews.ru/1141700
14.05.2026 [10:00], Владимир Мироненко

«Группа Астра» запустила отечественное облако Astra Cloud на российских Arm-процессорах Baikal-S

«Группа Астра» объявила о запуске облачного сервиса Astra Cloud, построенного на российских процессорах Baikal-S от компании «Байкал Электроникс» и ориентированного, в первую очередь, на критическую информационную инфраструктуру. Компания подчеркнула, что это первое в стране коммерческое облако, весь технологический стек которого, начиная от чипа и заканчивая конечным сервисом, разработан в России.

«Группа Астра» отметила, что ключевым условием формирования суверенной и безопасной среды для субъектов КИИ является использование экосистемного и платформенного подхода, при котором контролируется каждый технологический слой, включая низкоуровневое аппаратное обеспечение. Astra Cloud на Baikal-S призвано обеспечить такую среду российским предприятиям: полная импортонезависимость с полным соответствием на уровне архитектуры регуляторным требованиям, которые вступают в силу с января 2028 года.

Генеральный директор Astra Cloud заявил, что компания нацелена на создание сквозной технологию в облаке — от российского центрального процессора до конечного сервиса для использования заказчиком. «Для нас здесь нет выбора между “российским” и “эффективным”. Облако Astra Cloud на Baikal-S — это прямое и честное соответствие мировому Arm-стандарту, и мы даём бизнесу инструмент для спокойного перехода на доверенную инфраструктуру уже сегодня, а не в последнюю ночь перед дедлайном», — сообщил он.

 Источник изображений: «Группа Астра»

Источник изображений: «Группа Астра»

Также это один из первых в России облачных сервисов с использованием Arm-архитектуры, отличающейся высокой энергоэффективностью, что снижает операционные расходы, обеспечивая высокую производительность обработки современных облачных нагрузок (AI/ML, СУБД или веб-сервисы) и более низкую совокупную стоимость владения (TCO) по сравнению с x86-решениями, говорит компания. Она отмечает, что Arm-архитектура получила признание среди гиперскейлеров, которые используют её в своих собственных CPU, что в целом укрепляет программную экосистему.

У Microsoft есть Arm-процессоры Cobalt 200, у AWS — Graviton 5, у Alibaba Cloud — Yitian 710, а у Google — Axion. Среди крупных независимых поставщиков серверных процессоров можно выделить Ampere Computing (активно используется Oracle), которая теперь принадлежит SoftBank, и Huawei, активно использующую процессоры Kunpeng в своей продукции, в том числе в облаке. Собственные процессоры также готовят сама Arm, Qualcomm и Fujitsu. Последние, как и чипы NVIDIA Vera, ориентированы в первую очередь на ИИ.

Компания «Байкал электроникс» поставила в Россию не менее 85 тыс. процессоров собственной разработки, включая модели Baikal-T, Baikal-M и Baikal-S, но из-за санкций производство чипов пришлось прекратить, а также отменить выпуск Baikal-S. Также пришлось отменить планы по старту серийного производства в 2025–2026 гг. 128-ядерных серверных Arm-процессоров второго поколения Baikal-S2. Однако вскоре будут доступны и они.

«Группа Астра» также готовит для партнёров и интеграторов совместные пакеты поставки, чтобы обеспечить их не только технологией, но и отлаженными коммерческими сценариями её внедрения. Например, в публичном облаке Astra Cloud с Baikal-S заказчик получит защищённую аттестованную инфраструктуру и приложения в ЦОД Astra Cloud, предоставляемые как сервис, для использования под конкретные бизнес-задачи (от пилота до промышленной нагрузки) без надобности в создании собственной аппаратной площадки.

В свою очередь, частное облако на Baikal-S — это выделенная инфраструктура в контуре заказчика для тех, кому важен контроль с максимальной изоляцией данных. Также предлагается ПАК XCloud на Baikal-S — готовая облачная платформа «под ключ», которая разворачивается либо в контуре заказчика по лицензии, либо в ЦОД Astra Cloud по подписке. Пока что предоставляется IaaS (узлы 2 × 48 ядер, 128–768 Гбайт RAM, 1 Тбайт системный диск + HDD/SSD), а в будущем появятся VDI, Kubernets, почтовая служба и т.д. — всё, что запланировано к реализации в платформе Astra Cloud, будет доступно и на Baikal S.

В настоящее время облако Astra Cloud на Baikal-S проходит финальную доработку на реальных нагрузках в «Группе Астра». Речь, в частности, о полноценном развёртывании платформы 1С. Ожидается, что до конца июля для избранных клиентов будет открыт пилотный доступ в неаттестованном сегменте с возможностью бесплатного тестирования до конца года. Также в этом году будет запущен аттестованный сегмент с дальнейшим расширением сервисов для разработчиков и коммерческой подписки.

Одновременно с облачной инфраструктурой Astra Cloud предоставит готовую платформу разработки, включающую репозитории кода, CI/CD-конвейеры и инструменты безопасной разработки, что позволит заказчикам существенно ускорить адаптацию приложений под архитектуру Baikal-S без необходимости в самостоятельном построении DevOps-цепочек. Также компания планирует в течение этого года дополнить облако Astra Cloud на Baikal-S GPU-серверами для ИИ- и HPC-задач, чтобы позволит запускать ИИ-нагрузки на полностью отечественном стеке без необходимости параллельного использования зарубежных ИИ-облаков для машинного обучения.

Для участия в пилоте Astra Cloud на Baikal-S компаниям необходимо заполнить заявку на предтестирование и предзаказ IaaS на Baikal-S, указав планируемые сценарии использования — например, перенос продуктивных нагрузок, разработка и CI/CD, запуск ИИ-задач или отработка сценариев отказоустойчивости. Это позволит компании заранее подобрать конфигурацию ресурсов под реальный профиль заказчика и сопроводить пилот методически.

«Группа Астра» выразила уверенность в том, что облако на Baikal-S в ближайшем будущем станет «стандартом для российских значимых объектов, а в горизонте двух-пяти лет — основой для экспорта доверенной инфраструктуры». Компания приглашает к сотрудничеству разработчиков, вендоров в сфере информационной безопасности и облачных интеграторов, которые «видят в технологическом суверенитете пространство для качественного рывка».

Постоянный URL: http://servernews.ru/1141687
14.05.2026 [09:46], Руслан Авдеев

Квартальная выручка Nebius выросла на 684 % год к году, а облачного сегмента — на 841 %

Базирующаяся в Нидерландах компания Nebius отчиталась о финансовых результатах I квартала 2026 года, параллельно объявив о проектах ускоренного строительства ИИ-инфраструктуры на основе гигаваттных ИИ-фабрик, масштабных кластерах ускорителей и вертикальной интегрированной платформы для инференса.

В отчёте компании упоминается, что она уже имеет более 3,5 ГВт законтрактованных мощностей, к концу 2026 года этот показатель должен вырасти до более 4 ГВт. Дополнительно компания объявила о строительстве нового ИИ-кампуса мощностью 1,2 ГВт в Пенсильвании. Он станет дополнением ранее анонсированного объекта аналогичного масштаба в Индепенденсе (Independence, штат Миссури).

Теперь более 75 % контрактной мощности Nebius приходится на собственную инфраструктуру, это отражает стремление к долгосрочному контролю энергоснабжения, земельных активов и операций ИИ ЦОД. Также Nebius раскрыла планы строительства ИИ-фабрики в Финляндии мощностью 310 МВт. Утверждается, что это один из крупнейших специализированных ИИ-объектов в Евросоюзе. Дополнительно объявлено новое расширение колокейшн-мощностей в Испании.

 Источник изображения: Nebius

Источник изображения: Nebius

На стадии активного строительства находятся ИИ-фабрики в Миссури и Алабаме, ввод в эксплуатацию запланирован на 2027 год. Всего принадлежащие компании мощности ИИ-фабрик оцениваются приблизительно в 3 ГВт на пяти площадках. Nebius продолжает реализовать модель «полностекового» облачного ИИ-провайдера, занимающегося ИИ-инфраструктурой, обучением моделей, инференсом, окрестрацией и агентными ИИ-сервисами.

В отчётном квартале компания расширила программное портфолио благодаря сделкам с Tavily, Eigen AI и Clarifai. Также она укрепила взаимодействие с NVIDIA в сфере оптимизации инференса и архитектуры ИИ-фабрик. Ожидается, что к концу текущего года в эксплуатацию введут 0,8–1 ГВт подключённых мощностей, во II полугодии начнут развёртывать системы NVIDIA Vera Rubin NVL72 в ЦОД США и EMEA.

 Источник изображения: Nebius

Источник изображения: Nebius

В целом в I квартале выручка составила $399 млн (+684 % г/г), выручка облачного ИИ-бизнеса — $389,7 млн (+841 % г/г). Годовая регулярная выручка по подпискам и долгосрочным контрактам (ARR) на конец квартала составила $1,92 млрд, скорректированная EBITDA — $129,5 млн, рентабельность по EBITDA облачного ИИ-бизнеса — 45 %. В минувшем квартале капитальные затраты составили порядка $2,5 млрд, запас наличности — $9,3 млрд. Стратегические инвестиции NVIDIA в компанию составили $2 млрд.

По словам главы компании Аркадия Воложа, строительство ведётся не только для удовлетворения текущих потребностей рынка, но и для будущего развития ИИ-индустрии. По мнению экспертов, компания всё активнее преобразуется из облачного стартапа, предоставляющего ИИ-ускорители, в вертикально интегрированного оператора ИИ-инфраструктуры, под контролем которого будут энергетика, земли, ИИ-фабрики и инференс-платформы, причём ставка делается на собственные гигаваттные кампусы с закреплением доступа к ключевым ресурсам для них до того, как ограничения доступа к ним усилятся.

Постоянный URL: http://servernews.ru/1141704
14.05.2026 [09:00], Сергей Карасёв

Basis Dynamix Cloud Control 5.5: новые безопасные инструменты для организации облачной инфраструктуры и хранения данных

Компания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, представила релиз 5.5 платформы для управления частными, публичными и гибридными облаками Basis Dynamix Cloud Control. В новой версии реализована интеграция со средством защиты виртуализации Basis Virtual Security, представлена гибкая ролевая модель, расширены возможности управления виртуальными центрами обработки данных и сетевой функциональностью.

Basis Dynamix Cloud Control — облачное решение, позволяющее заказчику управлять различными платформами виртуализации — в том числе расположенными в разных ЦОДах — через единый графический интерфейс. Продукт обеспечивает создание и администрирование виртуальных центров обработки данных (ВЦОД), развёртывание платформенных сервисов, предбиллинг и разграничение доступа. Поддерживаются сегменты на базе Basis Dynamix Enterprise, Basis Dynamix Standard, VMware vSphere.

Новые инструменты для управления виртуальным ЦОД

В обновлённом Basis Dynamix Cloud Control были существенно расширены возможности управления жизненным циклом виртуального ЦОД. В частности, для упрощения администрирования решение может при удалении одного дата-центра автоматически удалять и все связанные с ним компоненты — серверы, сети, порты, роутеры и диски. Для защиты от случайного удаления реализован механизм специального тега, при наличии которого операция блокируется. В релизе 5.5 жизненный цикл дополняется возможностью переносить виртуальный центр обработки данных между проектами, доступными администратору заказчика, в том числе между проектами разных клиентов. Новая возможность упрощает реорганизацию облачной инфраструктуры и администрирование мультитенантных сред.

Также было снято ограничение на развёртывание платформенных сервисов (PaaS) — теперь можно запускать параллельно несколько таких сервисов в рамках одного ВЦОД. Это сокращает время подготовки комплексных виртуальных окружений, включающих несколько сервисов.

Централизованное управление правами и доступом

В новом Basis Dynamix Cloud Control 5.5 была реализована интеграция с решением защиты Basis Virtual Security. Basis Virtual Security используется в качестве единого провайдера идентификации, оно обеспечивает поддержку технологии единого входа (Single Sign-On, SSO) и даёт администраторам возможность управлять учётными записями и правами доступа пользователей «из одного окна». Централизованное управление снижает нагрузку на администраторов, а пользователей платформы избавляет от необходимости вводить учётные данные при переходе между компонентами экосистемы «Базиса».

 Источник изображений: «Базис»

Источник изображений: «Базис»

Дополнительное удобство обеспечивает гибкая ролевая модель, с помощью которой администратор может тонко настраивать права доступа пользователей — собирать собственные роли из атомарных разрешений и назначать их в нужном объёме конкретным пользователям.

Усовершенствованные политики хранения данных и поддержка внутренних сетей

В новой версии Basis Dynamix Cloud Control реализована поддержка политик хранения данных, используемых в Basis Dynamix Enterprise. Политики позволяют распределять нагрузку между пулами СХД в зависимости от их загруженности, что обеспечивает более равномерное использование ресурсов хранения и упрощает эксплуатацию крупных инсталляций с несколькими пулами.

При создании сервера из пользовательского образа в сегментах Basis Dynamix Enterprise теперь можно выбрать профиль хранения индивидуально для каждого диска — как системного, так и дополнительных. Это даёт возможность распределять диски одного сервера по разным типам хранилищ в зависимости от требований к производительности и стоимости. В сегменте Basis Dynamix Enterprise также появилась возможность создавать образы дополнительных дисков: при создании образа сервера сохраняются данные не только на системном, но и на подключенных дисках.

Для ресурсных пулов Basis Dynamix Standard было реализовано полноценное управление сетями и роутерами — аналогично другим сегментам оркестратора. В разделе управления сетевыми подключениями добавлены фильтры по восьми параметрам: типу устройства, серверу, роутеру, балансировщику, кластеру Kubernetes, IP-адресу, признаку служебного подключения и тегам. Это упрощает администрирование комплексной инфраструктуры, состоящей из большого количества физических и виртуальных компонентов.

«Экосистемный подход остаётся приоритетом нашей разработки, поэтому в новом релизе Basis Dynamix Cloud Control мы сделали акцент на расширении совместимости с другими решениями нашей экосистемы. Кроме того, значительное внимание было уделено инструментам администрирования прав пользователей и удобству управления виртуальным ЦОД, что будет особенно полезно крупным заказчикам со сложной инфраструктурой», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1141673