Материалы по тегу:
|
15.05.2026 [08:38], Сергей Карасёв
Сетевой протокол Multipath Reliable Connection (MRC) улучшит производительность и надёжность ИИ-кластеровOpenAI в партнёрстве с AMD, Broadcom, Intel, Microsoft и NVIDIA анонсировала технологию Multipath Reliable Connection (MRC) — сетевой протокол, призванный повысить производительность и отказоустойчивость масштабных GPU-кластеров, ориентированных на ресурсоёмкие задачи ИИ. MRC уже используется во всех крупных кластерах OpenAI c NVIDIA GB200, в том числе в первом ЦОД Stargate, а также в ЦОД Microsoft по проекту Fairwater. Отмечается, что при обучении больших языковых моделей (LLM) каждый этап предполагает огромное количество пересылок данных между узлами в кластере. При этом единственная задержка при подобных транзакциях может повлиять на весь процесс, потенциально провоцируя простои тысяч ИИ-ускорителей. Такие прерывания приводят к снижению эффективности использования имеющихся вычислительных мощностей и к увеличению временных затрат. Наиболее распространёнными причинами задержек и нестабильности при передаче данных являются перегрузка сети, сбои в работе каналов связи и коммутационных устройств. Причём по мере увеличения масштабов кластеров проблемы усугубляются: неполадки возникают всё чаще, а их устранение становится более затруднительным. Протокол MRC, как утверждается, устраняет ряд ключевых недостатков сетей Ethernet применительно к инфраструктурам ИИ. В частности, вводятся такие механизмы, как адаптивная многопутевая передача данных, многоканальные перекрёстные Ethernet-фабрики, «распыление» пакетов, быстрое восстановление после сбоев и пр. MRC коренным образом меняет способ передачи трафика по сети. Традиционные платформы RoCE обычно привязывают поток данных к одному сетевому пути, что может снижать эффективность при возникновении неполадок. MRC же распределяет пакеты из одной серии одновременно по сотням путей и нескольким физическим сетевым каналам. В пакетах содержатся сведения об их конечном назначении, что позволяет ускорителям размещать данные в нужной последовательности, даже если пакеты поступают не по порядку. MRC хранит информацию о состоянии множества используемых путей: если обнаруживается перегрузка какого-либо из них, выбирается альтернативный маршрут, что позволяет оперативно перераспределить нагрузку по всей сети. Ещё одной важной особенностью MRC является многоуровневая архитектура, которая изменяет саму физическую концепцию построения интерконнекта. Так, например, сетевой интерфейс 800GbE может быть разделён на 100GbE-каналы, связанные с восемью различными коммутаторами отдельными каналами. В результате можно построить восемь отдельных параллельных сетей. Такой подход оказывает значительное влияние на структуру кластера. В частности, коммутатор c 64 портами 800GbE можно использовать в конфигурации на 512 × 100GbE. И это позволяет построить сеть, объединяющую около 131 тыс. GPU, используя всего два уровня коммутации, против традиционных трёх- или четырёхуровневых топологий. В протоколе MRC также используется новый способ обработки перегрузок и потери пакетов в сетях Ethernet. Обычно применяется технология PFC (Priority Flow Control) — управление потоками на основе приоритетов: этот механизм предполагает приостановку передачи данных для конкретных классов трафика, а не для всего порта целиком. В случае MRC задействован иной подход, основанный на выборочных подтверждениях, явных запросах на повторную передачу и обрезке пакетов. Так, когда коммутатор сталкивается с перегрузкой, он может отрезать полезную нагрузку и переслать в пункт назначения только заголовок пакета, что позволяет получателю быстро идентифицировать отсутствующие данные и запросить повторную передачу. Утверждается, что это даёт возможность восстанавливаться после сбоев и перегрузок в течение микросекунд, что на порядки быстрее по сравнению с обычными архитектурами. С внедрением MRC сокращается необходимость в динамической маршрутизации. Если пакеты теряются на каком-либо пути, система на основе MRC просто перестаёт использовать этот путь. Вместо динамической маршрутизации применяется так называемая сегментная маршрутизация IPv6 (IPv6 Segment Routing, SRv6), которая позволяет отправителю напрямую задать путь прохождения пакета, прописав последовательность идентификаторов коммутаторов. При пересылке данных коммутатор проверяет наличие собственного идентификатора. Если он присутствует, он удаляет из пакета свой идентификатор и ищет следующий за ним идентификатор в статической таблице маршрутизации, которая указывает, куда необходимо отправить пакет данных. В отличие от динамической маршрутизации, такая статическая таблица формируется при первой настройке коммутатора и в дальнейшем не изменяется. MRC использует SRv6 для передачи пакетов по всем физическим каналам и уровням, а также по множеству путей в каждом из них. Если какой-либо путь становится недоступен, система игнорирует его. При этом коммутаторам не нужно пересчитывать маршруты или выполнять другие действия, кроме как строго следовать статическим маршрутам, заложенным в таблице. Протокол MRC выпущен в рамках проекта OCP. В целом, как отмечается, MRC обеспечивает три ключевых преимущества перед стандартными Ethernet-сетями для кластеров ИИ. Во-первых, MRC позволяет создавать многоуровневые высокоскоростные инфраструктуры для платформ с более чем 131 072 конечных точек, используя всего два уровня коммутаторов. Во-вторых, адаптивное распределение пакетов обеспечивает эффективную балансировку нагрузки, благодаря чему практически отсутствуют перегрузки в ядре сети. В-третьих, применение SRv6 обеспечивает быстрый обход сбоев и отправку пакетов только по работающим путям. Компания Broadcom заявила, что её сетевые адаптеры Thor Ultra, а также коммутаторы Tomahawk 5 и Tomahawk 6 изначально поддерживают функциональность MRC. В частности, Thor Ultra позволяет использовать 2, 4 или 8 параллельных сетей на одном порту и распределять трафик одновременно по 128 каналам. При этом Tomahawk 5 обеспечивает коммутационную способность до 51,2 Тбит/с, а Tomahawk 6 — до 102,4 Тбит/с. В свою очередь, NVIDIA отмечает, что протокол MRC, будучи расширением RoCE, совместим с решениями Spectrum-X Ethernet. OpenAI уже использовала MRC при обучении нескольких ИИ-моделей, задействовав коммутаторы Broadcom и NVIDIA. Конкуренцию MRC составляет схожий во многих аспектах Ultra Ethernet.
15.05.2026 [00:29], Владимир Мироненко
США разрешили покупку NVIDIA H200 десяти китайским компаниям, но сделки застопорилисьВ преддверии визита президента США Дональда Трампа (Donald Trump) в Китай правительство страны разрешило десятку китайских компаний приобрести ИИ-ускорители NVIDIA H200, но их поставки пока так и не начались, сообщили источники агентства Reuters, знакомые с ситуацией. Как сообщается, глава NVIDIA Дженсен Хуанг (Jensen Huang) присоединился к американской делегации, и, как ожидается, предпримет усилия, чтобы разрешить зашедшую в тупик ситуацию с поставками. До ужесточения экспортных ограничений США компания NVIDIA контролировала около 95 % китайского рынка передовых чипов и на Китай приходилось 13 % её выручки. После ввода ограничений поставки чипов NVIDIA в Поднебесную практически сошли на нет. По оценкам Хуанга, объём ИИ-рынка в стране в этом году составит $50 млрд. Согласно данным источников, в число компаний, получивших разрешение на покупку H200, вошли Alibaba, Tencent, ByteDance и JD.com. Также добро получили несколько дистрибьюторов, включая Lenovo и Foxconn. Покупателям разрешено приобретать чипы либо напрямую у NVIDIA, либо через избранных посредников, и каждый получивший одобрение клиент может приобрести до 75 тыс. чипов в соответствии с условиями лицензирования США. Из всех названных компаний лишь Lenovo подтвердила Reuters факт получения лицензии на покупку американских чипов, остальные оставили без ответа запрос о комментариях.
Источник изображения: NVIDIA По словам источников, несмотря на одобрение США, поставки H200 застопорились из-за отказа китайских фирм от сотрудничества после указания властей КНР. Это подтвердил министр торговли Говард Лютник (Howard Lutnick), заявивший на слушаниях в Сенате в прошлом месяце, что правительство Китая пока не позволяет компаниям покупать чипы, стремясь сосредоточить инвестиции на отечественной промышленности. Хотя китайские ИИ-чипы уступают решениям той же NVIDIA, китайские компании, как, например, DeepSeek, всё чаще полагаются на отечественные чипы, включая разработанные Huawei. Их переход на чипы Huawei подчёркивает шаткое положение NVIDIA в Китае. Хуанг неоднократно говорил, что экспортный контроль США подрывает позиции компании на местном рынке. При этом, по оценкам некоторых экспертов, у NVIDIA уже скопился запас из примерно 700 тыс. нереализованных H200. Следует отметить, что осуществление поставок H200 затруднено множеством требований с обеих сторон. В частности, США в январе одобрили правила, согласно которым от китайских покупателей требуется продемонстрировать наличие «достаточных мер безопасности» и подтвердить отказ от использования чипов в военных целях. NVIDIA также должна подтвердить наличие достаточных запасов чипов для американских клиентов. В свою очередь, Государственный совет КНР недавно издал два постановления о безопасности цепочек поставок, что побудило правительство заняться выявлением и устранением потенциальной зависимости от иностранных технологий в КИИ.
14.05.2026 [18:02], Владимир Мироненко
Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит ArmAMD добилась значительных успехов в сегменте серверных процессоров в I квартале 2026 года. По оценкам Mercury Research, на EPYC пришлось 46,2 % рынка серверных процессоров в денежном выражении, что стало новым историческим максимумом у компании в этой категории продукции. При этом в количественном выражении доля AMD EPYC в общем объёме продаж в сегменте гораздо меньше — 27,4 % (последовательный рост на 230 базисных пунктов), что указывает на их гораздо более высокую среднюю цену продажи (ASP) по сравнению с конкурентами. Общий объём поставок серверных процессоров увеличился примерно на 6 % последовательно и примерно на 19 % год к году. Больше половины рынка серверных чипов в количественном выражении (54,9 %, снижение на 370 базисных пунктов по сравнению с предыдущим кварталом) принадлежит Intel. И судя по её доле рынка в денежном выражении в размере 53,8 % и доле в количественном выражении, можно с уверенностью предположить, что средняя цена серверных процессоров Intel Xeon ниже, чем у AMD EPYC. По данным Mercury Research, на Arm-процессоры ля ЦОД приходится около 17,7 % (последовательный рост на 140 базисных пунктов), что составляет почти пятую часть от общего объёма поставок в I квартале 2026 года. Вместе с тем, не уточняется, идёт ли речь о продукции Ampere и других производителей Arm-процессоров, или же о собственных разработках таких компаний, как Google, AWS или Microsoft. В 2026 году ключевым трендом на рынке ИИ стало активное внедрение ИИ-агентов и мультиагентных систем, что обусловило высокий спрос на процессоры и успех AMD. При развёртывании агентного ИИ растёт роль CPU, что привело к изменению конфигурации вычислительных систем от традиционного соотношения, когда один процессор работает в паре с четырьмя или даже восемью ускорителями, в сторону соотношения один к одному. Благодаря возросшему спросу AMD сейчас продаёт каждый произведённый процессор, а Intel реализует заинтересованным клиентам даже то, что ранее списывалось как брак. Вместе с тем в настоящее время AMD удаётся добиваться более высоких средних цен на свою продукцию.
14.05.2026 [16:47], Владимир Мироненко
Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMwareКомпания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок». V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты. V/IS включает следующие компоненты:
Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU. Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.
14.05.2026 [16:22], Руслан Авдеев
К 2035 году Вьетнам намерен построить собственное гособлако и стать «развитой цифровой нацией»
software
вьетнам
государство
импортозамещение
информационная безопасность
конфиденциальность
облако
цифровизация
цод
Вьетнамские власти решили построить собственную облачную платформу для правительственных структур и государственных ведомств, чтобы не зависеть от принадлежащих иностранным компаниям сервисам, сообщает The Register. В рамках правительственного постановления Decision 808/QD-TTg, утверждающего развитие 20 стратегических технологий в стране для обретения технологического суверенитета, предусмотрено и создание «независимого» облака. Предполагается добиться национального суверенитета данных и обеспечить кибербезопасность для «цифрового правительства» и ключевой инфраструктуры цифровой экономики. Необходимо сформировать централизованную и безопасную цифровую инфраструктуру для обслуживания национальной цифровой трансформации и постепенно заменить иностранные облачные сервисы, используемые государственными ведомствами — это снижает риск утечек данных, в том числе секретных. Новые меры свидетельствуют о том, что вьетнамское правительство, как и многие другие, опасается проблем с зарубежными облачными провайдерами, которые обязаны выполнять чужие законы. Невозможность обеспечить полный суверенитет в своё время подтвердила Microsoft. Последняя, наряду с Google и Tencent Cloud, пока не построила своих мощностей во Вьетнаме, тогда как AWS намерена открыть одну из своих локальных зон доступности (Local Zones) в Ханое, а Alibaba Cloud собирается построить в стране дата-центр. Кроме того, интерес к рынку выразила и Huawei Cloud. Вьетнамские власти приветствуют присутствие в стране гиперскейлеров, и недавно встречались с представителем AWS для обсуждения развития сотрудничества. Тем не менее, выполнение правительственных задач на площадках зарубежных гиперскейлеров прямо нарушает местные законы, требующие хранения персональных данных в пределах Вьетнама. В числе прочих технологий, которые Вьетнам намерен развивать числятся крупная ИИ-модель, виртуальные ассистенты, ИИ для управления камерами, оценки кредитных рисков и т. п. Также страна желает получить национальный брандмауэр нового поколения, антивирусное ПО, SIEM-систему следующего поколения, постквантовое шифрование и др. В числе прочего планируется развивать переработку редкоземельных элементов, нарастить компетенции в сфере 5G, научиться строить промышленных роботов и управлять ими, совершенствовать технологии разработки полупроводников. Времени немного — программа Decision 808 должна быть полностью реализована уже в 2030 году. Тогда же Ханой рассчитывает перевести в онлайн все ключевые правительственные сервисы и развить цифровую инфраструктуру для социальной защиты, борьбы с преступностью, обеспечения национальной безопасности и поддержки науки и инноваций. А уже в 2035 году Вьетнам намерен стать «развитой цифровой нацией», где базы с национальными данными о населении станут основой для создания умного цифрового правительства, в котором принятие решений будет осуществляться на основе поступления информации в режиме реального времени, а граждане «получат персонализированные, автоматизированные и удобные цифровые услуги, адаптированные к различным событиям их жизни». В конце 2025 года сообщалось, что Вьетнам готовится стать «следующим Сингапуром» и привлекает всё больше инвестиций в цифровые технологии. Например, G42 из ОАЭ подписала соглашение о строительстве трёх дата-центров во Вьетнаме за $1 млрд.
14.05.2026 [15:33], Руслан Авдеев
Uptime Institute: сбои в дата-центрах стали реже, но значительнееСогласно новому отчёту Uptime Institute, за последнюю пятилетку отказоустойчивость ЦОД значительно выросла. При этом сбои в работе дата-центров по-прежнему происходят, а устранение их обходится всё дороже и времени на это уходит в среднем всё больше, сообщает The Register. Согласно докладу, половина опрошенных представителей операторов ЦОД за последние три года отметили значительные или масштабные сбои. Это наиболее низкий уровень с 2020 года, т.е. инфраструктура становится всё надёжнее. При этом операторам ЦОД всё сложнее повышать прописанный в SLA уровень надёжности — хотя отказы случаются реже, дальнейшее улучшение показателей требует всё больших усилий. Усилия по повышению времени безотказной работы отчасти сводятся на нет усложнением систем и условий эксплуатации, вызванными повсеместным внедрением ресурсоёмкой инфраструктуры для обучения и инференса ИИ. Повышенная плотность размещения оборудования в стойках, перепады нагрузок и другие факторы способны увеличить вероятность каскадных отказов. Кроме того, нехватка генераторов, распределительных устройств, трансформаторов, систем охлаждения и др. заставляет операторов ЦОД иногда использовать б/у или непроверенное оборудование. Предполагается, что именно это могло привести к сбоям в некоторых ЦОД.
Источник изображения: Uptime Institute Основной причиной критических неполадок называются сбои электроснабжения, хотя в этом отношении наметились определённые улучшения — если в 2024 году на проблемы с электроснабжением приходилось 54 % самых серьёзных отключений, то в 2025 году речь шла уже о 45 %. При этом ситуация может измениться, поскольку электросети на местах испытывают всё большую нагрузку из-за ввода в эксплуатацию новых ЦОД. Хотя сбои энергосетей не станут главной причиной отключений в будущем, они скажутся на доступности локальной генерации — при сбоях сети ЦОД не всегда успевают переключиться на ДГУ и иные резервные источники питания.
Источник изображения: Uptime Institute В поле зрения экспертов Uptime попадает не только перегрузка электросетей. По словам экспертов, многие сбои ЦОД связаны с обрывами оптоволокна и другими неполадками. Поскольку инфраструктура ЦОД становится всё более распределённой, сбои за пределами дата-центров играют всё большую роль. Даже если сам ЦОД работает корректно, неправильная сетевая конфигурация, например, может привести к перебоям с предоставлением услуг клиентам. SDN и автоматическое перераспределение трафика позволяет снизить риски, и всё больше компаний не сталкиваются с простоями вообще. Около 20 % опрошенных не регистрировали в последние три года сбоев IT-сервисов, что значительно лучше, чем годом ранее.
Источник изображения: Uptime Institute Обеспечение устойчивости на уровне ПО помогает смягчить эффекты от локальных инцидентов, включая обрывы оптоволоконных кабелей, за счёт распределения рабочих нагрузок между рядом связанных площадок. Впрочем, такие системы довольно сложны сами по себе. Более того, на примере ударов беспилотниками по ЦОД в ОАЭ и Бахрейне можно увидеть, что распределение нагрузок имеет малую эффективность, если сбой касается сразу нескольких площадок. Хотя в 2025 году Uptime Institute зарегистрировала меньше сбоев, чем годом ранее, в отчёте полагают, что сбои могут длиться в целом дольше. 55 % инцидентов, информация о которых сообщалось публично, разрешаются в течение 12 часов, но доля инцидентов продолжительностью более 48 часов увеличивается вот уже второй год подряд. При этом многие из них связаны с теми же повреждениями ВОЛС. По информации Uptime, в отчётный период это происходило более чем вдвое чаще, чем ранее. При этом по мере роста длительности простоя растут и убытки от инцидентов, особенно в случае с ИИ-инфраструктурой. По данным Uptime, в настоящее время 20 % простоев обходится дороже $1 млн. Ожидается, что соответствующий показатель в ближайшие годы будет только увеличиваться.
14.05.2026 [15:01], Руслан Авдеев
Cisco уволит 4 тыс. сотрудников, взамен предложив им обучение на платформе Cisco UCisco намерена отправить на улицу 5 % штата, взамен предложив им бесплатное обучение новым навыкам на образовательной платформе Cisco U в течение года после увольнения, сообщает The Register. По словам главы компании Чака Роббинса (Chuck Robbins), опубликовавшего в социальных сетях пост, озаглавленный «Наш путь вперёд» (Our Path Forward), в III квартале 2026 финансового года выручка составила рекордные $15,8 млрд, на 12 % больше год к году. Рост чистой прибыли составил 35 %, до $3,4 млрд. Впрочем, сохранить сотрудникам рабочие места это никак не помогло. Роббинс заявил, что сокращения штата необходимы, поскольку компаниями-победителями станут те, у кого есть «фокус», чувство срочности и дисциплина для постоянного перераспределения инвестиций в зоны наибольшего спроса и наиболее выгодные в долгосрочной перспективе направления. Для Cisco, в частности, это означает «сокращение должностей в некоторых сферах», а также чёткие стратегические инвестиции — в полупроводники, оптику, безопасность и использование сотрудниками ИИ в масштабах всей компании. По словам Роббинса, увольняемым помогут найти работу, компания обеспечивает в этом вопросе 75-%. Кроме того, она предоставит доступ к курсам и сертификации на образовательной платформе Cisco U — сотрудники смогут получить новые навыки в сфере ИИ, информационной безопасности, сетевых технологий и др.
Источник изображения: Yogi Atmo/unsplash.com В 2024 году компания провела две больших серии увольнений, в ходе первой её покинули 7 % сотрудников, а в ходе второй — 5 %. При этом реструктуризация, похоже, пошла бизнесу только на пользу. По данным Роббинса, в III квартале заказы продуктов выросли на 35 % г/г, рост заказов от гиперскейлеров составил 105 %, а от прочих покупателей — скромные 18 %. С начала года зарегистрированы продажи в сфере ИИ-инфраструктуры на сумму $5,3 млрд, прогноз на год составляет $9 млрд, в 4,5 раза больше, чем в прошлом году. Продажи Wi-Fi оборудования тоже выросли на 40 %. Компания рассчитывает сохранить высокие темпы продаж, разработав беспроводное оборудование, использующее меньше памяти. Роббинс объявил, что уже в IV квартале можно будет заказать продукты, которые требуют на 50 % меньше памяти — компания реализует более 20 программ, снижающих использование памяти во всём портфолио продуктов. Несмотря на рост цен на память и накопители, маржинальность продуктов компании не изменилась — проблемы компенсируются эффективным управлением цепочками поставок. Дополнительно глава компании раскрыл, что Cisco участвует в инициативе Project Glasswing компании Anthropic, направленной на поиск уязвимостей в коде, и использует модель Mythos для тестирования своего кода. При этом использование Mythos разными вендорами только ускорит замену ИБ-оборудования по мере выявления уязвимостей, которые сложно устранить. По данным Роббинса, компания уже получила заказы на обновление оборудования от нескольких клиентов, которые и так были близки к решению о его замене, а применение Mythos только ускорило процесс. Впрочем, в III квартале пока никаких существенных заказов, связанных с Mythos, не зарегистрировано — это может измениться в будущем.
14.05.2026 [10:56], Сергей Карасёв
SiFive представила RISC-V-ядра Performance P570 Gen 3 для IoT-приложенийКомпания SiFive анонсировала производительные процессорные ядра Performance P570 третьего поколения (Gen 3) с архитектурой RISC-V. Они ориентированы на требовательные периферийные ИИ-приложения, потребительские и коммерческие решения интернета вещей (IoT) и пр. Новые ядра используют 64-бит архитектуру RISC-V с поддержкой внеочередного исполнения инструкций. Допускаются конфигурации, насчитывающие до четырёх ядер в кластере. При этом возможно использование до четырёх кластеров, что в сумме даёт до 16 вычислительных ядер. Используется общий кеш L3 на уровне кластера и опциональный общий кеш L2. Для Performance P570 Gen 3 заявлена поддержка широкого спектра типов данных: INT8, INT16, INT32, INT64, FP16, FP32, FP64 и BFloat16. Заявлена полная совместимость с профилем RVA23, который стандартизирует набор инструкций ISA. Реализованы такие функции, как векторные операции, инструкции с плавающей запятой и атомарные инструкции, которые востребованы в сферах НРС и ИИ. Добавлены расширения для повышения производительности и улучшения безопасности, включая Smepmp, Zvkng, Zvksg, Zicfilp, Zicfiss, Zfbfmin, Zvfbfmin, Zvfbfwma и Zvdot4a8i. Упомянута возможность работы с современными ОС, включая Android, Ubuntu 26.04 LTS и платформы Red Hat. В тесте Geekbench 6 ядра Performance P570 Gen 3 демонстрируют примерно вдвое более высокую производительность в расчёте на 1 ГГц по сравнению с изделиями P550. При выполнении определённых ИИ-задач, таких как распознавание объектов, достигается 21-кратный прирост быстродействия благодаря 128-битному векторному конвейеру VLEN. Если сравнивать с ядрами P470 Gen2, то у P570 выигрыш в производительности составляет 30 % и 350 %. В традиционных CPU-нагрузках, по данным SpecInt 2006/2017, ядра P570 показывают прирост быстродействия на 7–13 % по сравнению с P550 при сопоставимых значениях с P470. Кроме того, обеспечивается повышение энергетической эффективности. У ядер Performance P570 Gen 3 динамическое энергопотребление (мВт/ГГц) снижено на 13 % и 5 % по сравнению с P550 и P470 соответственно, а потери мощности (мВт) уменьшены на 51 % и 5 %.
14.05.2026 [10:00], Владимир Мироненко
«Группа Астра» запустила отечественное облако Astra Cloud на российских Arm-процессорах Baikal-S
arm
astra linux
baikal-s
iaas
software
байкал электроникс
импортозамещение
кии
облако
сделано в россии
частное облако
«Группа Астра» объявила о запуске облачного сервиса Astra Cloud, построенного на российских процессорах Baikal-S от компании «Байкал Электроникс» и ориентированного, в первую очередь, на критическую информационную инфраструктуру. Компания подчеркнула, что это первое в стране коммерческое облако, весь технологический стек которого, начиная от чипа и заканчивая конечным сервисом, разработан в России. «Группа Астра» отметила, что ключевым условием формирования суверенной и безопасной среды для субъектов КИИ является использование экосистемного и платформенного подхода, при котором контролируется каждый технологический слой, включая низкоуровневое аппаратное обеспечение. Astra Cloud на Baikal-S призвано обеспечить такую среду российским предприятиям: полная импортонезависимость с полным соответствием на уровне архитектуры регуляторным требованиям, которые вступают в силу с января 2028 года. Генеральный директор Astra Cloud заявил, что компания нацелена на создание сквозной технологию в облаке — от российского центрального процессора до конечного сервиса для использования заказчиком. «Для нас здесь нет выбора между “российским” и “эффективным”. Облако Astra Cloud на Baikal-S — это прямое и честное соответствие мировому Arm-стандарту, и мы даём бизнесу инструмент для спокойного перехода на доверенную инфраструктуру уже сегодня, а не в последнюю ночь перед дедлайном», — сообщил он. Также это один из первых в России облачных сервисов с использованием Arm-архитектуры, отличающейся высокой энергоэффективностью, что снижает операционные расходы, обеспечивая высокую производительность обработки современных облачных нагрузок (AI/ML, СУБД или веб-сервисы) и более низкую совокупную стоимость владения (TCO) по сравнению с x86-решениями, говорит компания. Она отмечает, что Arm-архитектура получила признание среди гиперскейлеров, которые используют её в своих собственных CPU, что в целом укрепляет программную экосистему. У Microsoft есть Arm-процессоры Cobalt 200, у AWS — Graviton 5, у Alibaba Cloud — Yitian 710, а у Google — Axion. Среди крупных независимых поставщиков серверных процессоров можно выделить Ampere Computing (активно используется Oracle), которая теперь принадлежит SoftBank, и Huawei, активно использующую процессоры Kunpeng в своей продукции, в том числе в облаке. Собственные процессоры также готовят сама Arm, Qualcomm и Fujitsu. Последние, как и чипы NVIDIA Vera, ориентированы в первую очередь на ИИ. Компания «Байкал электроникс» поставила в Россию не менее 85 тыс. процессоров собственной разработки, включая модели Baikal-T, Baikal-M и Baikal-S, но из-за санкций производство чипов пришлось прекратить, а также отменить выпуск Baikal-S. Также пришлось отменить планы по старту серийного производства в 2025–2026 гг. 128-ядерных серверных Arm-процессоров второго поколения Baikal-S2. Однако вскоре будут доступны и они. «Группа Астра» также готовит для партнёров и интеграторов совместные пакеты поставки, чтобы обеспечить их не только технологией, но и отлаженными коммерческими сценариями её внедрения. Например, в публичном облаке Astra Cloud с Baikal-S заказчик получит защищённую аттестованную инфраструктуру и приложения в ЦОД Astra Cloud, предоставляемые как сервис, для использования под конкретные бизнес-задачи (от пилота до промышленной нагрузки) без надобности в создании собственной аппаратной площадки. В свою очередь, частное облако на Baikal-S — это выделенная инфраструктура в контуре заказчика для тех, кому важен контроль с максимальной изоляцией данных. Также предлагается ПАК XCloud на Baikal-S — готовая облачная платформа «под ключ», которая разворачивается либо в контуре заказчика по лицензии, либо в ЦОД Astra Cloud по подписке. Пока что предоставляется IaaS (узлы 2 × 48 ядер, 128–768 Гбайт RAM, 1 Тбайт системный диск + HDD/SSD), а в будущем появятся VDI, Kubernets, почтовая служба и т.д. — всё, что запланировано к реализации в платформе Astra Cloud, будет доступно и на Baikal S. В настоящее время облако Astra Cloud на Baikal-S проходит финальную доработку на реальных нагрузках в «Группе Астра». Речь, в частности, о полноценном развёртывании платформы 1С. Ожидается, что до конца июля для избранных клиентов будет открыт пилотный доступ в неаттестованном сегменте с возможностью бесплатного тестирования до конца года. Также в этом году будет запущен аттестованный сегмент с дальнейшим расширением сервисов для разработчиков и коммерческой подписки. Одновременно с облачной инфраструктурой Astra Cloud предоставит готовую платформу разработки, включающую репозитории кода, CI/CD-конвейеры и инструменты безопасной разработки, что позволит заказчикам существенно ускорить адаптацию приложений под архитектуру Baikal-S без необходимости в самостоятельном построении DevOps-цепочек. Также компания планирует в течение этого года дополнить облако Astra Cloud на Baikal-S GPU-серверами для ИИ- и HPC-задач, чтобы позволит запускать ИИ-нагрузки на полностью отечественном стеке без необходимости параллельного использования зарубежных ИИ-облаков для машинного обучения. Для участия в пилоте Astra Cloud на Baikal-S компаниям необходимо заполнить заявку на предтестирование и предзаказ IaaS на Baikal-S, указав планируемые сценарии использования — например, перенос продуктивных нагрузок, разработка и CI/CD, запуск ИИ-задач или отработка сценариев отказоустойчивости. Это позволит компании заранее подобрать конфигурацию ресурсов под реальный профиль заказчика и сопроводить пилот методически. «Группа Астра» выразила уверенность в том, что облако на Baikal-S в ближайшем будущем станет «стандартом для российских значимых объектов, а в горизонте двух-пяти лет — основой для экспорта доверенной инфраструктуры». Компания приглашает к сотрудничеству разработчиков, вендоров в сфере информационной безопасности и облачных интеграторов, которые «видят в технологическом суверенитете пространство для качественного рывка».
14.05.2026 [09:46], Руслан Авдеев
Квартальная выручка Nebius выросла на 684 % год к году, а облачного сегмента — на 841 %Базирующаяся в Нидерландах компания Nebius отчиталась о финансовых результатах I квартала 2026 года, параллельно объявив о проектах ускоренного строительства ИИ-инфраструктуры на основе гигаваттных ИИ-фабрик, масштабных кластерах ускорителей и вертикальной интегрированной платформы для инференса. В отчёте компании упоминается, что она уже имеет более 3,5 ГВт законтрактованных мощностей, к концу 2026 года этот показатель должен вырасти до более 4 ГВт. Дополнительно компания объявила о строительстве нового ИИ-кампуса мощностью 1,2 ГВт в Пенсильвании. Он станет дополнением ранее анонсированного объекта аналогичного масштаба в Индепенденсе (Independence, штат Миссури). Теперь более 75 % контрактной мощности Nebius приходится на собственную инфраструктуру, это отражает стремление к долгосрочному контролю энергоснабжения, земельных активов и операций ИИ ЦОД. Также Nebius раскрыла планы строительства ИИ-фабрики в Финляндии мощностью 310 МВт. Утверждается, что это один из крупнейших специализированных ИИ-объектов в Евросоюзе. Дополнительно объявлено новое расширение колокейшн-мощностей в Испании.
Источник изображения: Nebius На стадии активного строительства находятся ИИ-фабрики в Миссури и Алабаме, ввод в эксплуатацию запланирован на 2027 год. Всего принадлежащие компании мощности ИИ-фабрик оцениваются приблизительно в 3 ГВт на пяти площадках. Nebius продолжает реализовать модель «полностекового» облачного ИИ-провайдера, занимающегося ИИ-инфраструктурой, обучением моделей, инференсом, окрестрацией и агентными ИИ-сервисами. В отчётном квартале компания расширила программное портфолио благодаря сделкам с Tavily, Eigen AI и Clarifai. Также она укрепила взаимодействие с NVIDIA в сфере оптимизации инференса и архитектуры ИИ-фабрик. Ожидается, что к концу текущего года в эксплуатацию введут 0,8–1 ГВт подключённых мощностей, во II полугодии начнут развёртывать системы NVIDIA Vera Rubin NVL72 в ЦОД США и EMEA.
Источник изображения: Nebius В целом в I квартале выручка составила $399 млн (+684 % г/г), выручка облачного ИИ-бизнеса — $389,7 млн (+841 % г/г). Годовая регулярная выручка по подпискам и долгосрочным контрактам (ARR) на конец квартала составила $1,92 млрд, скорректированная EBITDA — $129,5 млн, рентабельность по EBITDA облачного ИИ-бизнеса — 45 %. В минувшем квартале капитальные затраты составили порядка $2,5 млрд, запас наличности — $9,3 млрд. Стратегические инвестиции NVIDIA в компанию составили $2 млрд. По словам главы компании Аркадия Воложа, строительство ведётся не только для удовлетворения текущих потребностей рынка, но и для будущего развития ИИ-индустрии. По мнению экспертов, компания всё активнее преобразуется из облачного стартапа, предоставляющего ИИ-ускорители, в вертикально интегрированного оператора ИИ-инфраструктуры, под контролем которого будут энергетика, земли, ИИ-фабрики и инференс-платформы, причём ставка делается на собственные гигаваттные кампусы с закреплением доступа к ключевым ресурсам для них до того, как ограничения доступа к ним усилятся. |
|
