Материалы по тегу: software
|
15.05.2026 [12:34], Руслан Авдеев
Великобритания инициировала антимонопольное расследование практик лицензирования ПО в экосистеме Microsoft
aws
google cloud platform
microsoft
microsoft azure
software
великобритания
конкуренция
лицензия
облако
Британский антимонопольный регулятор — Управление по конкуренции и рынкам (CMA) занялся изучением экосистемы Microsoft на предмет присвоения компании «стратегического рыночного статуса» (Strategic Market Status, SMS). Очередное расследование инициировано после введения в Великобритании режима контроля конкуренции на цифровых рынках. В случае, если компанию признают подпадающей под режим SMS, регулятор сможет применять в отношении неё специальные меры для поддержки конкуренции на рынке, сообщает The Register. О грядущем расследовании CMA заявило в конце марта. Регулятора беспокоила практика лицензирования Microsoft программного обеспечения, мешающая конкуренции на рынке облачных сервисов. Сегодня CMA объявило, что «слышало» о том, что британские клиенты не всегда способны эффективно использовать ПО Microsoft с продуктами других вендоров. Это ограничивает возможности доступа к лучшим продуктам по самым конкурентоспособным ценам. В 2025 году AWS и Google призывали (и не в первый раз) регулятора вмешаться в политику Microsoft и ограничить «экстраординарные и беспрецедентные» цены, взимаемые с клиентов за использование продуктов компании на сторонних облачных платформах. Ещё два года назад Google прямо назвала практику запретительного лицензирования по таким ценам «налогом» или «штрафом», который платят клиенты за то, что ПО Microsoft не используется в инфраструктуре Azure. Например, запуск Windows Server в облаке Google обходится до четырёх раз дороже, чем в Azure. С похожими жалобами выступала и AWS.
Источник изображения: UX Indonesia/unspalsh.com CMA оценит, использует ли Microsoft монопольное положение, чтобы ограничить клиентам финансовые возможности выбора, и насколько успешно конкуренты на рынке ИИ могут интегрировать свои сервисы с ПО компании (дело касается агрессивного внедрения Copilot). По словам представителя Open Cloud Coalition, созданной под патронажем Google и раскритикованной Microsoft, новое расследование должно быть «быстрым и окончательным». Утверждается, что оно должно навсегда устранить несправедливые практики лицензирования Microsoft, обеспечив на британском облачном рынке равные условия конкуренции и уверенность в том, что можно будет внедрять инновации и инвестировать в долгосрочной перспективе. Впрочем, результатов не стоит ждать в ближайшее время. Например, CMA потребовался 21 месяц, чтобы опубликовать результаты расследования на облачном рынке услуг Великобритании — утверждалось, что Microsoft и AWS пользуются доминирующим положением, фактически нанося ущерб британским клиентам облачных сервисов. В частности, в нём утверждалось, что Microsoft, возможно, взяла с корпоративных клиентов в Великобритании на £500 млн больше за размещение в облаках AWS и Google, чем если бы они платили за размещение в Azure. В основе того расследования был вопрос, не мешают ли меры лицензирования ПО Microsoft конкуренции на рынке облачных сервисов. Он стал основой и для нынешнего. Последнее расследование должны завершить за девять месяцев, а решение о присвоении компании статуса SMS должны принять к февралю 2027 года. Сама Microsoft заявляет, что полна решимости «оперативно и конструктивно» сотрудничать с CMA. Всестороннее расследование будет касаться ПО для повышения производительности, ОС, СУБД и ИБ-инструментов. В CMA утверждают, что намерены понять, как развиваются соответствующие рынки, какова на них роль Microsoft и какие целенаправленные действия могут потребоваться для того, чтобы у британских клиентов был выбор, доступ к инновациям и конкурентоспособные цены. Стоит отметить, что за лицензионной политикой Microsoft уже следят власти США, Европы, Бразилии, Южной Африки и Японии.
15.05.2026 [09:34], Владимир Мироненко
Вот это разворот: SAP всё же предоставит ИИ-агентов для локальных ECC и S4/HANA, но при обещании переехать в облакоSAP совершила резкий разворот в своей стратегии внедрения ИИ, пишет The Register. Ранее немецкая компания утверждала об отсутствии планов внедрять «инновации», такие как ИИ, в системы on-premise, включая устаревшую ERP-платформу ECC, вызывав возмущение у некоторых пользователей. В июле 2023 года генеральный директор Кристиан Кляйн (Christian Klein) заявил, что «новейшие инновации и возможности» SAP будут предоставляться только в публичном или частном облаке с использованием RISE with SAP — программы переноса и трансформации, которую компания запустила совместно с партнёрами и облачными провайдерами в начале 2021 года. «Наши новые инновации не будут доступны для клиентов, использующих локальные или размещённые на локальных серверах ERP-системы крупных облачных провайдеров», — отметил он тогда. Но сейчас SAP утверждает обратное. На этой неделе на конференции SAP Sapphire Кляйн заявил, что «никакой путаницы нет». По его словам, новые технологии, такие как ИИ-агенты, созданные на платформе SAP Joule, будут доступны клиентам, использующим локальные решения, при условии, что они «зарегистрировались для перехода в облако», уточнил он. Кляйн добавил, что большинство ИИ-помощников и агентов Joule будут доступны on-premise в качестве временного решения в ECC и S/4HANA клиентов, которые уже вложили значительные силы в процесс миграции, чтобы они могли воспользоваться преимуществами ИИ во время модернизации. «Это абсолютно правильное решение, и я рад видеть, как клиенты воспользуются этой возможностью», — добавил он. Мухаммад Алам (Muhammad Alam), член исполнительного совета по продуктам и разработке, заявил на конференции, что SAP предоставит «значительную часть ИИ-помощников и агентов Joule для работы в гибридных средах с возможностью подключения к локальной среде S/4 и ECC». Он тоже отметил, что предложение будет доступно «клиентам, которые начали модернизацию на платформе RISE with SAP».
Источник изображения: SAP Новая возможность включена в пакет услуг под новым брендом Business AI Platform, сказал Алам: «Мы сделали это для того, чтобы вы могли начать получать выгоду от ИИ уже сегодня на платформе SAP Business AI Platform, пока вы модернизируете свою инфраструктуру». Опцией смогут воспользоваться только подписчики тарифного плана Max Success Plan. Согласно заявлению компании, этот план позволит клиентам ускорить активацию помощников и агентов, а также «внедрять ИИ, включая облачные и подходящие локальные системы, в удобном для них темпе по мере перехода в облако». Планируется, что предложение станет доступно уже в этом месяце.
14.05.2026 [16:47], Владимир Мироненко
Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMwareКомпания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок». V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты. V/IS включает следующие компоненты:
Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU. Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.
14.05.2026 [16:22], Руслан Авдеев
К 2035 году Вьетнам намерен построить собственное гособлако и стать «развитой цифровой нацией»
software
вьетнам
государство
импортозамещение
информационная безопасность
конфиденциальность
облако
цифровизация
цод
Вьетнамские власти решили построить собственную облачную платформу для правительственных структур и государственных ведомств, чтобы не зависеть от принадлежащих иностранным компаниям сервисам, сообщает The Register. В рамках правительственного постановления Decision 808/QD-TTg, утверждающего развитие 20 стратегических технологий в стране для обретения технологического суверенитета, предусмотрено и создание «независимого» облака. Предполагается добиться национального суверенитета данных и обеспечить кибербезопасность для «цифрового правительства» и ключевой инфраструктуры цифровой экономики. Необходимо сформировать централизованную и безопасную цифровую инфраструктуру для обслуживания национальной цифровой трансформации и постепенно заменить иностранные облачные сервисы, используемые государственными ведомствами — это снижает риск утечек данных, в том числе секретных. Новые меры свидетельствуют о том, что вьетнамское правительство, как и многие другие, опасается проблем с зарубежными облачными провайдерами, которые обязаны выполнять чужие законы. Невозможность обеспечить полный суверенитет в своё время подтвердила Microsoft. Последняя, наряду с Google и Tencent Cloud, пока не построила своих мощностей во Вьетнаме, тогда как AWS намерена открыть одну из своих локальных зон доступности (Local Zones) в Ханое, а Alibaba Cloud собирается построить в стране дата-центр. Кроме того, интерес к рынку выразила и Huawei Cloud. Вьетнамские власти приветствуют присутствие в стране гиперскейлеров, и недавно встречались с представителем AWS для обсуждения развития сотрудничества. Тем не менее, выполнение правительственных задач на площадках зарубежных гиперскейлеров прямо нарушает местные законы, требующие хранения персональных данных в пределах Вьетнама. В числе прочих технологий, которые Вьетнам намерен развивать числятся крупная ИИ-модель, виртуальные ассистенты, ИИ для управления камерами, оценки кредитных рисков и т. п. Также страна желает получить национальный брандмауэр нового поколения, антивирусное ПО, SIEM-систему следующего поколения, постквантовое шифрование и др. В числе прочего планируется развивать переработку редкоземельных элементов, нарастить компетенции в сфере 5G, научиться строить промышленных роботов и управлять ими, совершенствовать технологии разработки полупроводников. Времени немного — программа Decision 808 должна быть полностью реализована уже в 2030 году. Тогда же Ханой рассчитывает перевести в онлайн все ключевые правительственные сервисы и развить цифровую инфраструктуру для социальной защиты, борьбы с преступностью, обеспечения национальной безопасности и поддержки науки и инноваций. А уже в 2035 году Вьетнам намерен стать «развитой цифровой нацией», где базы с национальными данными о населении станут основой для создания умного цифрового правительства, в котором принятие решений будет осуществляться на основе поступления информации в режиме реального времени, а граждане «получат персонализированные, автоматизированные и удобные цифровые услуги, адаптированные к различным событиям их жизни». В конце 2025 года сообщалось, что Вьетнам готовится стать «следующим Сингапуром» и привлекает всё больше инвестиций в цифровые технологии. Например, G42 из ОАЭ подписала соглашение о строительстве трёх дата-центров во Вьетнаме за $1 млрд.
14.05.2026 [10:00], Владимир Мироненко
«Группа Астра» запустила отечественное облако Astra Cloud на российских Arm-процессорах Baikal-S
arm
astra linux
baikal-s
iaas
software
байкал электроникс
импортозамещение
кии
облако
сделано в россии
частное облако
«Группа Астра» объявила о запуске облачного сервиса Astra Cloud, построенного на российских процессорах Baikal-S от компании «Байкал Электроникс» и ориентированного, в первую очередь, на критическую информационную инфраструктуру. Компания подчеркнула, что это первое в стране коммерческое облако, весь технологический стек которого, начиная от чипа и заканчивая конечным сервисом, разработан в России. «Группа Астра» отметила, что ключевым условием формирования суверенной и безопасной среды для субъектов КИИ является использование экосистемного и платформенного подхода, при котором контролируется каждый технологический слой, включая низкоуровневое аппаратное обеспечение. Astra Cloud на Baikal-S призвано обеспечить такую среду российским предприятиям: полная импортонезависимость с полным соответствием на уровне архитектуры регуляторным требованиям, которые вступают в силу с января 2028 года. Генеральный директор Astra Cloud заявил, что компания нацелена на создание сквозной технологию в облаке — от российского центрального процессора до конечного сервиса для использования заказчиком. «Для нас здесь нет выбора между “российским” и “эффективным”. Облако Astra Cloud на Baikal-S — это прямое и честное соответствие мировому Arm-стандарту, и мы даём бизнесу инструмент для спокойного перехода на доверенную инфраструктуру уже сегодня, а не в последнюю ночь перед дедлайном», — сообщил он. Также это один из первых в России облачных сервисов с использованием Arm-архитектуры, отличающейся высокой энергоэффективностью, что снижает операционные расходы, обеспечивая высокую производительность обработки современных облачных нагрузок (AI/ML, СУБД или веб-сервисы) и более низкую совокупную стоимость владения (TCO) по сравнению с x86-решениями, говорит компания. Она отмечает, что Arm-архитектура получила признание среди гиперскейлеров, которые используют её в своих собственных CPU, что в целом укрепляет программную экосистему. У Microsoft есть Arm-процессоры Cobalt 200, у AWS — Graviton 5, у Alibaba Cloud — Yitian 710, а у Google — Axion. Среди крупных независимых поставщиков серверных процессоров можно выделить Ampere Computing (активно используется Oracle), которая теперь принадлежит SoftBank, и Huawei, активно использующую процессоры Kunpeng в своей продукции, в том числе в облаке. Собственные процессоры также готовят сама Arm, Qualcomm и Fujitsu. Последние, как и чипы NVIDIA Vera, ориентированы в первую очередь на ИИ. Компания «Байкал электроникс» поставила в Россию не менее 85 тыс. процессоров собственной разработки, включая модели Baikal-T, Baikal-M и Baikal-S, но из-за санкций производство чипов пришлось прекратить, а также отменить выпуск Baikal-S. Также пришлось отменить планы по старту серийного производства в 2025–2026 гг. 128-ядерных серверных Arm-процессоров второго поколения Baikal-S2. Однако вскоре будут доступны и они. «Группа Астра» также готовит для партнёров и интеграторов совместные пакеты поставки, чтобы обеспечить их не только технологией, но и отлаженными коммерческими сценариями её внедрения. Например, в публичном облаке Astra Cloud с Baikal-S заказчик получит защищённую аттестованную инфраструктуру и приложения в ЦОД Astra Cloud, предоставляемые как сервис, для использования под конкретные бизнес-задачи (от пилота до промышленной нагрузки) без надобности в создании собственной аппаратной площадки. В свою очередь, частное облако на Baikal-S — это выделенная инфраструктура в контуре заказчика для тех, кому важен контроль с максимальной изоляцией данных. Также предлагается ПАК XCloud на Baikal-S — готовая облачная платформа «под ключ», которая разворачивается либо в контуре заказчика по лицензии, либо в ЦОД Astra Cloud по подписке. Пока что предоставляется IaaS (узлы 2 × 48 ядер, 128–768 Гбайт RAM, 1 Тбайт системный диск + HDD/SSD), а в будущем появятся VDI, Kubernets, почтовая служба и т.д. — всё, что запланировано к реализации в платформе Astra Cloud, будет доступно и на Baikal S. В настоящее время облако Astra Cloud на Baikal-S проходит финальную доработку на реальных нагрузках в «Группе Астра». Речь, в частности, о полноценном развёртывании платформы 1С. Ожидается, что до конца июля для избранных клиентов будет открыт пилотный доступ в неаттестованном сегменте с возможностью бесплатного тестирования до конца года. Также в этом году будет запущен аттестованный сегмент с дальнейшим расширением сервисов для разработчиков и коммерческой подписки. Одновременно с облачной инфраструктурой Astra Cloud предоставит готовую платформу разработки, включающую репозитории кода, CI/CD-конвейеры и инструменты безопасной разработки, что позволит заказчикам существенно ускорить адаптацию приложений под архитектуру Baikal-S без необходимости в самостоятельном построении DevOps-цепочек. Также компания планирует в течение этого года дополнить облако Astra Cloud на Baikal-S GPU-серверами для ИИ- и HPC-задач, чтобы позволит запускать ИИ-нагрузки на полностью отечественном стеке без необходимости параллельного использования зарубежных ИИ-облаков для машинного обучения. Для участия в пилоте Astra Cloud на Baikal-S компаниям необходимо заполнить заявку на предтестирование и предзаказ IaaS на Baikal-S, указав планируемые сценарии использования — например, перенос продуктивных нагрузок, разработка и CI/CD, запуск ИИ-задач или отработка сценариев отказоустойчивости. Это позволит компании заранее подобрать конфигурацию ресурсов под реальный профиль заказчика и сопроводить пилот методически. «Группа Астра» выразила уверенность в том, что облако на Baikal-S в ближайшем будущем станет «стандартом для российских значимых объектов, а в горизонте двух-пяти лет — основой для экспорта доверенной инфраструктуры». Компания приглашает к сотрудничеству разработчиков, вендоров в сфере информационной безопасности и облачных интеграторов, которые «видят в технологическом суверенитете пространство для качественного рывка».
14.05.2026 [09:00], Сергей Карасёв
Basis Dynamix Cloud Control 5.5: новые безопасные инструменты для организации облачной инфраструктуры и хранения данныхКомпания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, представила релиз 5.5 платформы для управления частными, публичными и гибридными облаками Basis Dynamix Cloud Control. В новой версии реализована интеграция со средством защиты виртуализации Basis Virtual Security, представлена гибкая ролевая модель, расширены возможности управления виртуальными центрами обработки данных и сетевой функциональностью. Basis Dynamix Cloud Control — облачное решение, позволяющее заказчику управлять различными платформами виртуализации — в том числе расположенными в разных ЦОДах — через единый графический интерфейс. Продукт обеспечивает создание и администрирование виртуальных центров обработки данных (ВЦОД), развёртывание платформенных сервисов, предбиллинг и разграничение доступа. Поддерживаются сегменты на базе Basis Dynamix Enterprise, Basis Dynamix Standard, VMware vSphere. Новые инструменты для управления виртуальным ЦОДВ обновлённом Basis Dynamix Cloud Control были существенно расширены возможности управления жизненным циклом виртуального ЦОД. В частности, для упрощения администрирования решение может при удалении одного дата-центра автоматически удалять и все связанные с ним компоненты — серверы, сети, порты, роутеры и диски. Для защиты от случайного удаления реализован механизм специального тега, при наличии которого операция блокируется. В релизе 5.5 жизненный цикл дополняется возможностью переносить виртуальный центр обработки данных между проектами, доступными администратору заказчика, в том числе между проектами разных клиентов. Новая возможность упрощает реорганизацию облачной инфраструктуры и администрирование мультитенантных сред. Также было снято ограничение на развёртывание платформенных сервисов (PaaS) — теперь можно запускать параллельно несколько таких сервисов в рамках одного ВЦОД. Это сокращает время подготовки комплексных виртуальных окружений, включающих несколько сервисов. Централизованное управление правами и доступомВ новом Basis Dynamix Cloud Control 5.5 была реализована интеграция с решением защиты Basis Virtual Security. Basis Virtual Security используется в качестве единого провайдера идентификации, оно обеспечивает поддержку технологии единого входа (Single Sign-On, SSO) и даёт администраторам возможность управлять учётными записями и правами доступа пользователей «из одного окна». Централизованное управление снижает нагрузку на администраторов, а пользователей платформы избавляет от необходимости вводить учётные данные при переходе между компонентами экосистемы «Базиса». Дополнительное удобство обеспечивает гибкая ролевая модель, с помощью которой администратор может тонко настраивать права доступа пользователей — собирать собственные роли из атомарных разрешений и назначать их в нужном объёме конкретным пользователям. Усовершенствованные политики хранения данных и поддержка внутренних сетейВ новой версии Basis Dynamix Cloud Control реализована поддержка политик хранения данных, используемых в Basis Dynamix Enterprise. Политики позволяют распределять нагрузку между пулами СХД в зависимости от их загруженности, что обеспечивает более равномерное использование ресурсов хранения и упрощает эксплуатацию крупных инсталляций с несколькими пулами. При создании сервера из пользовательского образа в сегментах Basis Dynamix Enterprise теперь можно выбрать профиль хранения индивидуально для каждого диска — как системного, так и дополнительных. Это даёт возможность распределять диски одного сервера по разным типам хранилищ в зависимости от требований к производительности и стоимости. В сегменте Basis Dynamix Enterprise также появилась возможность создавать образы дополнительных дисков: при создании образа сервера сохраняются данные не только на системном, но и на подключенных дисках. Для ресурсных пулов Basis Dynamix Standard было реализовано полноценное управление сетями и роутерами — аналогично другим сегментам оркестратора. В разделе управления сетевыми подключениями добавлены фильтры по восьми параметрам: типу устройства, серверу, роутеру, балансировщику, кластеру Kubernetes, IP-адресу, признаку служебного подключения и тегам. Это упрощает администрирование комплексной инфраструктуры, состоящей из большого количества физических и виртуальных компонентов. «Экосистемный подход остаётся приоритетом нашей разработки, поэтому в новом релизе Basis Dynamix Cloud Control мы сделали акцент на расширении совместимости с другими решениями нашей экосистемы. Кроме того, значительное внимание было уделено инструментам администрирования прав пользователей и удобству управления виртуальным ЦОД, что будет особенно полезно крупным заказчикам со сложной инфраструктурой», — отметил Дмитрий Сорокин, технический директор компании «Базис».
13.05.2026 [00:40], Владимир Мироненко
Red Hat анонсировала интегрированную ИИ-платформу Red Hat AI 3.4Red Hat представила Red Hat AI 3.4, обновлённую версию корпоративной ИИ-платформы, разработанную для поддержки крупномасштабного инференса и развёртывания агентного ИИ в гибридных облачных средах. В качестве комплексной платформы Red Hat AI 3.4 предлагает архитектурную основу и операционные инструменты, необходимые для масштабирования моделей и рабочих процессов агентов в гибридном облаке. Стратегия Red Hat в области ИИ разделена на четыре ключевых направления, заявил Джо Фернандес (Joe Fernandes), вице-президент и генеральный директор Red Hat AI. «Во-первых, мы помогаем клиентам быстро, гибко и эффективно выполнять инференс, предоставляя модели в их среде, — передаёт SiliconANGLE. — Во-вторых, мы подключаем их корпоративные данные к этим моделям и агентам. В-третьих, мы помогаем им ускорить развёртывание и управление агентами в гибридной облачной среде. В-четвёртых, мы объединяем всё это на нашей интегрированной ИИ-платформе, позволяя им запускать любую модель в любом агенте на любом оборудовании и в любой облачной среде». Как отметила компания, ключевым элементом этого релиза является предоставление модели как услуги (MaaS), которое обеспечивает единый управляемый интерфейс для разработчиков, позволяющий получать доступ к тщательно отобранным моделям, а администраторам — отслеживать их использование и применять политики. Разработчики получают доступ к моделям через стандартные OpenAI-совместимые API. Таким образом, единое управление применяется как к внутренним, так и к внешним моделям. А инструменты AutoRAG и AutoML автоматизируют сложные задачи ИИ, начиная с выбора наиболее эффективных стратегий извлечения данных для конкретных наборов и заканчивая построением и оптимизацией моделей. В основе системы лежит открытая библиотека vLLM. Её дополняет Kubernetes-нативный стек для инференса llm-d. Поддержка спекулятивного декодирования, которая в этом релизе стала общедоступной, повышает скорость ответа в два-три раза с минимальным влиянием на его качество и снижает стоимость взаимодействия. Кроме того, vLLM теперь поддерживает работу на CPU, что актуально для небольших языковых моделей. Для управления инструментами для агентов Red Hat представляет каталог серверов MCP и связанный с ним шлюз MCP. Новый инструментарий AgentOps даёт возможность управления агентами в масштабе, независимо от используемой платформы, на протяжении всего их жизненного цикла. Это включает в себя интегрированную трассировку вызовов LLM, вызовов инструментов и этапов рассуждений, а также управление криптографической идентификацией через SPIFFE/SPIRE. Последний позволяет организациям заменять статические, жёстко закодированные ключи кратковременными токенами. Это поддерживает операции с минимальными привилегиями для автономных агентов на всех уровнях стека и помогает подтвердить, что действия агентов связаны с проверенной личностью. Для обеспечения интеграции корпоративных данных с моделями и агентами Red Hat AI 3.4 представляет управление с помощью промптов и центр оценки точности, качества и безопасности моделей и агентов. Последний не зависит от фреймворков и заменяет разрозненные методы тестирования единым интегрированным подходом. Prompt Lab and Registry, централизованное хранилище промптов в виде полноценных информационных ресурсов, предоставляет разработчикам и администраторам единый источник достоверной информации о входных данных, управляющих моделями и агентами.
Источник изображения: Red Hat Новые возможности трассировки построены на основе MLflow. Интеграция MLflow обеспечивает прозрачность работы агента, позволяя осуществлять сквозную трассировку вызовов LLM, этапов рассуждений, запуска инструментов, ответов модели и использования токенов через OpenTelemetry. Это создаёт прозрачный журнал аудита для всего жизненного цикла подсказок, эмбеддингов и конфигураций RAG для поддержки отладки и аудита. MLflow также обеспечивает интегрированное отслеживание экспериментов и управление артефактами для сценариев использования генеративного ИИ и прогнозного ИИ. Платформа Red Hat AI позволяет пользователям проверять безопасность моделей и агентов с помощью автоматизированного сканирования на наличие угроз, которое теперь интегрировано непосредственно в цикл разработки. Используются инструменты Chatterbox Labs и Garak. Платформа проверяет модели и агентных систем на наличие таких рисков как взлом, промпт-инъекций и предвзятость, в сочетании с NVIDIA NeMo Guardrails для обеспечения безопасности во время выполнения. Сообщается, что Red Hat AI 3.4 изначально поддерживает ускорители NVIDIA Blackwell и AMD Instinct MI325X. Расширяя эту унифицированную архитектуру платформы для работы непосредственно в управляемых облаках сторонних разработчиков, в том числе посредством Red Hat AI Inference в IBM Cloud, Red Hat обеспечивает операционную согласованность на широком спектре оборудования и облачных провайдеров.
12.05.2026 [16:33], Руслан Авдеев
Космический DevSecOps: Red Hat и Voyager Technologies успешно протестировали микро-ЦОД на борту МКС
linux
red hat
red hat enterprise linux
software
гибридное облако
ии
контейнеризация
космос
микро-цод
мкс
периферийные вычисления
Red Hat и Voyager Technologies объявили об успешном развёртывании в космическом микро-ЦОД LEOcloud Space Edge IaaS на борту МКС программных платформы RHEL Linux 10.1 и образа Red Hat Universal Base Image (UBI). Проект предназначен для развития орбитальных ЦОД и периферийных вычислений в космосе. Предлагаемое решение позволяет запускать контейнеризированные и связанные с ИИ нагрузки на орбите, ближе к источнику получаемых в космосе данных. Использование версии Red Hat Enterprise Linux на аппаратной площадке Space Edge Micro Datacenter позволяет снизить задержки и операционные издержки, в то же время обеспечивая более проактивную защиту периферийных сред, говорит компания. По словам Red Hat, космос стал «новым фронтиром» для гибридных облаков, на котором успех зависит от наличия надёжной, доверенной облачной инфраструктуры, где бы ни генерировались данные. Появление орбитальных ЦОД (ODC) требует открытых инноваций и чрезвычайно высокой отказоустойчивости. Взаимодействие компаний направлено на решение уникальных для космических сред проблем: оптимизацию работы систем при дефиците электроэнергии и аппаратных ресурсов, обработку данных при задержках и перебоях связи, предоставление Linux корпоративного уровня. Интеграция соответствующих задач с наземными DevSecOps-практиками даст возможность Red Hat и Voyager помочь различным организациям расширять свои гибридные облака с повышением стабильности и операционной надёжности.
Источник изображения: NASA/unsplash.com Сегодня компании закладывают основу для новой эры вычислений в космосе, где облачные возможности будут распространяться от земной поверхности к низким околоземным орбитам, на Луну и т.д. Соответствующий подход позволит переносить DevSecOps-практики, стратегии контейнеризации и проактивные механизмы безопасности в передовые операционные среды. Компании выделили несколько ключевых технологических особенностей платформы:
Voyager расширяет DevSecOps-практики в космос благодаря использованию «движка» для запуска контейнеров Podman и Ansible Automation Platform для автоматизации задач, с контейнеризированными приложениями, работающими от земли до орбиты и инструментами, оптимизированными с помощью ИИ. В сентябре 2025 года сообщалось, что прототип орбитального ЦОД Axiom Space и Red Hat для экспериментов с периферийными вычислениями прибыл на МКС, а в октябре того же года основатель Amazon Джефф Безос (Jeff Bezos) пророчил эпоху космических ЦОД гигаваттного масштаба. Этой весной SpaceX подала заявку на вывод в космос миллиона спутников-ЦОД, а у Amazon, раскритиковавшей инициативу. Похоже, имеются собственные планы на этот счёт.
12.05.2026 [15:34], Владимир Мироненко
Broadcom обещает, что VMware Cloud Foundation 9.1 позволит значительно снизить расходы на ИИ-инфраструктуру
broadcom
kubernetes
software
vmware
виртуализация
ии
информационная безопасность
конфиденциальность
частное облако
Компания Broadcom анонсировала VMware Cloud Foundation 9.1, позиционируя платформу как основу для частного облака, оптимизированную для ИИ-нагрузок ИИ и Kubernetes, с интегрированной безопасностью и поддержкой смешанной вычислительной инфраструктуры на базе AMD, Intel и NVIDIA. Broadcom отметила, что VCF 9.1 обеспечит предприятиям при запуске производственных рабочих нагрузок, включая инференс и агентный ИИ, ряд преимуществ. В частности, VCF 9.1 обеспечит снижение затрат на серверы до 40 % благодаря интеллектуальному многоуровневому распределению памяти. Эффективность хранения данных также повышается благодаря усовершенствованным методам сжатия и дедупликации в конвейерах обработки данных ИИ, что снижает общую стоимость владения до 39 %. Использование платформы позволяет сократить эксплуатационные расходы Kubernetes до 46 % при одновременном повышении масштабируемости и скорости развёртывания. Преимущества платформы также включают четырёхкратное ускорение обновления кластеров и удвоение мощности парка серверов, что позволяет предприятиям быстрее масштабировать инфраструктуру ИИ в распределённых средах. В VCF 9.1 сделан акцент на поддержке открытой экосистемы. Обеспечены выбор нескольких GPU AMD и NVIDIA, поддержка CPU AMD и Intel, а также совместимость со стандартными сетевыми технологиями, такими как EVPN и VXLAN, и с универсальной облачной сетью Arista Universal Cloud Network. Этот подход позволяет предприятиям комбинировать оборудование в зависимости от требований к рабочей нагрузке и доступности, что в условиях дефицита является важным фактором, отметил ресурс Storagereview.
Источник изображений: VMware Большое внимание в VCF 9.1 уделено автоматизации, благодаря которой обеспечивается удвоение возможностей управление — для 5 тыс. хостов и в четыре раза более быстрое обновление кластеров в распределённых и изолированных средах. Также была улучшена поддержка многопользовательского режима, позволяющая изолировать рабочие нагрузки ИИ между командами или клиентами на общей инфраструктуре со строгими ограничениями безопасности, максимизируя использование дорогостоящих ресурсов GPU и CPU, одновременно поддерживая суверенитет данных для конфиденциальных моделей. Это особенно актуально для поставщиков услуг и крупных предприятий, консолидирующих ИИ-инфраструктуру. Платформа устраняет необходимость во внешних устройствах для конечных точек ИИ-инференса и агентных приложений за счёт интеграции виртуализированных служб балансировки нагрузки и безопасности через VMware Avi Load Balancer и vDefend, позволяя снизить капитальные затраты, сохранив при этом отказоустойчивость приложений и автоматизацию жизненного цикла. ![]() VCF 9.1 получила встроенную систему безопасности на уровне инфраструктуры для защиты рабочих нагрузок ИИ, проприетарных моделей и данных для обучения от гипервизора до приложения. Благодаря сегментации на основе принципа нулевого доверия (Zero Trust), суверенному восстановлению и непрерывному обновлению без дополнительных инструментов VCF обеспечивает уровень безопасности, необходимый для развёртывания ИИ в продуктовой среде. Система поддерживает восстановление после атак программ-вымогателей в локальной среде, обеспечивающее изолированные среды восстановления и интегрированные инструменты проверки, включая поддержку CrowdStrike Falcon Endpoint Security, защищающие ИИ-модели и данные от трансграничного перемещения, без высоких затрат на обеспечение пропускной способности во время восстановления в кризисных ситуациях. ![]() Функции непрерывного соответствия автоматизируют мониторинг и устранение неполадок в соответствии с определёнными политиками, помогая организациям поддерживать готовность к аудиту без дополнительных инструментов. Обновление в режиме реального времени дополнительно снижает операционные риски, позволяя в большинстве случаев обновлять систему без простоев, поддерживая постоянно работающие ИИ-сервисы. Система безопасности с нулевым доверием, расширяющая защиту распределённых IDS/IPS на рабочие нагрузки Kubernetes AI, обеспечивает скорость проверки угроз до 9 Тбит/с для распределённого инференса и в пять раз более высокую идентификацию приложений для частных облачных и интернет-приложений. Как отметил Storagereview, с помощью VCF 9.1 компания пытается перепозиционировать VMware как жизнеспособную платформу для корпоративного ИИ. Акцент на частном облаке, интегрированной безопасности и унифицированных операциях между виртуальными машинами, контейнерами и GPU соответствует запросам многих крупных организаций, которые приближают рабочие нагрузки инференса к своим данным. Вместе с тем современные распределённые конвейеры ИИ строятся на основе архитектур, ориентированных на Kubernetes, со всё более модульными инфраструктурными решениями, которые отдают приоритет гибкости и прямому доступу к ускоренным вычислениям. В таких средах VMware обычно не является плоскостью управления, а во многих случаях становится дополнительным уровнем, а не основой. Кроме того, хотя Broadcom позиционирует VCF 9.1 как способ сократить расходы на инфраструктуру за счёт повышения эффективности, сохраняются обоснованные опасения корпоративных клиентов по поводу условий лицензирования VMware и общей стоимости владения.
12.05.2026 [13:24], Сергей Карасёв
Новое бизнес-подразделение OpenAI поможет клиентам во внедрении ИИГруппа OpenAI Group PBC сформировала бизнес-подразделение OpenAI Deployment Company, которое будет оказывать сторонним заказчикам услуги по внедрению ИИ-моделей и их оптимизации под конкретные задачи. Инвестиции в OpenAI Deployment Company на первом этапе составят $4 млрд при оценке этой структуры в $14 млрд. Средства поступят от самой OpenAI и более чем десяти других инвесторов, крупнейшим из которых является управляющая компания TPG. В раунде также приняли участие SoftBank Group, Bain Capital, Brookfield, Capgemini SE и McKinsey & Co. Контроль над формируемой организацией сохранит за собой OpenAI. Компания обязалась обеспечить минимальную доходность в размере 17,5% для внешних инвесторов OpenAI Deployment Company. Новая структура поможет крупным предприятиям во внедрении ИИ-моделей OpenAI. Для этого на объекты заказчиков будут направляться инженеры по развёртыванию (Forward Deployed Engineer, FDE) — специалисты, обладающие навыками разработки ПО и взаимодействия с клиентами. Такие инженеры выступают в качестве связующего звена между поставщиком продуктов и заказчиком. Внедрение ИИ-моделей на стороне клиента OpenAI намерена осуществлять в рамках многоэтапного процесса. Сначала специалисты оценят возможные варианты применения ИИ на площадке заказчика и разработают наиболее эффективные сценарии использования. Затем будет осуществлено пилотное развёртывание для «небольшого количества приоритетных рабочих процессов»: это поможет продемонстрировать отдачу от применения продуктов OpenAI. На финальном этапе произойдёт полноценное внедрение. Кроме того, по запросу клиента специалисты OpenAI Deployment Company могут осуществить сопутствующие работы, например, интегрировать ИИ-модель с существующими приложениями в IT-инфраструктуре заказчика. Для развития бизнеса OpenAI Deployment Company приобрела лондонскую фирму Tomoro AI Ltd., предоставляющую технологические услуги. В результате этой сделки, финансовые условия которой не раскрываются, OpenAI получила около 150 инженеров FDE и других технических специалистов. |
|


