Материалы по тегу:

13.05.2026 [00:40], Владимир Мироненко

Red Hat анонсировала интегрированную ИИ-платформу Red Hat AI 3.4

Red Hat представила Red Hat AI 3.4, обновлённую версию корпоративной ИИ-платформы, разработанную для поддержки крупномасштабного инференса и развёртывания агентного ИИ в гибридных облачных средах. В качестве комплексной платформы Red Hat AI 3.4 предлагает архитектурную основу и операционные инструменты, необходимые для масштабирования моделей и рабочих процессов агентов в гибридном облаке.

Стратегия Red Hat в области ИИ разделена на четыре ключевых направления, заявил Джо Фернандес (Joe Fernandes), вице-президент и генеральный директор Red Hat AI. «Во-первых, мы помогаем клиентам быстро, гибко и эффективно выполнять инференс, предоставляя модели в их среде, — передаёт SiliconANGLE. — Во-вторых, мы подключаем их корпоративные данные к этим моделям и агентам. В-третьих, мы помогаем им ускорить развёртывание и управление агентами в гибридной облачной среде. В-четвёртых, мы объединяем всё это на нашей интегрированной ИИ-платформе, позволяя им запускать любую модель в любом агенте на любом оборудовании и в любой облачной среде».

Как отметила компания, ключевым элементом этого релиза является предоставление модели как услуги (MaaS), которое обеспечивает единый управляемый интерфейс для разработчиков, позволяющий получать доступ к тщательно отобранным моделям, а администраторам — отслеживать их использование и применять политики. Разработчики получают доступ к моделям через стандартные OpenAI-совместимые API. Таким образом, единое управление применяется как к внутренним, так и к внешним моделям. А инструменты AutoRAG и AutoML автоматизируют сложные задачи ИИ, начиная с выбора наиболее эффективных стратегий извлечения данных для конкретных наборов и заканчивая построением и оптимизацией моделей.

 Источник изображения: Red Hat

Источник изображения: Red Hat

В основе системы лежит открытая библиотека vLLM. Её дополняет Kubernetes-нативный стек для инференса llm-d. Поддержка спекулятивного декодирования, которая в этом релизе стала общедоступной, повышает скорость ответа в два-три раза с минимальным влиянием на его качество и снижает стоимость взаимодействия. Кроме того, vLLM теперь поддерживает работу на CPU, что актуально для небольших языковых моделей. Для управления инструментами для агентов Red Hat представляет каталог серверов MCP и связанный с ним шлюз MCP.

Новый инструментарий AgentOps даёт возможность управления агентами в масштабе, независимо от используемой платформы, на протяжении всего их жизненного цикла. Это включает в себя интегрированную трассировку вызовов LLM, вызовов инструментов и этапов рассуждений, а также управление криптографической идентификацией через SPIFFE/SPIRE. Последний позволяет организациям заменять статические, жёстко закодированные ключи кратковременными токенами. Это поддерживает операции с минимальными привилегиями для автономных агентов на всех уровнях стека и помогает подтвердить, что действия агентов связаны с проверенной личностью.

Для обеспечения интеграции корпоративных данных с моделями и агентами Red Hat AI 3.4 представляет управление с помощью промптов и центр оценки точности, качества и безопасности моделей и агентов. Последний не зависит от фреймворков и заменяет разрозненные методы тестирования единым интегрированным подходом. Prompt Lab and Registry, централизованное хранилище промптов в виде полноценных информационных ресурсов, предоставляет разработчикам и администраторам единый источник достоверной информации о входных данных, управляющих моделями и агентами.

 Источник изображения: Red Hat

Источник изображения: Red Hat

Новые возможности трассировки построены на основе MLflow. Интеграция MLflow обеспечивает прозрачность работы агента, позволяя осуществлять сквозную трассировку вызовов LLM, этапов рассуждений, запуска инструментов, ответов модели и использования токенов через OpenTelemetry. Это создаёт прозрачный журнал аудита для всего жизненного цикла подсказок, эмбеддингов и конфигураций RAG для поддержки отладки и аудита. MLflow также обеспечивает интегрированное отслеживание экспериментов и управление артефактами для сценариев использования генеративного ИИ и прогнозного ИИ.

Платформа Red Hat AI позволяет пользователям проверять безопасность моделей и агентов с помощью автоматизированного сканирования на наличие угроз, которое теперь интегрировано непосредственно в цикл разработки. Используются инструменты Chatterbox Labs и Garak. Платформа проверяет модели и агентных систем на наличие таких рисков как взлом, промпт-инъекций и предвзятость, в сочетании с NVIDIA NeMo Guardrails для обеспечения безопасности во время выполнения.

Сообщается, что Red Hat AI 3.4 изначально поддерживает ускорители NVIDIA Blackwell и AMD Instinct MI325X. Расширяя эту унифицированную архитектуру платформы для работы непосредственно в управляемых облаках сторонних разработчиков, в том числе посредством Red Hat AI Inference в IBM Cloud, Red Hat обеспечивает операционную согласованность на широком спектре оборудования и облачных провайдеров.

Постоянный URL: http://servernews.ru/1141606
12.05.2026 [17:11], Руслан Авдеев

Алжир и Оман договорились совместно строить дата-центры

Оман и Алжир намерены наладить партнёрские отношения в сфере создания ЦОД и продвижения инициатив, связанных с развитием искусственного интеллекта и цифровых государственных проектов, сообщает Datacenter Dynamics. В рамках нового двухстороннего сотрудничества страны намерены обмениваться опытом в соответствующих сферах и изучать возможности цифровизации и инноваций в соответствии со стратегиями, предлагаемыми их правительствами. Впрочем, пока проекты конкретных ЦОД не были анонсированы.

Встреча состоялась в рамках официального визита в Алжир оманского министра транспорта, связи и информационных технологий, в ходе которого тот подписал двухсторонние программы сотрудничества в сфере транспорта, портов и IT. Встреча с министром по цифровым вопросам Алжира в основном была посвящена изучению возможностей расширения взаимодействия для цифровой трансформации и расширения двухстороннего сотрудничества. Стороны намерены организовать эффективное партнёрство на основе инновационных подходов, соответствующих международным стандартам.

 Источник изображения: Halima Bouchouicha/unspalsh.com

Источник изображения: Halima Bouchouicha/unspalsh.com

Рынок ЦОД в Алжире мал, и гиперскейлеры на нём фактически не представлены — в стране зарегистрированы всего шесть ЦОД. Хотя инвесторы всё чаще рассматривают Африку как перспективный рынок, локальный хостинг пока предлагают только HostArts, Ayrade, ICOSNET и ISSAL в Алжире (город) и Оране. В 2025 году алжирское правительство начало строительство ИИ ЦОД в Оране. Ожидается, что к 2027 году вклад ИИ в ВВП государства составит 7 %. Ранее власти страны обнародовали концепцию превращения Алжира в ведущего игрока в области ИИ-инноваций и цифровых технологий в африканском регионе.

В Омане дела обстоят намного лучше. В стране есть два облачных региона Oracle, в городах Ибри и Маскат. Equinix, Datamount и оманская телеком-компания Omantel также имеет собственные объекты в султанате. В частности, Equinix и Omantel открыли в Салале объект в 2025 году. В том же году катарская государственная телеком-компания Ooredoo открыла в Салале новый дата-центр, также выполняющий функции посадочной станции для кабеля Gulf2Africa. За станцию отвечая Zain Omantel International — совместное предприятие Zain и Omantel. Также здесь находится кабель Oman Australia Cable компании Subcom.

Постоянный URL: http://servernews.ru/1141567
12.05.2026 [16:33], Руслан Авдеев

Космический DevSecOps: Red Hat и Voyager Technologies успешно протестировали микро-ЦОД на борту МКС

Red Hat и Voyager Technologies объявили об успешном развёртывании в космическом микро-ЦОД LEOcloud Space Edge IaaS на борту МКС программных платформы RHEL Linux 10.1 и образа Red Hat Universal Base Image (UBI). Проект предназначен для развития орбитальных ЦОД и периферийных вычислений в космосе.

Предлагаемое решение позволяет запускать контейнеризированные и связанные с ИИ нагрузки на орбите, ближе к источнику получаемых в космосе данных. Использование версии Red Hat Enterprise Linux на аппаратной площадке Space Edge Micro Datacenter позволяет снизить задержки и операционные издержки, в то же время обеспечивая более проактивную защиту периферийных сред, говорит компания. По словам Red Hat, космос стал «новым фронтиром» для гибридных облаков, на котором успех зависит от наличия надёжной, доверенной облачной инфраструктуры, где бы ни генерировались данные.

Появление орбитальных ЦОД (ODC) требует открытых инноваций и чрезвычайно высокой отказоустойчивости. Взаимодействие компаний направлено на решение уникальных для космических сред проблем: оптимизацию работы систем при дефиците электроэнергии и аппаратных ресурсов, обработку данных при задержках и перебоях связи, предоставление Linux корпоративного уровня. Интеграция соответствующих задач с наземными DevSecOps-практиками даст возможность Red Hat и Voyager помочь различным организациям расширять свои гибридные облака с повышением стабильности и операционной надёжности.

 Источник изображения: NASA/unsplash.com

Источник изображения: NASA/unsplash.com

Сегодня компании закладывают основу для новой эры вычислений в космосе, где облачные возможности будут распространяться от земной поверхности к низким околоземным орбитам, на Луну и т.д. Соответствующий подход позволит переносить DevSecOps-практики, стратегии контейнеризации и проактивные механизмы безопасности в передовые операционные среды.

Компании выделили несколько ключевых технологических особенностей платформы:

  • используется неизменяемый образ ОС, что исключает накопление случайных ошибок в настройках и пр. в космических условиях, где возможность обслуживания ограничена;
  • для защиты данных поддерживается постквантовое шифрование по стандартам NIST;
  • применяются упрощённые контейнерные образы Red Hat UBI, позволяющие снизить нагрузки на ограниченные аппаратные ресурсы, доступные в космосе.

Voyager расширяет DevSecOps-практики в космос благодаря использованию «движка» для запуска контейнеров Podman и Ansible Automation Platform для автоматизации задач, с контейнеризированными приложениями, работающими от земли до орбиты и инструментами, оптимизированными с помощью ИИ.

В сентябре 2025 года сообщалось, что прототип орбитального ЦОД Axiom Space и Red Hat для экспериментов с периферийными вычислениями прибыл на МКС, а в октябре того же года основатель Amazon Джефф Безос (Jeff Bezos) пророчил эпоху космических ЦОД гигаваттного масштаба. Этой весной SpaceX подала заявку на вывод в космос миллиона спутников-ЦОД, а у Amazon, раскритиковавшей инициативу. Похоже, имеются собственные планы на этот счёт.

Постоянный URL: http://servernews.ru/1141573
12.05.2026 [15:34], Владимир Мироненко

Broadcom обещает, что VMware Cloud Foundation 9.1 позволит значительно снизить расходы на ИИ-инфраструктуру

Компания Broadcom анонсировала VMware Cloud Foundation 9.1, позиционируя платформу как основу для частного облака, оптимизированную для ИИ-нагрузок ИИ и Kubernetes, с интегрированной безопасностью и поддержкой смешанной вычислительной инфраструктуры на базе AMD, Intel и NVIDIA.

Broadcom отметила, что VCF 9.1 обеспечит предприятиям при запуске производственных рабочих нагрузок, включая инференс и агентный ИИ, ряд преимуществ. В частности, VCF 9.1 обеспечит снижение затрат на серверы до 40 % благодаря интеллектуальному многоуровневому распределению памяти. Эффективность хранения данных также повышается благодаря усовершенствованным методам сжатия и дедупликации в конвейерах обработки данных ИИ, что снижает общую стоимость владения до 39 %.

Использование платформы позволяет сократить эксплуатационные расходы Kubernetes до 46 % при одновременном повышении масштабируемости и скорости развёртывания. Преимущества платформы также включают четырёхкратное ускорение обновления кластеров и удвоение мощности парка серверов, что позволяет предприятиям быстрее масштабировать инфраструктуру ИИ в распределённых средах.

В VCF 9.1 сделан акцент на поддержке открытой экосистемы. Обеспечены выбор нескольких GPU AMD и NVIDIA, поддержка CPU AMD и Intel, а также совместимость со стандартными сетевыми технологиями, такими как EVPN и VXLAN, и с универсальной облачной сетью Arista Universal Cloud Network. Этот подход позволяет предприятиям комбинировать оборудование в зависимости от требований к рабочей нагрузке и доступности, что в условиях дефицита является важным фактором, отметил ресурс Storagereview.

 Источник изображений: VMware

Источник изображений: VMware

Большое внимание в VCF 9.1 уделено автоматизации, благодаря которой обеспечивается удвоение возможностей управление — для 5 тыс. хостов и в четыре раза более быстрое обновление кластеров в распределённых и изолированных средах. Также была улучшена поддержка многопользовательского режима, позволяющая изолировать рабочие нагрузки ИИ между командами или клиентами на общей инфраструктуре со строгими ограничениями безопасности, максимизируя использование дорогостоящих ресурсов GPU и CPU, одновременно поддерживая суверенитет данных для конфиденциальных моделей. Это особенно актуально для поставщиков услуг и крупных предприятий, консолидирующих ИИ-инфраструктуру.

Платформа устраняет необходимость во внешних устройствах для конечных точек ИИ-инференса и агентных приложений за счёт интеграции виртуализированных служб балансировки нагрузки и безопасности через VMware Avi Load Balancer и vDefend, позволяя снизить капитальные затраты, сохранив при этом отказоустойчивость приложений и автоматизацию жизненного цикла.

VCF 9.1 получила встроенную систему безопасности на уровне инфраструктуры для защиты рабочих нагрузок ИИ, проприетарных моделей и данных для обучения от гипервизора до приложения. Благодаря сегментации на основе принципа нулевого доверия (Zero Trust), суверенному восстановлению и непрерывному обновлению без дополнительных инструментов VCF обеспечивает уровень безопасности, необходимый для развёртывания ИИ в продуктовой среде.

Система поддерживает восстановление после атак программ-вымогателей в локальной среде, обеспечивающее изолированные среды восстановления и интегрированные инструменты проверки, включая поддержку CrowdStrike Falcon Endpoint Security, защищающие ИИ-модели и данные от трансграничного перемещения, без высоких затрат на обеспечение пропускной способности во время восстановления в кризисных ситуациях.

Функции непрерывного соответствия автоматизируют мониторинг и устранение неполадок в соответствии с определёнными политиками, помогая организациям поддерживать готовность к аудиту без дополнительных инструментов. Обновление в режиме реального времени дополнительно снижает операционные риски, позволяя в большинстве случаев обновлять систему без простоев, поддерживая постоянно работающие ИИ-сервисы.

Система безопасности с нулевым доверием, расширяющая защиту распределённых IDS/IPS на рабочие нагрузки Kubernetes AI, обеспечивает скорость проверки угроз до 9 Тбит/с для распределённого инференса и в пять раз более высокую идентификацию приложений для частных облачных и интернет-приложений.

Как отметил Storagereview, с помощью VCF 9.1 компания пытается перепозиционировать VMware как жизнеспособную платформу для корпоративного ИИ. Акцент на частном облаке, интегрированной безопасности и унифицированных операциях между виртуальными машинами, контейнерами и GPU соответствует запросам многих крупных организаций, которые приближают рабочие нагрузки инференса к своим данным.

Вместе с тем современные распределённые конвейеры ИИ строятся на основе архитектур, ориентированных на Kubernetes, со всё более модульными инфраструктурными решениями, которые отдают приоритет гибкости и прямому доступу к ускоренным вычислениям. В таких средах VMware обычно не является плоскостью управления, а во многих случаях становится дополнительным уровнем, а не основой.

Кроме того, хотя Broadcom позиционирует VCF 9.1 как способ сократить расходы на инфраструктуру за счёт повышения эффективности, сохраняются обоснованные опасения корпоративных клиентов по поводу условий лицензирования VMware и общей стоимости владения.

Постоянный URL: http://servernews.ru/1141568
12.05.2026 [14:47], Сергей Карасёв

До 64 Тбайт RAM: HPE представила модульный суперсервер Compute Scale-up Server 3250

Компания HPE анонсировала сервер Compute Scale-up Server 3250 на аппаратной платформе Intel для нагрузок, которым требуется большой объём оперативной памяти. Это могут быть резидентные базы данных, аналитические приложения, транзакционные платформы и пр.

Новинка выполнена на модульной архитектуре, обеспечивающей гибкое масштабирование. Шасси стандарта 5U рассчитано на четыре процессора Intel Xeon 6700P (до 86 ядер). Доступны 64 слота для модулей оперативной памяти DDR5 ёмкостью до 256 Гбайт каждый: таким образом, суммарный объём ОЗУ может достигать 16 Тбайт. В одну систему могут быть объединены до четырёх серверов, что даст 16 CPU и 64 Тбайт RAM. Платформа управляется внешним контроллером узлов, который отвечает за интерконнект.

Доступны различные конфигурации слотов PCIe 5.0 для карт расширения: 4 × FH + 2 × LP, 8 × FH + 4 × LP или 16 × LP. В оснащение входят сетевые контроллеры 1GbE и 10GbE/25GbE (SFP28), оптический привод DVD-RW (опционально) и вентиляторы охлаждения с возможностью горячей замены. Подсистема хранения данных базируется на накопителях E3.S (NVMe), количество которых может достигать 24. Есть три порта USB 3.0 Type-A (один располагается во фронтальной части, два — сзади).

 Источник изображений: HPE

Источник изображений: HPE

Габариты сервера составляют 905 × 445 × 219,2 мм, масса — от 40,82 до 56,7 кг в зависимости от комплектации. Диапазон рабочих температур простирается от +5 до +35 °C. Задействованы блоки питания мощностью 2400 Вт с сертификатом 80 Plus Titanium. Реализованы средства управления HPE Integrated Lights-Out (HPE iLO).

Отмечается, что Compute Scale-up Server 3250 — это первый масштабируемый сервер HPE на платформе Xeon 6, имеющий модульную архитектуру, оптимизированную для ресурсоёмких вычислительных задач и агентного ИИ. Кроме того, по словам компании, это первая в своём класса система, прошедшая валидацию в бенчмарках SAP BW для платформ с 48+ Тбайт RAM. Приём заказов на новинку уже начался. Производитель предоставляет на систему трёхлетнюю гарантию.

Постоянный URL: http://servernews.ru/1141548
12.05.2026 [13:24], Сергей Карасёв

Новое бизнес-подразделение OpenAI поможет клиентам во внедрении ИИ

Группа OpenAI Group PBC сформировала бизнес-подразделение OpenAI Deployment Company, которое будет оказывать сторонним заказчикам услуги по внедрению ИИ-моделей и их оптимизации под конкретные задачи.

Инвестиции в OpenAI Deployment Company на первом этапе составят $4 млрд при оценке этой структуры в $14 млрд. Средства поступят от самой OpenAI и более чем десяти других инвесторов, крупнейшим из которых является управляющая компания TPG. В раунде также приняли участие SoftBank Group, Bain Capital, Brookfield, Capgemini SE и McKinsey & Co. Контроль над формируемой организацией сохранит за собой OpenAI. Компания обязалась обеспечить минимальную доходность в размере 17,5% для внешних инвесторов OpenAI Deployment Company.

Новая структура поможет крупным предприятиям во внедрении ИИ-моделей OpenAI. Для этого на объекты заказчиков будут направляться инженеры по развёртыванию (Forward Deployed Engineer, FDE) — специалисты, обладающие навыками разработки ПО и взаимодействия с клиентами. Такие инженеры выступают в качестве связующего звена между поставщиком продуктов и заказчиком.

 Источник изображения: unsplash.com / Growtika

Источник изображения: unsplash.com / Growtika

Внедрение ИИ-моделей на стороне клиента OpenAI намерена осуществлять в рамках многоэтапного процесса. Сначала специалисты оценят возможные варианты применения ИИ на площадке заказчика и разработают наиболее эффективные сценарии использования. Затем будет осуществлено пилотное развёртывание для «небольшого количества приоритетных рабочих процессов»: это поможет продемонстрировать отдачу от применения продуктов OpenAI. На финальном этапе произойдёт полноценное внедрение. Кроме того, по запросу клиента специалисты OpenAI Deployment Company могут осуществить сопутствующие работы, например, интегрировать ИИ-модель с существующими приложениями в IT-инфраструктуре заказчика.

Для развития бизнеса OpenAI Deployment Company приобрела лондонскую фирму Tomoro AI Ltd., предоставляющую технологические услуги. В результате этой сделки, финансовые условия которой не раскрываются, OpenAI получила около 150 инженеров FDE и других технических специалистов.

Постоянный URL: http://servernews.ru/1141554
12.05.2026 [13:23], Сергей Карасёв

Dell выпустила ИИ-сервер PowerEdge XE9785 с ускорителями AMD Instinct MI355X

Компания Dell анонсировала сервер PowerEdge XE9785 на аппаратной платформе AMD, предназначенный для ресурсоёмких задач в области ИИ, включая обучение моделей и инференс. Двухсокетное устройство выполнено в форм-факторе 10U и оснащено воздушным охлаждением.

Допускается установка двух процессоров AMD EPYC 9005 Turin, насчитывающих до 192 вычислительных ядер. Доступны 24 слота для модулей оперативной памяти DDR5-6400 RDIMM суммарным объёмом до 6 Тбайт. Во фронтальной части могут быть установлены до 16 NVMe-накопителей E3.S (PCIe 5.0) общей вместимостью до 245,76 Тбайт или до 10 NVMe-изделий U.2 суммарной ёмкостью до 153,6 Тбайт. Кроме того, есть два внутренних коннектора для SSD типоразмера М.2.

Сервер несёт на борту восемь ускорителей AMD Instinct MI355X с 288 Гбайт памяти HBM3E (8 Тбайт/с). Задействован интерконнект AMD Infinity Fabric. В качестве альтернативного варианта предлагается конфигурация с восемью ускорителями NVIDIA HGX B300 и технологией NVIDIA NVLink. Питание обеспечивают 12 блоков мощностью 3200 Вт с сертификатом 80 Plus Titanium (с возможностью горячей замены).

 Источник изображения: Dell

Источник изображения: Dell

Габариты системы составляют 439,5 × 482,3 × 1044,7 мм, масса — 172,3 кг (с установленными картами MI355X). В зоне GPU находятся 15 вентиляторов, в области CPU — пять (все с поддержкой горячей замены). Среди прочего упомянуты слот OCP 3.0 (PCIe 5.0 x8), два сетевых порта RJ45, интерфейс Mini-DisplayPort, по одному порту USB Type-A и Type-C.

Кроме того, компания Dell объявила о возможности использования ускорителей AMD Instinct MI350P в составе своих серверов PowerEdge XE7745 и R7725. Эти устройства рассчитаны на приложения ИИ, платформы виртуализации, базы данных и пр.

Постоянный URL: http://servernews.ru/1141544
12.05.2026 [12:00], Сергей Карасёв

«Базис» представил конструктор платформенных сервисов Basis Automation Studio

Компания «Базис», крупнейший российский разработчик решений для управления динамической ИТ-инфраструктурой, представила конструктор платформенных сервисов Basis Automation Studio (BAS). Решение является частью расширенной конфигурации облачной платформы Basis Dynamix Cloud Control и будет актуально в первую очередь для заказчиков, которые хотят автоматизировать развёртывание сложных ИТ-систем и платформенных сервисов, использующих виртуальную инфраструктуру.

Для решения этой задачи Basis Automation Studio предоставляет системным администраторам и архитекторам заказчика инструменты для проектирования, развёртывания и сопровождения платформенных сервисов в виртуальной инфраструктуре.

Конструктор позволяет визуально проектировать инфраструктуру на основе готовых компонентов и связей между ними, использовать каталог шаблонов виртуальных инфраструктур и платформенных сервисов, а также расширяемую библиотеку типовых элементов и образцов востребованного ПО, включая ClickHouse, Consul, Docker, MariaDB и PostgreSQL.

 Источник изображений: «Базис»

Источник изображений: «Базис»

Basis Automation Studio поддерживает стандартные для облачной инфраструктуры инструменты и подходы, включая архитектуру TOSCA, формат сериализации YAML, систему управления конфигурациями Ansible, язык Python, интерпретатор Bash. Они используются для описания облачной инфраструктуры и управления её компонентами, развёртывания сервисов и их настройки. После развёртывания сервисов администраторы могут создавать day-2 операции для их сопровождения, мониторинга, обновления и поддержания работоспособности. Готовые сервисы можно публиковать на витрине портала самообслуживания, где они доступны для заказа в один клик пользователям облачной инфраструктуры.

Для администрирования продукта и разработки шаблонов в BAS предусмотрен веб-интерфейс, включая визуальный редактор сервисов, а также инструменты управления правами и контроля доступа к компонентам инфраструктуры.

В Basis Automation Studio реализована иерархическая мультитенантная модель, которая обеспечивает строгую логическую изоляцию ресурсов и детализированное управление доступом. На каждом уровне иерархии могут быть независимо назначены права доступа, роли и разрешения для взаимодействия с конструктором и запущенными с его помощью сервисами. Например, можно разграничить доступ между различными департаментами (или другими бизнес-единицами) одной компании, группируя принадлежащие им проекты и пользовательские учётные записи в специальные контейнеры, называемые доменами. В этом случае пользователи и ресурсы одного домена будут невидимы и недоступны для другого, что помогает заказчику обеспечивать конфиденциальность и сохранность данных в рамках масштабируемой и разветвлённой ИТ-инфраструктуры.

Дополнительно Basis Automation Studio предлагает ролевую модель управления пользователями платформы. По умолчанию доступны следующие роли: администратор с полными правами на управление конструктором, архитектор для управления компонентами и сервисами, разработчик компонентов и сервисов, администратор проектов, пользователь. При необходимости одному аккаунту внутри конструктора может быть назначено несколько ролей, в этом случае их права суммируются. В результате заказчик получает простой в то же время достаточно гибкий инструмент для обеспечения безопасности виртуальной инфраструктуры.

«Интенсивное развитие облачной платформы Basis Dynamix Cloud Control и, в частности, появление конструктора платформенных сервисов Basis Automation Studio стало нашим ответом на растущий интерес рынка к облачной и гибридной инфраструктурам. Задача Basis Automation Studio — облегчить декларирование облачной инфраструктуры, а также развёртывание внутри неё необходимых для бизнеса ИТ-систем и сервисов, в первую очередь за счёт автоматизации этих процессов. Мы планируем активно развивать наш продукт под задачи российских заказчиков», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1141418
12.05.2026 [10:25], Руслан Авдеев

Gartner: суверенное облако могут позволить себе только США и Китай, но не Европа

По словам вице-президента Gartner Дугласа Тумбса (Douglas Toombs), создать полностью суверенное облако за пределами США или Китая не представляется возможным. Лишь они располагают необходимыми для этого технологиями, сообщает The Register. Соответствующее заявление Тумбс сделал на недавней конференции в Сиднее. В других странах заказчикам невозможно избежать взаимодействия с иностранными поставщиками.

По мнению эксперта, хотя американские поставщики облачных решений предлагают продукты, якобы не подпадающие под действие законов за пределами избранных клиентами стран, в конечном итоге облака принадлежат американским корпорациям, а это значит, что уверенно гарантировать полный суверенитет данных невозможно. В своё время Microsoft уже признала, что защитить пользователей от американских законов она попросту не в силах.

Gartner отмечает, что даже «локальные» облака вроде AWS Outposts/Dedicated Local Zone, Azure Local или выделенных облачных регионов Oracle периодически должны устанавливать связь с удалёнными серверами. Эксперт уверен, что попытки создавать суверенные облачные среды всё равно не увенчаются успехом. В пример приводятся европейские проекты Andromeda, Numergy и Gaia-X, которые позволили разве что подготовить несколько хороших научных докладов.

 Источник изображения: krakenimages / Unsplash

Источник изображения: krakenimages / Unsplash

Тумбс также сослался на «Правило трёх и четырёх», выведенное в недрах Boston Consulting Group. Оно предполагает, что на стабильном конкурентном рынке не может быть более трёх значимых игроков, при этом доля рынка крупнейшего из них не более чем вчетверо больше доли самого мелкого. По словам Тумбса, в соответствии с этим правилом рынок облачных вычислений «стабилизировался» вокруг «большой тройки»: AWS, Google и Microsoft.

Впрочем, Тумбс допустил, что отдельные небольшие облачные платформы способны успешно развиваться, что позволит появиться суверенным поставщикам SaaS и соответствующих продуктов. Тем не менее, он считает, что даже решительные меры для перехода на локальные мощности не освободит их владельцев от зависимости от гиперскейлеров. В пример эксперт привёл медицинскую организацию из Нидерландов, уже попытавшуюся создать суверенную инфраструктуру — перебои в её работе начались после того, как поставщик «суверенного» решения (крупный облачный провайдер) сам столкнулся со сбоем в своём облаке.

У европейских структур уже возникли опасения, что американские облачные провайдеры однажды способны покинуть европейскую экосистему, поставив клиентов перед необходимостью поспешной и рискованной миграции. В Gartner утверждают, что «усиление геополитической напряжённости» заставит клиентов гиперскейлеров пересмотреть свои стратегии, а пока немногие всерьёз задумываются о разработке стратегии выхода из чужих облаков, пользователи чрезвычайно привязаны к существующей системе.

 Источник изображения: Julia Fiander / Unsplash

Источник изображения: Julia Fiander / Unsplash

В Gartner отмечают, что отсутствие стратегии выхода из чужих облаков — одна из десяти крупных ошибок, допускаемых пользователями наряду с началом использования облаков с критически важным и сложным ПО вроде ERP. Кроме того, большой ошибкой будет предполагать, что облако подходит для любых приложений, и ожидать, что каждое приложение получит все преимущества облачной инфраструктуры — от снижения затрат до отказоустойчивости.

Также подчёркивается, что глупо предполагать, что переход на мультиоблачную среду повысит надёжность доступа к сервисам. Для этого необходимо сначала решить сложную и дорогую задачу переносимости приложений между облаками. Подчёркивается, что мультиоблачные решения стоит использовать не для страховки от сбоев, а преимущественно для доступа к наиболее привлекательным функциям и сервисам каждого из них.

На днях сообщалось, что Евросоюз рассматривает правовые нормы, ограничивающие обработку конфиденциальных данных ЕС американскими облачными провайдерами. В частности, Еврокомиссия должна представить пакет мер, укрепляющих стратегическую автономию блока государств в ключевых цифровых сферах. В апреле Еврокомиссия уже объявила тендер на €180 млн для реализации четырёх европейских проектов в сфере суверенных облачных вычислений. Тем не менее, пока американские гиперскейлеры годами доминируют на европейском облачном рынке. Более того, по оценкам аналитиков, особенно надеяться на изменение ситуации и не стоит.

Постоянный URL: http://servernews.ru/1141516
12.05.2026 [09:35], Сергей Карасёв

Meta✴ готовит пятитонные ИИ-стойки с чипами AMD

Некоммерческая организация Open Compute Project (OCP) обнародовала спецификацию серверных стоек Open Rack Wide (ORW) от Meta, которая дополняет более общую базовую спецификацию. Стойки разработаны для дата-центров, ориентированных на ИИ и НРС, разработанную Meta и дополняющую базовый вариант стандарта. Стандарт ORW положен в основу платформы AMD Helios. Габариты стоек ORW составляют 2390 мм в высоту, 1219 мм в глубину и 1200 мм в ширину. Таким образом, стойка ORW вдвое шире стандартных стоек Open Rack V3 (600 мм).

Конструкция ORW рассчитана на плотное размещение тяжёлого оборудования — крупногабаритных серверов с GPU-ускорителями, мощных СХД и пр. Грузоподъёмность рамы должна составлять 4700 кг (без учёта массы собственно стойки). Подчёркивается, что на показатель влияет множество факторов, включая пространственное распределение IT-оборудования, количество и расположение поперечных распорок и пр. Любые дополнительные элементы, установленные в стойку, необходимо учитывать при расчёте максимальной грузоподъёмности.

ORW-стойка рассчитана на 44OU-единицы для узлов удвоенной ширины или 47U для 19″ узлов. Возможно комбинирование различных типов оборудования — конструкция стойки предусматривает наличие вырезов для кронштейнов крепления серверов обоих типов. Также прописана поддержка обычных 21″ шасси, в этом случае ёмкость стойки составляет 88OU. Интересно, что NVIDIA в стойках Kyber перейдёт к вертикальным узлам. Впрочем, компания наверняка тоже отдаст спецификации OCP, как это было со стойкой Oberon.

 Источник изображения: AMD

Источник изображения: AMD

В стойках ORW обеспечивается циркуляция воздуха от фронтальной области к тыльной. В обычных условиях эксплуатации в верхней, нижней и боковых частях не предусмотрены отверстия, через которые горячий воздух может проникать в холодный коридор дата-центра. Конструкция должна включать передний и задний каналы для организации кабелей, которые могут укладываться вертикально во всех четырёх углах рамы.

 Источник изображения: AMD

Источник изображения: AMD

В спецификации сказано, что доступ к высоковольтным линиям на шине постоянного тока должен быть исключен, если она подключена к IT-оборудованию. Стойки ORW совместимы с различными конструкциями шин питания — как с воздушным, так и с жидкостным охлаждением. Интерфейс шинопровода аналогичен ORv3 HPR (High Power Rack). Предполагаемое номинальное входное напряжение, обеспечиваемое модулем питания ORv3, составляет 51 В DC. Вся подсистема питания IT-оборудования должна поддерживать входные напряжения в диапазоне от 46 В до 52 В. Требуются датчики напряжения и температуры, силовой (100 А) и обратный (100 А) каналы, а также заземление. Типовая мощность — до 4,8 кВт на коннектор (узел).

 Источник изображения: OCP

Источник изображения: OCP

Нужно отметить, что OCP продвигает перевод дата-центров на DC-питание. Предполагается, что такая архитектура позволит повысить плотность и энергоэффективность вычислений. Концепция предусматривает возможность выделение подсистемы питания в отдельную стойку и переход к 400/800 В DC с выносом AC/DC-преобразование AC/DC за пределы машинных залов. Передачу энергии планируется осуществлять через общую DC-шину, соединяющую все стойки, или по отдельным кабелям (либо комбинированно).

Между тем перед операторами ИИ-дата-центров встаёт проблема, связанная с ростом массы IT-оборудования. Современные стойки 42U с набором серверов весят 680–1150 кг, а для ORW предусмотрена нагрузка до почти 5 т. Из-за этого возникают сложности с обустройством полов и перекрытий. Из-за большой массы оборудования многие операторы предпочитают строить одноэтажные дата-центры вместо многоэтажных. Хотя как раз для ИИ-кластеров с точки зрения интерконнекта эффективнее именно последние. Однако для Meta, возможно, важнее скорость развёртывания — она даже обходится без капитального строительства.

Постоянный URL: http://servernews.ru/1141473

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;