Материалы по тегу:

13.05.2026 [13:16], Руслан Авдеев

Не просто ЦОД: NTT Data меняет стратегию и расширяет амбиции в сфере ИИ

Японская NTT Data намерена провести масштабные изменения, став ИИ-бизнесом полного стека. Её интересы простираются на суверенные облака, услуги GPUaaS, ЦОД гиперскейл-уровня, вопросы кибербезопасности, ИИ-платформы, сетевую инфраструктуру, услуги по управлению IT-инфраструктурой и отраслевые ИИ-решения, сообщает Converge Digest.

Компания уже работает в более чем 70 стран и регионов, её штат превышает 200 тыс. человек, а консолидированная выручка по итогам 2025 финансового года превысила ¥5 трлн. На бизнес за пределами Японии приходится более 60 % выручки, благодаря чему NTT Data, согласно рейтингам Gartner, занимает восьмое место среди IT-сервисных бизнесов.

2025 финансовый год стал для компании рекордным. Выручка выросла год к году на 7,9 % до ¥5,0046 трлн, а операционная прибыль — на 50,7 % до ¥488,2 млрд. Чистая прибыль составила ¥265,1 млрд, с ростом на 90,4 % г/г. Новые заказы выросли на 21,1 % до ¥6,0105 трлн. Связанный с ЦОД бизнес обеспечил ¥1,0882 трлн новых заказов, портфолио полученных, но ещё не выполненных заказов составило ¥3,1997 трлн. В 2026 финансовом году запланирован рост выручки до ¥5,19 трлн — продолжатся интенсивные инвестиции в ИИ-инфраструктуру, облачные сервисы и глобальную экспансию.

 Источник изображения: NTT Data

Источник изображения: NTT Data

Краеугольным камнем новой стратегии стало создание подконтрольной структуры AIVista в Кремниевой долине. Она должна ускорить запуск изначально ориентированных на ИИ продуктов, усилить экосистемное партнёрство и позиции NTT на рынке. В компании позиционируют AIVista как оркестратора более широкой стратегии Core AI Platform. Предполагается, что специальная платформа объединит ИИ-агентов, оркестрацию рабочих процессов, управление данными, интеграцию LLM и специальных ИИ-моделей для банков, страхования, промышленности, государственного сектора и корпоративных пользователей.

Новая инфраструктурная стратегия основана на концепции Next-Gen Infrastructure, предусматривающей объединение публичных и суверенных облаков, GPUaaS, ЦОД, сетевых решений и кибербезопасности в единую экосистему. В рамках своей архитектуры компания заявляет о поддержке платформ и моделей OpenAI, Google, Anthropic, Mistral AI, tsuzumi2, а также моделей с открытым кодом. Особое внимание — сегменту суверенных облаков, который всё более востребован на фоне требований государств и корпоративных игроков к локализации данных и ужесточению контроля над IT-системами на местах.

 Источник изображения: NTT Data

Источник изображения: NTT Data

Ключевое место в долгосрочных проектах компании занимают дата-центры. На сегодня NTT Data управляет приблизительно 1,63 ГВт мощностей ЦОД по всему миру, в т.ч. 675 МВт в Северной и Южной Америке, 430 МВт в EMEA, 425 МВт в Индии и 100 МВт в Азиатско-Тихоокеанском регионе. К 2030 финансовому году планируется нарастить совокупную мощность ЦОД до более 3 ГВт. Ставка будет сделана на облачную инфраструктуру и ИИ-инференс, т.е. на строительство крупных кампусов, в первую очередь рассчитанных на гиперскейлеров. Предполагается развитие площадок на рынках уровня Tier 1 и Tier 2, а также привлечения стороннего капитала по схеме cash recycling помимо использования традиционной REIT-модели.

Как следует из итогов 2025 финансового года, инвестиции в ЦОД составили ¥377,9 млрд ($2,5 млрд). В 2026 финансовом году их рассчитывают увеличить до ¥505 млрд ($3,3 млрд). NTT Data всё активнее позиционирует бизнес как платформу для ИИ-инфраструктуры, а не просто как колокейшн-оператора. В числе стратегических приоритетов — инвестиции в ИИ-инновации, M&A-сделки, расширение бизнеса ЦОД, рост консалтингового направления, усиление компетенций персонала в области внедрения ИИ и отраслевой специализации.

В презентации стратегии на 2026 финансовый год компания отмечает рост спроса не только на обучение моделей, но и на инфраструктуру для инференса, а также переход на более крупные ЦОД. Это соответствует более широкому тренду в индустрии — гиперскейлеры и корпоративные пользователи стремительно расширяют рассчитанные на инференс проекты для поддержки корпоративных ИИ-помощников, агентных ИИ-систем, инфраструктуры для поиска внешних данных и суверенных ИИ-нагрузок.

Постоянный URL: http://servernews.ru/1141636
13.05.2026 [13:03], Руслан Авдеев

Бывший глава Fermi America стремится вернуться к власти, заполнить совет директоров своими приспешниками и организовать продажу компании

И без того испытывающая немало проблем компания Fermi, специализирующаяся на проектах ЦОД, отменила внеочередное собрание акционеров, организованное по инициативе отправленного в отставку директора Тоби Нойгебауэра (Toby Neugebauer), сообщает Datacenter Dynamics. Утверждается, что Нойгебауэра в своё время уволили «по уважительной причине» — в результате серьёзных нарушений условий трудового договора и многочисленных внутренних правил компании. Свой пост бывший глава Fermi покинул в середине апреля, вскоре свой пост покинул и финансовый директор Майлз Эверсон (Miles Everson).

Компания занята реализацией в Амарилло (Amarillo, Техас) 11-ГВт проекта ЦОД Project Matador (Hypergrid) с энергетическими мощностями на площадке. Кампус носит имя Дональда Трампам — The President Donald J. Trump Advanced Energy and Intelligence Campus. Хотя ни один из арендованных у Техасского технологического университета участков компания не освоила в значимой степени, не заключила контракты с клиентами и фактически не имела опыта работы в индустрии ЦОД, это не помешало ей выйти на IPO в октябре 2025 года.

На тот момент её рыночная капитализация составила порядка $15 млрд, но теперь она упала до приблизительно $3,42 млрд. Нойгебауэру, членам его семьи, а также топ-менеджерам и руководителям Fermi, покинувшим компанию 17 апреля или позднее, принадлежит около 40 % акций, имеющихся в обращении. Нойгебауэр заявил, что «не может не гордиться» тем, как проходила реализация проекта под его началом и какой прогресс был достигнут в отношениях с арендаторами на момент его ухода из компании. Бизнесмен подчёркивает, что до сих пор не продал ни одной акции Fermi с момента IPO, поскольку точно знает, сколько они стоят.

 Источник изображения: Sebastian Herrmann/unsplash.com

Источник изображения: Sebastian Herrmann/unsplash.com

Правда, в совете директоров придерживаются иного мнения. Подчёркивается, что во времена, когда Нойгебауэр руководил компанией, её акции упали в цене более чем на 80 %. Кроме того бизнесмена обвинили в попытке заполнить совет директоров своими приспешниками для того, чтобы организовать продажу компании по заниженной цене. Второй по величине акционер — компания Caddis Capital с долей 9,3 %, объявила о поддержке решений совета директоров и сообщила, что категорически против попыток Нойбауэра захватить контроль над компанией для «поспешной и необдуманной продажи».

Нойгебауэр и Fermi активно действуют друг против друга в правовом поле. При этом Нойгебауэр утверждает, что компания не имеет право просто уволить его решением менеджмента или совета директоров, этого якобы можно добиться только по итогам голосования акционеров. Одним из основателей Fermi выступил бывший губернатор Техаса и министр энергетики США Рик Перри (Rick Perry). Одной из главных проблем, стоящих перед компанией, является отсутствие публично подтверждённого якорного арендатора — как правило, крупного облачного провайдера, — наличие которого считается необходимым для дальнейшего развития проекта.

Площадь кампуса близ Амарилло должна составить фантастические 167 га. Для электроснабжения будет использоваться комбинация локальных энергоресурсов, включая газовые турбины, солнечные и ветряные станции и даже атомные реакторы. Первые два этапа Project Matador мощностью 1,1 ГВт, предположительно, обойдутся в $2 млрд. В декабре 2025 года Fermi обвинили в манипуляциях ценными бумагами, а в январе сообщалось о коллективном иске со стороны акционеров, подавшим его после того, как неназванный крупный арендатор отказался от будущей аренды мощностей.

Постоянный URL: http://servernews.ru/1141627
13.05.2026 [09:32], Сергей Карасёв

Edge-компьютер Firefly AIBox-K3 оснащён чипом RISC-V с ИИ-производительностью до 60 TOPS

Компания Firefly Technology, по сообщению ресурса CNX-Software, начала продажи компьютера небольшого форм-фактора AIBox-K3, предназначенного для решения ИИ-задач на периферии: устройство, в частности, подходит для осуществления локального инференса.

В основу новинки положен процессор SpacemiT K3. Чип объединяет восемь 64-бит ядер RISC-V X100 (RVA23) с тактовой частотой до 2,4 ГГц и восемь ИИ-ядер RISC-V A100 с общей производительностью до 60 TOPS на операциях INT4. В состав изделия входит GPU-блок Imagination Technologies BXM4-64-MC1 с поддержкой Vulkan 1.3, OpenCL 3.0 и OpenGL ES 1.1/2.0/3.2. Возможно декодирование материалов H.265, H.264, VP9 в формате до 4K (120 к/с) и кодирование H.265, H.264 в формате 4K (60 к/с).

Объём оперативной памяти LPDDR5-6400 может составлять 8, 16 или 32 Гбайт, вместимость встроенного флеш-модуля UFS 2.2 — 128, 256 или 512 Гбайт. Есть коннектор M.2 2242/2280 для SSD с интерфейсом PCIe 3.0 x4 (NVMe). В оснащение включён двухпортовый сетевой контроллер 1GbE.

 Источник изображения: Firefly

Источник изображения: Firefly

Во фронтальной части расположены порт USB 3.0 DRD Type-C (USB 2.0 OTG) и консольный разъём USB Type-C, в тыльной — два порта USB 3.0 Type-A, два гнезда RJ45 для сетевых кабелей, а также интерфейс HDMI 2.0 с возможностью вывода изображения 4K (60 Гц). Питание (9–20 В) подаётся через DC-разъём. Габариты составляют 93,4 × 93,4 × 50,0 мм, масса — около 500 г. Диапазон рабочих температур простирается от -20 до +60 °C. Устройство заключено в корпус из «алюминия промышленного класса».

Утверждается, что компьютер обеспечивает быстродействие более 10 токенов в секунду при локальном запуске ИИ-моделей, насчитывающих до 30 млрд параметров. Говорится о совместимости с Bianbu OS 3.0, Ubuntu 26.04, OpenHarmony, OpenKylin, Fedora, Deepin и пр. Цена начинается с $350 за модификацию с 8 Гбайт ОЗУ и 128 Гбайт флеш-памяти.

Постоянный URL: http://servernews.ru/1141620
13.05.2026 [00:40], Владимир Мироненко

Red Hat анонсировала интегрированную ИИ-платформу Red Hat AI 3.4

Red Hat представила Red Hat AI 3.4, обновлённую версию корпоративной ИИ-платформы, разработанную для поддержки крупномасштабного инференса и развёртывания агентного ИИ в гибридных облачных средах. В качестве комплексной платформы Red Hat AI 3.4 предлагает архитектурную основу и операционные инструменты, необходимые для масштабирования моделей и рабочих процессов агентов в гибридном облаке.

Стратегия Red Hat в области ИИ разделена на четыре ключевых направления, заявил Джо Фернандес (Joe Fernandes), вице-президент и генеральный директор Red Hat AI. «Во-первых, мы помогаем клиентам быстро, гибко и эффективно выполнять инференс, предоставляя модели в их среде, — передаёт SiliconANGLE. — Во-вторых, мы подключаем их корпоративные данные к этим моделям и агентам. В-третьих, мы помогаем им ускорить развёртывание и управление агентами в гибридной облачной среде. В-четвёртых, мы объединяем всё это на нашей интегрированной ИИ-платформе, позволяя им запускать любую модель в любом агенте на любом оборудовании и в любой облачной среде».

Как отметила компания, ключевым элементом этого релиза является предоставление модели как услуги (MaaS), которое обеспечивает единый управляемый интерфейс для разработчиков, позволяющий получать доступ к тщательно отобранным моделям, а администраторам — отслеживать их использование и применять политики. Разработчики получают доступ к моделям через стандартные OpenAI-совместимые API. Таким образом, единое управление применяется как к внутренним, так и к внешним моделям. А инструменты AutoRAG и AutoML автоматизируют сложные задачи ИИ, начиная с выбора наиболее эффективных стратегий извлечения данных для конкретных наборов и заканчивая построением и оптимизацией моделей.

 Источник изображения: Red Hat

Источник изображения: Red Hat

В основе системы лежит открытая библиотека vLLM. Её дополняет Kubernetes-нативный стек для инференса llm-d. Поддержка спекулятивного декодирования, которая в этом релизе стала общедоступной, повышает скорость ответа в два-три раза с минимальным влиянием на его качество и снижает стоимость взаимодействия. Кроме того, vLLM теперь поддерживает работу на CPU, что актуально для небольших языковых моделей. Для управления инструментами для агентов Red Hat представляет каталог серверов MCP и связанный с ним шлюз MCP.

Новый инструментарий AgentOps даёт возможность управления агентами в масштабе, независимо от используемой платформы, на протяжении всего их жизненного цикла. Это включает в себя интегрированную трассировку вызовов LLM, вызовов инструментов и этапов рассуждений, а также управление криптографической идентификацией через SPIFFE/SPIRE. Последний позволяет организациям заменять статические, жёстко закодированные ключи кратковременными токенами. Это поддерживает операции с минимальными привилегиями для автономных агентов на всех уровнях стека и помогает подтвердить, что действия агентов связаны с проверенной личностью.

Для обеспечения интеграции корпоративных данных с моделями и агентами Red Hat AI 3.4 представляет управление с помощью промптов и центр оценки точности, качества и безопасности моделей и агентов. Последний не зависит от фреймворков и заменяет разрозненные методы тестирования единым интегрированным подходом. Prompt Lab and Registry, централизованное хранилище промптов в виде полноценных информационных ресурсов, предоставляет разработчикам и администраторам единый источник достоверной информации о входных данных, управляющих моделями и агентами.

 Источник изображения: Red Hat

Источник изображения: Red Hat

Новые возможности трассировки построены на основе MLflow. Интеграция MLflow обеспечивает прозрачность работы агента, позволяя осуществлять сквозную трассировку вызовов LLM, этапов рассуждений, запуска инструментов, ответов модели и использования токенов через OpenTelemetry. Это создаёт прозрачный журнал аудита для всего жизненного цикла подсказок, эмбеддингов и конфигураций RAG для поддержки отладки и аудита. MLflow также обеспечивает интегрированное отслеживание экспериментов и управление артефактами для сценариев использования генеративного ИИ и прогнозного ИИ.

Платформа Red Hat AI позволяет пользователям проверять безопасность моделей и агентов с помощью автоматизированного сканирования на наличие угроз, которое теперь интегрировано непосредственно в цикл разработки. Используются инструменты Chatterbox Labs и Garak. Платформа проверяет модели и агентных систем на наличие таких рисков как взлом, промпт-инъекций и предвзятость, в сочетании с NVIDIA NeMo Guardrails для обеспечения безопасности во время выполнения.

Сообщается, что Red Hat AI 3.4 изначально поддерживает ускорители NVIDIA Blackwell и AMD Instinct MI325X. Расширяя эту унифицированную архитектуру платформы для работы непосредственно в управляемых облаках сторонних разработчиков, в том числе посредством Red Hat AI Inference в IBM Cloud, Red Hat обеспечивает операционную согласованность на широком спектре оборудования и облачных провайдеров.

Постоянный URL: http://servernews.ru/1141606
12.05.2026 [17:11], Руслан Авдеев

Алжир и Оман договорились совместно строить дата-центры

Оман и Алжир намерены наладить партнёрские отношения в сфере создания ЦОД и продвижения инициатив, связанных с развитием искусственного интеллекта и цифровых государственных проектов, сообщает Datacenter Dynamics. В рамках нового двухстороннего сотрудничества страны намерены обмениваться опытом в соответствующих сферах и изучать возможности цифровизации и инноваций в соответствии со стратегиями, предлагаемыми их правительствами. Впрочем, пока проекты конкретных ЦОД не были анонсированы.

Встреча состоялась в рамках официального визита в Алжир оманского министра транспорта, связи и информационных технологий, в ходе которого тот подписал двухсторонние программы сотрудничества в сфере транспорта, портов и IT. Встреча с министром по цифровым вопросам Алжира в основном была посвящена изучению возможностей расширения взаимодействия для цифровой трансформации и расширения двухстороннего сотрудничества. Стороны намерены организовать эффективное партнёрство на основе инновационных подходов, соответствующих международным стандартам.

 Источник изображения: Halima Bouchouicha/unspalsh.com

Источник изображения: Halima Bouchouicha/unspalsh.com

Рынок ЦОД в Алжире мал, и гиперскейлеры на нём фактически не представлены — в стране зарегистрированы всего шесть ЦОД. Хотя инвесторы всё чаще рассматривают Африку как перспективный рынок, локальный хостинг пока предлагают только HostArts, Ayrade, ICOSNET и ISSAL в Алжире (город) и Оране. В 2025 году алжирское правительство начало строительство ИИ ЦОД в Оране. Ожидается, что к 2027 году вклад ИИ в ВВП государства составит 7 %. Ранее власти страны обнародовали концепцию превращения Алжира в ведущего игрока в области ИИ-инноваций и цифровых технологий в африканском регионе.

В Омане дела обстоят намного лучше. В стране есть два облачных региона Oracle, в городах Ибри и Маскат. Equinix, Datamount и оманская телеком-компания Omantel также имеет собственные объекты в султанате. В частности, Equinix и Omantel открыли в Салале объект в 2025 году. В том же году катарская государственная телеком-компания Ooredoo открыла в Салале новый дата-центр, также выполняющий функции посадочной станции для кабеля Gulf2Africa. За станцию отвечая Zain Omantel International — совместное предприятие Zain и Omantel. Также здесь находится кабель Oman Australia Cable компании Subcom.

Постоянный URL: http://servernews.ru/1141567
12.05.2026 [16:33], Руслан Авдеев

Космический DevSecOps: Red Hat и Voyager Technologies успешно протестировали микро-ЦОД на борту МКС

Red Hat и Voyager Technologies объявили об успешном развёртывании в космическом микро-ЦОД LEOcloud Space Edge IaaS на борту МКС программных платформы RHEL Linux 10.1 и образа Red Hat Universal Base Image (UBI). Проект предназначен для развития орбитальных ЦОД и периферийных вычислений в космосе.

Предлагаемое решение позволяет запускать контейнеризированные и связанные с ИИ нагрузки на орбите, ближе к источнику получаемых в космосе данных. Использование версии Red Hat Enterprise Linux на аппаратной площадке Space Edge Micro Datacenter позволяет снизить задержки и операционные издержки, в то же время обеспечивая более проактивную защиту периферийных сред, говорит компания. По словам Red Hat, космос стал «новым фронтиром» для гибридных облаков, на котором успех зависит от наличия надёжной, доверенной облачной инфраструктуры, где бы ни генерировались данные.

Появление орбитальных ЦОД (ODC) требует открытых инноваций и чрезвычайно высокой отказоустойчивости. Взаимодействие компаний направлено на решение уникальных для космических сред проблем: оптимизацию работы систем при дефиците электроэнергии и аппаратных ресурсов, обработку данных при задержках и перебоях связи, предоставление Linux корпоративного уровня. Интеграция соответствующих задач с наземными DevSecOps-практиками даст возможность Red Hat и Voyager помочь различным организациям расширять свои гибридные облака с повышением стабильности и операционной надёжности.

 Источник изображения: NASA/unsplash.com

Источник изображения: NASA/unsplash.com

Сегодня компании закладывают основу для новой эры вычислений в космосе, где облачные возможности будут распространяться от земной поверхности к низким околоземным орбитам, на Луну и т.д. Соответствующий подход позволит переносить DevSecOps-практики, стратегии контейнеризации и проактивные механизмы безопасности в передовые операционные среды.

Компании выделили несколько ключевых технологических особенностей платформы:

  • используется неизменяемый образ ОС, что исключает накопление случайных ошибок в настройках и пр. в космических условиях, где возможность обслуживания ограничена;
  • для защиты данных поддерживается постквантовое шифрование по стандартам NIST;
  • применяются упрощённые контейнерные образы Red Hat UBI, позволяющие снизить нагрузки на ограниченные аппаратные ресурсы, доступные в космосе.

Voyager расширяет DevSecOps-практики в космос благодаря использованию «движка» для запуска контейнеров Podman и Ansible Automation Platform для автоматизации задач, с контейнеризированными приложениями, работающими от земли до орбиты и инструментами, оптимизированными с помощью ИИ.

В сентябре 2025 года сообщалось, что прототип орбитального ЦОД Axiom Space и Red Hat для экспериментов с периферийными вычислениями прибыл на МКС, а в октябре того же года основатель Amazon Джефф Безос (Jeff Bezos) пророчил эпоху космических ЦОД гигаваттного масштаба. Этой весной SpaceX подала заявку на вывод в космос миллиона спутников-ЦОД, а у Amazon, раскритиковавшей инициативу. Похоже, имеются собственные планы на этот счёт.

Постоянный URL: http://servernews.ru/1141573
12.05.2026 [15:34], Владимир Мироненко

Broadcom обещает, что VMware Cloud Foundation 9.1 позволит значительно снизить расходы на ИИ-инфраструктуру

Компания Broadcom анонсировала VMware Cloud Foundation 9.1, позиционируя платформу как основу для частного облака, оптимизированную для ИИ-нагрузок ИИ и Kubernetes, с интегрированной безопасностью и поддержкой смешанной вычислительной инфраструктуры на базе AMD, Intel и NVIDIA.

Broadcom отметила, что VCF 9.1 обеспечит предприятиям при запуске производственных рабочих нагрузок, включая инференс и агентный ИИ, ряд преимуществ. В частности, VCF 9.1 обеспечит снижение затрат на серверы до 40 % благодаря интеллектуальному многоуровневому распределению памяти. Эффективность хранения данных также повышается благодаря усовершенствованным методам сжатия и дедупликации в конвейерах обработки данных ИИ, что снижает общую стоимость владения до 39 %.

Использование платформы позволяет сократить эксплуатационные расходы Kubernetes до 46 % при одновременном повышении масштабируемости и скорости развёртывания. Преимущества платформы также включают четырёхкратное ускорение обновления кластеров и удвоение мощности парка серверов, что позволяет предприятиям быстрее масштабировать инфраструктуру ИИ в распределённых средах.

В VCF 9.1 сделан акцент на поддержке открытой экосистемы. Обеспечены выбор нескольких GPU AMD и NVIDIA, поддержка CPU AMD и Intel, а также совместимость со стандартными сетевыми технологиями, такими как EVPN и VXLAN, и с универсальной облачной сетью Arista Universal Cloud Network. Этот подход позволяет предприятиям комбинировать оборудование в зависимости от требований к рабочей нагрузке и доступности, что в условиях дефицита является важным фактором, отметил ресурс Storagereview.

 Источник изображений: VMware

Источник изображений: VMware

Большое внимание в VCF 9.1 уделено автоматизации, благодаря которой обеспечивается удвоение возможностей управление — для 5 тыс. хостов и в четыре раза более быстрое обновление кластеров в распределённых и изолированных средах. Также была улучшена поддержка многопользовательского режима, позволяющая изолировать рабочие нагрузки ИИ между командами или клиентами на общей инфраструктуре со строгими ограничениями безопасности, максимизируя использование дорогостоящих ресурсов GPU и CPU, одновременно поддерживая суверенитет данных для конфиденциальных моделей. Это особенно актуально для поставщиков услуг и крупных предприятий, консолидирующих ИИ-инфраструктуру.

Платформа устраняет необходимость во внешних устройствах для конечных точек ИИ-инференса и агентных приложений за счёт интеграции виртуализированных служб балансировки нагрузки и безопасности через VMware Avi Load Balancer и vDefend, позволяя снизить капитальные затраты, сохранив при этом отказоустойчивость приложений и автоматизацию жизненного цикла.

VCF 9.1 получила встроенную систему безопасности на уровне инфраструктуры для защиты рабочих нагрузок ИИ, проприетарных моделей и данных для обучения от гипервизора до приложения. Благодаря сегментации на основе принципа нулевого доверия (Zero Trust), суверенному восстановлению и непрерывному обновлению без дополнительных инструментов VCF обеспечивает уровень безопасности, необходимый для развёртывания ИИ в продуктовой среде.

Система поддерживает восстановление после атак программ-вымогателей в локальной среде, обеспечивающее изолированные среды восстановления и интегрированные инструменты проверки, включая поддержку CrowdStrike Falcon Endpoint Security, защищающие ИИ-модели и данные от трансграничного перемещения, без высоких затрат на обеспечение пропускной способности во время восстановления в кризисных ситуациях.

Функции непрерывного соответствия автоматизируют мониторинг и устранение неполадок в соответствии с определёнными политиками, помогая организациям поддерживать готовность к аудиту без дополнительных инструментов. Обновление в режиме реального времени дополнительно снижает операционные риски, позволяя в большинстве случаев обновлять систему без простоев, поддерживая постоянно работающие ИИ-сервисы.

Система безопасности с нулевым доверием, расширяющая защиту распределённых IDS/IPS на рабочие нагрузки Kubernetes AI, обеспечивает скорость проверки угроз до 9 Тбит/с для распределённого инференса и в пять раз более высокую идентификацию приложений для частных облачных и интернет-приложений.

Как отметил Storagereview, с помощью VCF 9.1 компания пытается перепозиционировать VMware как жизнеспособную платформу для корпоративного ИИ. Акцент на частном облаке, интегрированной безопасности и унифицированных операциях между виртуальными машинами, контейнерами и GPU соответствует запросам многих крупных организаций, которые приближают рабочие нагрузки инференса к своим данным.

Вместе с тем современные распределённые конвейеры ИИ строятся на основе архитектур, ориентированных на Kubernetes, со всё более модульными инфраструктурными решениями, которые отдают приоритет гибкости и прямому доступу к ускоренным вычислениям. В таких средах VMware обычно не является плоскостью управления, а во многих случаях становится дополнительным уровнем, а не основой.

Кроме того, хотя Broadcom позиционирует VCF 9.1 как способ сократить расходы на инфраструктуру за счёт повышения эффективности, сохраняются обоснованные опасения корпоративных клиентов по поводу условий лицензирования VMware и общей стоимости владения.

Постоянный URL: http://servernews.ru/1141568
12.05.2026 [14:47], Сергей Карасёв

До 64 Тбайт RAM: HPE представила модульный суперсервер Compute Scale-up Server 3250

Компания HPE анонсировала сервер Compute Scale-up Server 3250 на аппаратной платформе Intel для нагрузок, которым требуется большой объём оперативной памяти. Это могут быть резидентные базы данных, аналитические приложения, транзакционные платформы и пр.

Новинка выполнена на модульной архитектуре, обеспечивающей гибкое масштабирование. Шасси стандарта 5U рассчитано на четыре процессора Intel Xeon 6700P (до 86 ядер). Доступны 64 слота для модулей оперативной памяти DDR5 ёмкостью до 256 Гбайт каждый: таким образом, суммарный объём ОЗУ может достигать 16 Тбайт. В одну систему могут быть объединены до четырёх серверов, что даст 16 CPU и 64 Тбайт RAM. Платформа управляется внешним контроллером узлов, который отвечает за интерконнект.

Доступны различные конфигурации слотов PCIe 5.0 для карт расширения: 4 × FH + 2 × LP, 8 × FH + 4 × LP или 16 × LP. В оснащение входят сетевые контроллеры 1GbE и 10GbE/25GbE (SFP28), оптический привод DVD-RW (опционально) и вентиляторы охлаждения с возможностью горячей замены. Подсистема хранения данных базируется на накопителях E3.S (NVMe), количество которых может достигать 24. Есть три порта USB 3.0 Type-A (один располагается во фронтальной части, два — сзади).

 Источник изображений: HPE

Источник изображений: HPE

Габариты сервера составляют 905 × 445 × 219,2 мм, масса — от 40,82 до 56,7 кг в зависимости от комплектации. Диапазон рабочих температур простирается от +5 до +35 °C. Задействованы блоки питания мощностью 2400 Вт с сертификатом 80 Plus Titanium. Реализованы средства управления HPE Integrated Lights-Out (HPE iLO).

Отмечается, что Compute Scale-up Server 3250 — это первый масштабируемый сервер HPE на платформе Xeon 6, имеющий модульную архитектуру, оптимизированную для ресурсоёмких вычислительных задач и агентного ИИ. Кроме того, по словам компании, это первая в своём класса система, прошедшая валидацию в бенчмарках SAP BW для платформ с 48+ Тбайт RAM. Приём заказов на новинку уже начался. Производитель предоставляет на систему трёхлетнюю гарантию.

Постоянный URL: http://servernews.ru/1141548
12.05.2026 [13:24], Сергей Карасёв

Новое бизнес-подразделение OpenAI поможет клиентам во внедрении ИИ

Группа OpenAI Group PBC сформировала бизнес-подразделение OpenAI Deployment Company, которое будет оказывать сторонним заказчикам услуги по внедрению ИИ-моделей и их оптимизации под конкретные задачи.

Инвестиции в OpenAI Deployment Company на первом этапе составят $4 млрд при оценке этой структуры в $14 млрд. Средства поступят от самой OpenAI и более чем десяти других инвесторов, крупнейшим из которых является управляющая компания TPG. В раунде также приняли участие SoftBank Group, Bain Capital, Brookfield, Capgemini SE и McKinsey & Co. Контроль над формируемой организацией сохранит за собой OpenAI. Компания обязалась обеспечить минимальную доходность в размере 17,5% для внешних инвесторов OpenAI Deployment Company.

Новая структура поможет крупным предприятиям во внедрении ИИ-моделей OpenAI. Для этого на объекты заказчиков будут направляться инженеры по развёртыванию (Forward Deployed Engineer, FDE) — специалисты, обладающие навыками разработки ПО и взаимодействия с клиентами. Такие инженеры выступают в качестве связующего звена между поставщиком продуктов и заказчиком.

 Источник изображения: unsplash.com / Growtika

Источник изображения: unsplash.com / Growtika

Внедрение ИИ-моделей на стороне клиента OpenAI намерена осуществлять в рамках многоэтапного процесса. Сначала специалисты оценят возможные варианты применения ИИ на площадке заказчика и разработают наиболее эффективные сценарии использования. Затем будет осуществлено пилотное развёртывание для «небольшого количества приоритетных рабочих процессов»: это поможет продемонстрировать отдачу от применения продуктов OpenAI. На финальном этапе произойдёт полноценное внедрение. Кроме того, по запросу клиента специалисты OpenAI Deployment Company могут осуществить сопутствующие работы, например, интегрировать ИИ-модель с существующими приложениями в IT-инфраструктуре заказчика.

Для развития бизнеса OpenAI Deployment Company приобрела лондонскую фирму Tomoro AI Ltd., предоставляющую технологические услуги. В результате этой сделки, финансовые условия которой не раскрываются, OpenAI получила около 150 инженеров FDE и других технических специалистов.

Постоянный URL: http://servernews.ru/1141554
12.05.2026 [13:23], Сергей Карасёв

Dell выпустила ИИ-сервер PowerEdge XE9785 с ускорителями AMD Instinct MI355X

Компания Dell анонсировала сервер PowerEdge XE9785 на аппаратной платформе AMD, предназначенный для ресурсоёмких задач в области ИИ, включая обучение моделей и инференс. Двухсокетное устройство выполнено в форм-факторе 10U и оснащено воздушным охлаждением.

Допускается установка двух процессоров AMD EPYC 9005 Turin, насчитывающих до 192 вычислительных ядер. Доступны 24 слота для модулей оперативной памяти DDR5-6400 RDIMM суммарным объёмом до 6 Тбайт. Во фронтальной части могут быть установлены до 16 NVMe-накопителей E3.S (PCIe 5.0) общей вместимостью до 245,76 Тбайт или до 10 NVMe-изделий U.2 суммарной ёмкостью до 153,6 Тбайт. Кроме того, есть два внутренних коннектора для SSD типоразмера М.2.

Сервер несёт на борту восемь ускорителей AMD Instinct MI355X с 288 Гбайт памяти HBM3E (8 Тбайт/с). Задействован интерконнект AMD Infinity Fabric. В качестве альтернативного варианта предлагается конфигурация с восемью ускорителями NVIDIA HGX B300 и технологией NVIDIA NVLink. Питание обеспечивают 12 блоков мощностью 3200 Вт с сертификатом 80 Plus Titanium (с возможностью горячей замены).

 Источник изображения: Dell

Источник изображения: Dell

Габариты системы составляют 439,5 × 482,3 × 1044,7 мм, масса — 172,3 кг (с установленными картами MI355X). В зоне GPU находятся 15 вентиляторов, в области CPU — пять (все с поддержкой горячей замены). Среди прочего упомянуты слот OCP 3.0 (PCIe 5.0 x8), два сетевых порта RJ45, интерфейс Mini-DisplayPort, по одному порту USB Type-A и Type-C.

Кроме того, компания Dell объявила о возможности использования ускорителей AMD Instinct MI350P в составе своих серверов PowerEdge XE7745 и R7725. Эти устройства рассчитаны на приложения ИИ, платформы виртуализации, базы данных и пр.

Постоянный URL: http://servernews.ru/1141544