Материалы по тегу: ии
|
14.05.2026 [18:02], Владимир Мироненко
Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит ArmAMD добилась значительных успехов в сегменте серверных процессоров в I квартале 2026 года. По оценкам Mercury Research, на EPYC пришлось 46,2 % рынка серверных процессоров в денежном выражении, что стало новым историческим максимумом у компании в этой категории продукции. При этом в количественном выражении доля AMD EPYC в общем объёме продаж в сегменте гораздо меньше — 27,4 % (последовательный рост на 230 базисных пунктов), что указывает на их гораздо более высокую среднюю цену продажи (ASP) по сравнению с конкурентами. Общий объём поставок серверных процессоров увеличился примерно на 6 % последовательно и примерно на 19 % год к году. Больше половины рынка серверных чипов в количественном выражении (54,9 %, снижение на 370 базисных пунктов по сравнению с предыдущим кварталом) принадлежит Intel. И судя по её доле рынка в денежном выражении в размере 53,8 % и доле в количественном выражении, можно с уверенностью предположить, что средняя цена серверных процессоров Intel Xeon ниже, чем у AMD EPYC. По данным Mercury Research, на Arm-процессоры ля ЦОД приходится около 17,7 % (последовательный рост на 140 базисных пунктов), что составляет почти пятую часть от общего объёма поставок в I квартале 2026 года. Вместе с тем, не уточняется, идёт ли речь о продукции Ampere и других производителей Arm-процессоров, или же о собственных разработках таких компаний, как Google, AWS или Microsoft. В 2026 году ключевым трендом на рынке ИИ стало активное внедрение ИИ-агентов и мультиагентных систем, что обусловило высокий спрос на процессоры и успех AMD. При развёртывании агентного ИИ растёт роль CPU, что привело к изменению конфигурации вычислительных систем от традиционного соотношения, когда один процессор работает в паре с четырьмя или даже восемью ускорителями, в сторону соотношения один к одному. Благодаря возросшему спросу AMD сейчас продаёт каждый произведённый процессор, а Intel реализует заинтересованным клиентам даже то, что ранее списывалось как брак. Вместе с тем в настоящее время AMD удаётся добиваться более высоких средних цен на свою продукцию.
14.05.2026 [16:47], Владимир Мироненко
Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMwareКомпания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок». V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты. V/IS включает следующие компоненты:
Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU. Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.
14.05.2026 [15:33], Руслан Авдеев
Uptime Institute: сбои в дата-центрах стали реже, но значительнееСогласно новому отчёту Uptime Institute, за последнюю пятилетку отказоустойчивость ЦОД значительно выросла. При этом сбои в работе дата-центров по-прежнему происходят, а устранение их обходится всё дороже и времени на это уходит в среднем всё больше, сообщает The Register. Согласно докладу, половина опрошенных представителей операторов ЦОД за последние три года отметили значительные или масштабные сбои. Это наиболее низкий уровень с 2020 года, т.е. инфраструктура становится всё надёжнее. При этом операторам ЦОД всё сложнее повышать прописанный в SLA уровень надёжности — хотя отказы случаются реже, дальнейшее улучшение показателей требует всё больших усилий. Усилия по повышению времени безотказной работы отчасти сводятся на нет усложнением систем и условий эксплуатации, вызванными повсеместным внедрением ресурсоёмкой инфраструктуры для обучения и инференса ИИ. Повышенная плотность размещения оборудования в стойках, перепады нагрузок и другие факторы способны увеличить вероятность каскадных отказов. Кроме того, нехватка генераторов, распределительных устройств, трансформаторов, систем охлаждения и др. заставляет операторов ЦОД иногда использовать б/у или непроверенное оборудование. Предполагается, что именно это могло привести к сбоям в некоторых ЦОД.
Источник изображения: Uptime Institute Основной причиной критических неполадок называются сбои электроснабжения, хотя в этом отношении наметились определённые улучшения — если в 2024 году на проблемы с электроснабжением приходилось 54 % самых серьёзных отключений, то в 2025 году речь шла уже о 45 %. При этом ситуация может измениться, поскольку электросети на местах испытывают всё большую нагрузку из-за ввода в эксплуатацию новых ЦОД. Хотя сбои энергосетей не станут главной причиной отключений в будущем, они скажутся на доступности локальной генерации — при сбоях сети ЦОД не всегда успевают переключиться на ДГУ и иные резервные источники питания.
Источник изображения: Uptime Institute В поле зрения экспертов Uptime попадает не только перегрузка электросетей. По словам экспертов, многие сбои ЦОД связаны с обрывами оптоволокна и другими неполадками. Поскольку инфраструктура ЦОД становится всё более распределённой, сбои за пределами дата-центров играют всё большую роль. Даже если сам ЦОД работает корректно, неправильная сетевая конфигурация, например, может привести к перебоям с предоставлением услуг клиентам. SDN и автоматическое перераспределение трафика позволяет снизить риски, и всё больше компаний не сталкиваются с простоями вообще. Около 20 % опрошенных не регистрировали в последние три года сбоев IT-сервисов, что значительно лучше, чем годом ранее.
Источник изображения: Uptime Institute Обеспечение устойчивости на уровне ПО помогает смягчить эффекты от локальных инцидентов, включая обрывы оптоволоконных кабелей, за счёт распределения рабочих нагрузок между рядом связанных площадок. Впрочем, такие системы довольно сложны сами по себе. Более того, на примере ударов беспилотниками по ЦОД в ОАЭ и Бахрейне можно увидеть, что распределение нагрузок имеет малую эффективность, если сбой касается сразу нескольких площадок. Хотя в 2025 году Uptime Institute зарегистрировала меньше сбоев, чем годом ранее, в отчёте полагают, что сбои могут длиться в целом дольше. 55 % инцидентов, информация о которых сообщалось публично, разрешаются в течение 12 часов, но доля инцидентов продолжительностью более 48 часов увеличивается вот уже второй год подряд. При этом многие из них связаны с теми же повреждениями ВОЛС. По информации Uptime, в отчётный период это происходило более чем вдвое чаще, чем ранее. При этом по мере роста длительности простоя растут и убытки от инцидентов, особенно в случае с ИИ-инфраструктурой. По данным Uptime, в настоящее время 20 % простоев обходится дороже $1 млн. Ожидается, что соответствующий показатель в ближайшие годы будет только увеличиваться.
14.05.2026 [10:00], Владимир Мироненко
«Группа Астра» запустила отечественное облако Astra Cloud на российских Arm-процессорах Baikal-S
arm
astra linux
baikal-s
iaas
software
байкал электроникс
импортозамещение
кии
облако
сделано в россии
частное облако
«Группа Астра» объявила о запуске облачного сервиса Astra Cloud, построенного на российских процессорах Baikal-S от компании «Байкал Электроникс» и ориентированного, в первую очередь, на критическую информационную инфраструктуру. Компания подчеркнула, что это первое в стране коммерческое облако, весь технологический стек которого, начиная от чипа и заканчивая конечным сервисом, разработан в России. «Группа Астра» отметила, что ключевым условием формирования суверенной и безопасной среды для субъектов КИИ является использование экосистемного и платформенного подхода, при котором контролируется каждый технологический слой, включая низкоуровневое аппаратное обеспечение. Astra Cloud на Baikal-S призвано обеспечить такую среду российским предприятиям: полная импортонезависимость с полным соответствием на уровне архитектуры регуляторным требованиям, которые вступают в силу с января 2028 года. Генеральный директор Astra Cloud заявил, что компания нацелена на создание сквозной технологию в облаке — от российского центрального процессора до конечного сервиса для использования заказчиком. «Для нас здесь нет выбора между “российским” и “эффективным”. Облако Astra Cloud на Baikal-S — это прямое и честное соответствие мировому Arm-стандарту, и мы даём бизнесу инструмент для спокойного перехода на доверенную инфраструктуру уже сегодня, а не в последнюю ночь перед дедлайном», — сообщил он. Также это один из первых в России облачных сервисов с использованием Arm-архитектуры, отличающейся высокой энергоэффективностью, что снижает операционные расходы, обеспечивая высокую производительность обработки современных облачных нагрузок (AI/ML, СУБД или веб-сервисы) и более низкую совокупную стоимость владения (TCO) по сравнению с x86-решениями, говорит компания. Она отмечает, что Arm-архитектура получила признание среди гиперскейлеров, которые используют её в своих собственных CPU, что в целом укрепляет программную экосистему. У Microsoft есть Arm-процессоры Cobalt 200, у AWS — Graviton 5, у Alibaba Cloud — Yitian 710, а у Google — Axion. Среди крупных независимых поставщиков серверных процессоров можно выделить Ampere Computing (активно используется Oracle), которая теперь принадлежит SoftBank, и Huawei, активно использующую процессоры Kunpeng в своей продукции, в том числе в облаке. Собственные процессоры также готовят сама Arm, Qualcomm и Fujitsu. Последние, как и чипы NVIDIA Vera, ориентированы в первую очередь на ИИ. Компания «Байкал электроникс» поставила в Россию не менее 85 тыс. процессоров собственной разработки, включая модели Baikal-T, Baikal-M и Baikal-S, но из-за санкций производство чипов пришлось прекратить, а также отменить выпуск Baikal-S. Также пришлось отменить планы по старту серийного производства в 2025–2026 гг. 128-ядерных серверных Arm-процессоров второго поколения Baikal-S2. Однако вскоре будут доступны и они. «Группа Астра» также готовит для партнёров и интеграторов совместные пакеты поставки, чтобы обеспечить их не только технологией, но и отлаженными коммерческими сценариями её внедрения. Например, в публичном облаке Astra Cloud с Baikal-S заказчик получит защищённую аттестованную инфраструктуру и приложения в ЦОД Astra Cloud, предоставляемые как сервис, для использования под конкретные бизнес-задачи (от пилота до промышленной нагрузки) без надобности в создании собственной аппаратной площадки. В свою очередь, частное облако на Baikal-S — это выделенная инфраструктура в контуре заказчика для тех, кому важен контроль с максимальной изоляцией данных. Также предлагается ПАК XCloud на Baikal-S — готовая облачная платформа «под ключ», которая разворачивается либо в контуре заказчика по лицензии, либо в ЦОД Astra Cloud по подписке. Пока что предоставляется IaaS (узлы 2 × 48 ядер, 128–768 Гбайт RAM, 1 Тбайт системный диск + HDD/SSD), а в будущем появятся VDI, Kubernets, почтовая служба и т.д. — всё, что запланировано к реализации в платформе Astra Cloud, будет доступно и на Baikal S. В настоящее время облако Astra Cloud на Baikal-S проходит финальную доработку на реальных нагрузках в «Группе Астра». Речь, в частности, о полноценном развёртывании платформы 1С. Ожидается, что до конца июля для избранных клиентов будет открыт пилотный доступ в неаттестованном сегменте с возможностью бесплатного тестирования до конца года. Также в этом году будет запущен аттестованный сегмент с дальнейшим расширением сервисов для разработчиков и коммерческой подписки. Одновременно с облачной инфраструктурой Astra Cloud предоставит готовую платформу разработки, включающую репозитории кода, CI/CD-конвейеры и инструменты безопасной разработки, что позволит заказчикам существенно ускорить адаптацию приложений под архитектуру Baikal-S без необходимости в самостоятельном построении DevOps-цепочек. Также компания планирует в течение этого года дополнить облако Astra Cloud на Baikal-S GPU-серверами для ИИ- и HPC-задач, чтобы позволит запускать ИИ-нагрузки на полностью отечественном стеке без необходимости параллельного использования зарубежных ИИ-облаков для машинного обучения. Для участия в пилоте Astra Cloud на Baikal-S компаниям необходимо заполнить заявку на предтестирование и предзаказ IaaS на Baikal-S, указав планируемые сценарии использования — например, перенос продуктивных нагрузок, разработка и CI/CD, запуск ИИ-задач или отработка сценариев отказоустойчивости. Это позволит компании заранее подобрать конфигурацию ресурсов под реальный профиль заказчика и сопроводить пилот методически. «Группа Астра» выразила уверенность в том, что облако на Baikal-S в ближайшем будущем станет «стандартом для российских значимых объектов, а в горизонте двух-пяти лет — основой для экспорта доверенной инфраструктуры». Компания приглашает к сотрудничеству разработчиков, вендоров в сфере информационной безопасности и облачных интеграторов, которые «видят в технологическом суверенитете пространство для качественного рывка».
14.05.2026 [09:00], Сергей Карасёв
Basis Dynamix Cloud Control 5.5: новые безопасные инструменты для организации облачной инфраструктуры и хранения данныхКомпания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, представила релиз 5.5 платформы для управления частными, публичными и гибридными облаками Basis Dynamix Cloud Control. В новой версии реализована интеграция со средством защиты виртуализации Basis Virtual Security, представлена гибкая ролевая модель, расширены возможности управления виртуальными центрами обработки данных и сетевой функциональностью. Basis Dynamix Cloud Control — облачное решение, позволяющее заказчику управлять различными платформами виртуализации — в том числе расположенными в разных ЦОДах — через единый графический интерфейс. Продукт обеспечивает создание и администрирование виртуальных центров обработки данных (ВЦОД), развёртывание платформенных сервисов, предбиллинг и разграничение доступа. Поддерживаются сегменты на базе Basis Dynamix Enterprise, Basis Dynamix Standard, VMware vSphere. Новые инструменты для управления виртуальным ЦОДВ обновлённом Basis Dynamix Cloud Control были существенно расширены возможности управления жизненным циклом виртуального ЦОД. В частности, для упрощения администрирования решение может при удалении одного дата-центра автоматически удалять и все связанные с ним компоненты — серверы, сети, порты, роутеры и диски. Для защиты от случайного удаления реализован механизм специального тега, при наличии которого операция блокируется. В релизе 5.5 жизненный цикл дополняется возможностью переносить виртуальный центр обработки данных между проектами, доступными администратору заказчика, в том числе между проектами разных клиентов. Новая возможность упрощает реорганизацию облачной инфраструктуры и администрирование мультитенантных сред. Также было снято ограничение на развёртывание платформенных сервисов (PaaS) — теперь можно запускать параллельно несколько таких сервисов в рамках одного ВЦОД. Это сокращает время подготовки комплексных виртуальных окружений, включающих несколько сервисов. Централизованное управление правами и доступомВ новом Basis Dynamix Cloud Control 5.5 была реализована интеграция с решением защиты Basis Virtual Security. Basis Virtual Security используется в качестве единого провайдера идентификации, оно обеспечивает поддержку технологии единого входа (Single Sign-On, SSO) и даёт администраторам возможность управлять учётными записями и правами доступа пользователей «из одного окна». Централизованное управление снижает нагрузку на администраторов, а пользователей платформы избавляет от необходимости вводить учётные данные при переходе между компонентами экосистемы «Базиса». Дополнительное удобство обеспечивает гибкая ролевая модель, с помощью которой администратор может тонко настраивать права доступа пользователей — собирать собственные роли из атомарных разрешений и назначать их в нужном объёме конкретным пользователям. Усовершенствованные политики хранения данных и поддержка внутренних сетейВ новой версии Basis Dynamix Cloud Control реализована поддержка политик хранения данных, используемых в Basis Dynamix Enterprise. Политики позволяют распределять нагрузку между пулами СХД в зависимости от их загруженности, что обеспечивает более равномерное использование ресурсов хранения и упрощает эксплуатацию крупных инсталляций с несколькими пулами. При создании сервера из пользовательского образа в сегментах Basis Dynamix Enterprise теперь можно выбрать профиль хранения индивидуально для каждого диска — как системного, так и дополнительных. Это даёт возможность распределять диски одного сервера по разным типам хранилищ в зависимости от требований к производительности и стоимости. В сегменте Basis Dynamix Enterprise также появилась возможность создавать образы дополнительных дисков: при создании образа сервера сохраняются данные не только на системном, но и на подключенных дисках. Для ресурсных пулов Basis Dynamix Standard было реализовано полноценное управление сетями и роутерами — аналогично другим сегментам оркестратора. В разделе управления сетевыми подключениями добавлены фильтры по восьми параметрам: типу устройства, серверу, роутеру, балансировщику, кластеру Kubernetes, IP-адресу, признаку служебного подключения и тегам. Это упрощает администрирование комплексной инфраструктуры, состоящей из большого количества физических и виртуальных компонентов. «Экосистемный подход остаётся приоритетом нашей разработки, поэтому в новом релизе Basis Dynamix Cloud Control мы сделали акцент на расширении совместимости с другими решениями нашей экосистемы. Кроме того, значительное внимание было уделено инструментам администрирования прав пользователей и удобству управления виртуальным ЦОД, что будет особенно полезно крупным заказчикам со сложной инфраструктурой», — отметил Дмитрий Сорокин, технический директор компании «Базис».
13.05.2026 [17:16], Руслан Авдеев
Аэрокосмический ИИ-стартап Aetherflux сменил имя на Cowboy Space Corporation и привлёк $275 млн на создание орбитального ЦОДПодконтрольная одному из учредителей Robinhood Байджу Бхатту (Baiju Bhatt) аэрокосмическая ИИ-компания Cowboy Space Corporation (ранее Aetherflux), основанная всего два года назад, привлекла $275 млн в раунде финансирования серии B. Капитализация компании составила $2 млрд, сообщает Datacenter Dynamics. Ранее Бхатт вложил в компанию $10 млн собственных средств. Компания рассчитывает, что полученные средствам помогут в разработке «вертикально интегрированных орбитальных ЦОД и ракет». Ранее она обязалась создать группировку вычислительных космических ИИ ЦОД Galactic Brain. Принципиально новым является подход, в рамках которого ракета и ЦОД являются единым целым, что отличает их от прочих орбитальных разработок. Первый спутник планируется запустить в конце 2026 года, чтобы провести демонстрацию перенаправления энергии Солнца из космоса на Землю. Это было первоначальной целью Aetherflux, которая решила несколько сменить профиль. Cowboy Space является партнёром NVIDIA и рассчитывает на развёртывание ИИ-ускорителей Space-1 Vera Rubin Module, специально разработанных для ИИ-инфраструктуры на низкой околоземной орбите. Последний раунд финансирования возглавила Index Ventures, в нём приняли участие новые инвесторы, включая IVP Blossom Capital и SAIC, а также уже вкладывавшие средства ранее Andreessen Horowitz, Breakthrough Energy Ventures, Construct Capital, NEA, Interlagos и сам Байжу Бхатта. По данным источников, знакомых с вопросом, Cowboy Space рассчитывала привлечь $250–$300 млн, и уже получила $50 млн в ходе раунда серии A, также возглавленного Index Ventures.
13.05.2026 [13:16], Руслан Авдеев
Не просто ЦОД: NTT Data меняет стратегию и расширяет амбиции в сфере ИИЯпонская NTT Data намерена провести масштабные изменения, став ИИ-бизнесом полного стека. Её интересы простираются на суверенные облака, услуги GPUaaS, ЦОД гиперскейл-уровня, вопросы кибербезопасности, ИИ-платформы, сетевую инфраструктуру, услуги по управлению IT-инфраструктурой и отраслевые ИИ-решения, сообщает Converge Digest. Компания уже работает в более чем 70 стран и регионов, её штат превышает 200 тыс. человек, а консолидированная выручка по итогам 2025 финансового года превысила ¥5 трлн. На бизнес за пределами Японии приходится более 60 % выручки, благодаря чему NTT Data, согласно рейтингам Gartner, занимает восьмое место среди IT-сервисных бизнесов. 2025 финансовый год стал для компании рекордным. Выручка выросла год к году на 7,9 % до ¥5,0046 трлн, а операционная прибыль — на 50,7 % до ¥488,2 млрд. Чистая прибыль составила ¥265,1 млрд, с ростом на 90,4 % г/г. Новые заказы выросли на 21,1 % до ¥6,0105 трлн. Связанный с ЦОД бизнес обеспечил ¥1,0882 трлн новых заказов, портфолио полученных, но ещё не выполненных заказов составило ¥3,1997 трлн. В 2026 финансовом году запланирован рост выручки до ¥5,19 трлн — продолжатся интенсивные инвестиции в ИИ-инфраструктуру, облачные сервисы и глобальную экспансию.
Источник изображения: NTT Data Краеугольным камнем новой стратегии стало создание подконтрольной структуры AIVista в Кремниевой долине. Она должна ускорить запуск изначально ориентированных на ИИ продуктов, усилить экосистемное партнёрство и позиции NTT на рынке. В компании позиционируют AIVista как оркестратора более широкой стратегии Core AI Platform. Предполагается, что специальная платформа объединит ИИ-агентов, оркестрацию рабочих процессов, управление данными, интеграцию LLM и специальных ИИ-моделей для банков, страхования, промышленности, государственного сектора и корпоративных пользователей. Новая инфраструктурная стратегия основана на концепции Next-Gen Infrastructure, предусматривающей объединение публичных и суверенных облаков, GPUaaS, ЦОД, сетевых решений и кибербезопасности в единую экосистему. В рамках своей архитектуры компания заявляет о поддержке платформ и моделей OpenAI, Google, Anthropic, Mistral AI, tsuzumi2, а также моделей с открытым кодом. Особое внимание — сегменту суверенных облаков, который всё более востребован на фоне требований государств и корпоративных игроков к локализации данных и ужесточению контроля над IT-системами на местах.
Источник изображения: NTT Data Ключевое место в долгосрочных проектах компании занимают дата-центры. На сегодня NTT Data управляет приблизительно 1,63 ГВт мощностей ЦОД по всему миру, в т.ч. 675 МВт в Северной и Южной Америке, 430 МВт в EMEA, 425 МВт в Индии и 100 МВт в Азиатско-Тихоокеанском регионе. К 2030 финансовому году планируется нарастить совокупную мощность ЦОД до более 3 ГВт. Ставка будет сделана на облачную инфраструктуру и ИИ-инференс, т.е. на строительство крупных кампусов, в первую очередь рассчитанных на гиперскейлеров. Предполагается развитие площадок на рынках уровня Tier 1 и Tier 2, а также привлечения стороннего капитала по схеме cash recycling помимо использования традиционной REIT-модели. Как следует из итогов 2025 финансового года, инвестиции в ЦОД составили ¥377,9 млрд ($2,5 млрд). В 2026 финансовом году их рассчитывают увеличить до ¥505 млрд ($3,3 млрд). NTT Data всё активнее позиционирует бизнес как платформу для ИИ-инфраструктуры, а не просто как колокейшн-оператора. В числе стратегических приоритетов — инвестиции в ИИ-инновации, M&A-сделки, расширение бизнеса ЦОД, рост консалтингового направления, усиление компетенций персонала в области внедрения ИИ и отраслевой специализации. В презентации стратегии на 2026 финансовый год компания отмечает рост спроса не только на обучение моделей, но и на инфраструктуру для инференса, а также переход на более крупные ЦОД. Это соответствует более широкому тренду в индустрии — гиперскейлеры и корпоративные пользователи стремительно расширяют рассчитанные на инференс проекты для поддержки корпоративных ИИ-помощников, агентных ИИ-систем, инфраструктуры для поиска внешних данных и суверенных ИИ-нагрузок.
13.05.2026 [13:03], Руслан Авдеев
Бывший глава Fermi America стремится вернуться к власти, заполнить совет директоров своими приспешниками и организовать продажу компанииИ без того испытывающая немало проблем компания Fermi, специализирующаяся на проектах ЦОД, отменила внеочередное собрание акционеров, организованное по инициативе отправленного в отставку директора Тоби Нойгебауэра (Toby Neugebauer), сообщает Datacenter Dynamics. Утверждается, что Нойгебауэра в своё время уволили «по уважительной причине» — в результате серьёзных нарушений условий трудового договора и многочисленных внутренних правил компании. Свой пост бывший глава Fermi покинул в середине апреля, вскоре свой пост покинул и финансовый директор Майлз Эверсон (Miles Everson). Компания занята реализацией в Амарилло (Amarillo, Техас) 11-ГВт проекта ЦОД Project Matador (Hypergrid) с энергетическими мощностями на площадке. Кампус носит имя Дональда Трампам — The President Donald J. Trump Advanced Energy and Intelligence Campus. Хотя ни один из арендованных у Техасского технологического университета участков компания не освоила в значимой степени, не заключила контракты с клиентами и фактически не имела опыта работы в индустрии ЦОД, это не помешало ей выйти на IPO в октябре 2025 года. На тот момент её рыночная капитализация составила порядка $15 млрд, но теперь она упала до приблизительно $3,42 млрд. Нойгебауэру, членам его семьи, а также топ-менеджерам и руководителям Fermi, покинувшим компанию 17 апреля или позднее, принадлежит около 40 % акций, имеющихся в обращении. Нойгебауэр заявил, что «не может не гордиться» тем, как проходила реализация проекта под его началом и какой прогресс был достигнут в отношениях с арендаторами на момент его ухода из компании. Бизнесмен подчёркивает, что до сих пор не продал ни одной акции Fermi с момента IPO, поскольку точно знает, сколько они стоят. Правда, в совете директоров придерживаются иного мнения. Подчёркивается, что во времена, когда Нойгебауэр руководил компанией, её акции упали в цене более чем на 80 %. Кроме того бизнесмена обвинили в попытке заполнить совет директоров своими приспешниками для того, чтобы организовать продажу компании по заниженной цене. Второй по величине акционер — компания Caddis Capital с долей 9,3 %, объявила о поддержке решений совета директоров и сообщила, что категорически против попыток Нойбауэра захватить контроль над компанией для «поспешной и необдуманной продажи». Нойгебауэр и Fermi активно действуют друг против друга в правовом поле. При этом Нойгебауэр утверждает, что компания не имеет право просто уволить его решением менеджмента или совета директоров, этого якобы можно добиться только по итогам голосования акционеров. Одним из основателей Fermi выступил бывший губернатор Техаса и министр энергетики США Рик Перри (Rick Perry). Одной из главных проблем, стоящих перед компанией, является отсутствие публично подтверждённого якорного арендатора — как правило, крупного облачного провайдера, — наличие которого считается необходимым для дальнейшего развития проекта. Площадь кампуса близ Амарилло должна составить фантастические 167 га. Для электроснабжения будет использоваться комбинация локальных энергоресурсов, включая газовые турбины, солнечные и ветряные станции и даже атомные реакторы. Первые два этапа Project Matador мощностью 1,1 ГВт, предположительно, обойдутся в $2 млрд. В декабре 2025 года Fermi обвинили в манипуляциях ценными бумагами, а в январе сообщалось о коллективном иске со стороны акционеров, подавшим его после того, как неназванный крупный арендатор отказался от будущей аренды мощностей.
13.05.2026 [09:32], Сергей Карасёв
Edge-компьютер Firefly AIBox-K3 оснащён чипом RISC-V с ИИ-производительностью до 60 TOPSКомпания Firefly Technology, по сообщению ресурса CNX-Software, начала продажи компьютера небольшого форм-фактора AIBox-K3, предназначенного для решения ИИ-задач на периферии: устройство, в частности, подходит для осуществления локального инференса. В основу новинки положен процессор SpacemiT K3. Чип объединяет восемь 64-бит ядер RISC-V X100 (RVA23) с тактовой частотой до 2,4 ГГц и восемь ИИ-ядер RISC-V A100 с общей производительностью до 60 TOPS на операциях INT4. В состав изделия входит GPU-блок Imagination Technologies BXM4-64-MC1 с поддержкой Vulkan 1.3, OpenCL 3.0 и OpenGL ES 1.1/2.0/3.2. Возможно декодирование материалов H.265, H.264, VP9 в формате до 4K (120 к/с) и кодирование H.265, H.264 в формате 4K (60 к/с). Объём оперативной памяти LPDDR5-6400 может составлять 8, 16 или 32 Гбайт, вместимость встроенного флеш-модуля UFS 2.2 — 128, 256 или 512 Гбайт. Есть коннектор M.2 2242/2280 для SSD с интерфейсом PCIe 3.0 x4 (NVMe). В оснащение включён двухпортовый сетевой контроллер 1GbE. Во фронтальной части расположены порт USB 3.0 DRD Type-C (USB 2.0 OTG) и консольный разъём USB Type-C, в тыльной — два порта USB 3.0 Type-A, два гнезда RJ45 для сетевых кабелей, а также интерфейс HDMI 2.0 с возможностью вывода изображения 4K (60 Гц). Питание (9–20 В) подаётся через DC-разъём. Габариты составляют 93,4 × 93,4 × 50,0 мм, масса — около 500 г. Диапазон рабочих температур простирается от -20 до +60 °C. Устройство заключено в корпус из «алюминия промышленного класса». Утверждается, что компьютер обеспечивает быстродействие более 10 токенов в секунду при локальном запуске ИИ-моделей, насчитывающих до 30 млрд параметров. Говорится о совместимости с Bianbu OS 3.0, Ubuntu 26.04, OpenHarmony, OpenKylin, Fedora, Deepin и пр. Цена начинается с $350 за модификацию с 8 Гбайт ОЗУ и 128 Гбайт флеш-памяти.
13.05.2026 [00:40], Владимир Мироненко
Red Hat анонсировала интегрированную ИИ-платформу Red Hat AI 3.4Red Hat представила Red Hat AI 3.4, обновлённую версию корпоративной ИИ-платформы, разработанную для поддержки крупномасштабного инференса и развёртывания агентного ИИ в гибридных облачных средах. В качестве комплексной платформы Red Hat AI 3.4 предлагает архитектурную основу и операционные инструменты, необходимые для масштабирования моделей и рабочих процессов агентов в гибридном облаке. Стратегия Red Hat в области ИИ разделена на четыре ключевых направления, заявил Джо Фернандес (Joe Fernandes), вице-президент и генеральный директор Red Hat AI. «Во-первых, мы помогаем клиентам быстро, гибко и эффективно выполнять инференс, предоставляя модели в их среде, — передаёт SiliconANGLE. — Во-вторых, мы подключаем их корпоративные данные к этим моделям и агентам. В-третьих, мы помогаем им ускорить развёртывание и управление агентами в гибридной облачной среде. В-четвёртых, мы объединяем всё это на нашей интегрированной ИИ-платформе, позволяя им запускать любую модель в любом агенте на любом оборудовании и в любой облачной среде». Как отметила компания, ключевым элементом этого релиза является предоставление модели как услуги (MaaS), которое обеспечивает единый управляемый интерфейс для разработчиков, позволяющий получать доступ к тщательно отобранным моделям, а администраторам — отслеживать их использование и применять политики. Разработчики получают доступ к моделям через стандартные OpenAI-совместимые API. Таким образом, единое управление применяется как к внутренним, так и к внешним моделям. А инструменты AutoRAG и AutoML автоматизируют сложные задачи ИИ, начиная с выбора наиболее эффективных стратегий извлечения данных для конкретных наборов и заканчивая построением и оптимизацией моделей. В основе системы лежит открытая библиотека vLLM. Её дополняет Kubernetes-нативный стек для инференса llm-d. Поддержка спекулятивного декодирования, которая в этом релизе стала общедоступной, повышает скорость ответа в два-три раза с минимальным влиянием на его качество и снижает стоимость взаимодействия. Кроме того, vLLM теперь поддерживает работу на CPU, что актуально для небольших языковых моделей. Для управления инструментами для агентов Red Hat представляет каталог серверов MCP и связанный с ним шлюз MCP. Новый инструментарий AgentOps даёт возможность управления агентами в масштабе, независимо от используемой платформы, на протяжении всего их жизненного цикла. Это включает в себя интегрированную трассировку вызовов LLM, вызовов инструментов и этапов рассуждений, а также управление криптографической идентификацией через SPIFFE/SPIRE. Последний позволяет организациям заменять статические, жёстко закодированные ключи кратковременными токенами. Это поддерживает операции с минимальными привилегиями для автономных агентов на всех уровнях стека и помогает подтвердить, что действия агентов связаны с проверенной личностью. Для обеспечения интеграции корпоративных данных с моделями и агентами Red Hat AI 3.4 представляет управление с помощью промптов и центр оценки точности, качества и безопасности моделей и агентов. Последний не зависит от фреймворков и заменяет разрозненные методы тестирования единым интегрированным подходом. Prompt Lab and Registry, централизованное хранилище промптов в виде полноценных информационных ресурсов, предоставляет разработчикам и администраторам единый источник достоверной информации о входных данных, управляющих моделями и агентами.
Источник изображения: Red Hat Новые возможности трассировки построены на основе MLflow. Интеграция MLflow обеспечивает прозрачность работы агента, позволяя осуществлять сквозную трассировку вызовов LLM, этапов рассуждений, запуска инструментов, ответов модели и использования токенов через OpenTelemetry. Это создаёт прозрачный журнал аудита для всего жизненного цикла подсказок, эмбеддингов и конфигураций RAG для поддержки отладки и аудита. MLflow также обеспечивает интегрированное отслеживание экспериментов и управление артефактами для сценариев использования генеративного ИИ и прогнозного ИИ. Платформа Red Hat AI позволяет пользователям проверять безопасность моделей и агентов с помощью автоматизированного сканирования на наличие угроз, которое теперь интегрировано непосредственно в цикл разработки. Используются инструменты Chatterbox Labs и Garak. Платформа проверяет модели и агентных систем на наличие таких рисков как взлом, промпт-инъекций и предвзятость, в сочетании с NVIDIA NeMo Guardrails для обеспечения безопасности во время выполнения. Сообщается, что Red Hat AI 3.4 изначально поддерживает ускорители NVIDIA Blackwell и AMD Instinct MI325X. Расширяя эту унифицированную архитектуру платформы для работы непосредственно в управляемых облаках сторонних разработчиков, в том числе посредством Red Hat AI Inference в IBM Cloud, Red Hat обеспечивает операционную согласованность на широком спектре оборудования и облачных провайдеров. |
|

