Материалы по тегу:

05.03.2026 [17:00], Владимир Мироненко

В ближайшие годы Broadcom не ожидает конкуренции от ИИ-компаний в разработке чипов

Broadcom утверждает, что компании в сфере ИИ не смогут в ближайшем будущем создавать и развёртывать собственные чипы, отметив, что у неё имеются заказы на разработку и поставку чипов на годы вперёд, пишет The Register.

В своём выступлении по итогам I квартала 2026 финансового года, завершившегося 1 февраля, президент и генеральный директор Broadcom Хок Тан (Hock Tan) отметил 106-% рост продаж чипов для ИИ-инфраструктуры в годовом исчислении, что превысило собственный прогноз и принесло $8,4 млрд за квартал. «Рост обусловлен высоким спросом на кастомные ИИ-ускорители и сетевые решения для ИИ, — заявил Хок Тан, — Рост выручки от ИИ ускоряется, и мы ожидаем, что выручка от полупроводниковых решений для ИИ во II квартале составит $10,7 млрд».

Как сообщает The Register, Тан отметил успешную работу по разработке ускорителей с пятью клиентами, добавив, что он ожидает, что Google продемонстрирует «ещё больший спрос» на микросхемы Broadcom по мере развёртывания TPU следующего поколения. Anthropic вскоре внедрит TPU на 1 ГВт, разработанные Broadcom, и по словам Тана, она планирует запустить оборудование на 3 ГВт в 2027 году. Meta установит «несколько гигаватт» XPU от Broadcom «в 2027 году и позже». Также ожидается, что OpenAI развернёт «более 1 ГВт вычислительных мощностей» на основе кастомных XPU в 2027 году.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Тан заявил, что Broadcom уже обеспечила себе заказы на поставки всего оборудования, включая высокоскоростную память, и удовлетворения спроса до 2028 года. И он предсказал, что Broadcom будет и дальше заключать аналогичные сделки в течение многих лет, поскольку крупные облачные провайдеры и стартапы в области ИИ не могут сравниться с ней в способности проектировать и поставлять кастомные чипы.

«Они сталкиваются с огромными проблемами», — сообщил Хок Тан, имея в виду привлечение талантливых разработчиков микросхем, способных создавать чипы, оптимизированные для конкретных рабочих нагрузок, управлять производственным процессом, развивать опыт в области упаковки, а затем создавать сетевые решения для своих чипов. По словам Тана, процесс создания собственных чипов должен привести к разработке микросхем, конкурентоспособных не только с NVIDIA, но и со «всеми другими игроками». Но он не видит, чтобы это стало возможным в какой-либо крупной компании или ИИ-стартапе, «в течение многих лет».

Бизнес Broadcom в сфере сетевых решений, ориентированных на ИИ, также переживает бум, увеличив выручку на 60 % год к году. Тан заявил, что в следующем году компания представит чип-коммутатор Tomahawk 7, который вдвое превысит по производительности текущую модель, и сделает то же самое для своих медных интерконнектов, а это значит, что у клиентов не будет необходимости в рассмотрении перехода на оптические сети.

Общий доход группы полупроводниковых решений Semiconductor Solutions за квартал составил $12,52 млрд, что на 52 % больше, чем годом ранее и выше прогнозируемых аналитиками StreetAccount $12,25 млрд (по данным CNBC). Выручка от чипов, не связанных с ИИ, осталась на уровне $4,1 млрд. Во II финансовом квартале компания прогнозирует выручку на этом же уровне, что на 4 % больше год к году.

Бизнес Broadcom по разработке инфраструктурного ПО, объединяющий CA, Symantec Enterprise и VMware, показал рост выручки на 1 %, достигнув $6,8 млрд, что ниже консенсус-прогноза StreetAccount в $7,02 млрд. При этом выручка VMware выросла на 13 %. «Наше инфраструктурное ПО не подвержено влиянию ИИ», — подчеркнул Тан, комментируя падение акций некоторых компаний из-за появления новых разработок ИИ-стартапов в сфере программирования.

В отчётном квартале выручка Broadcom выросла на 29 % год к году до $19,31 млрд при консенсус-прогнозе аналитиков, опрошенных LSEG, в размере $19,18 млрд. Скорректированная прибыль на акцию (Non-GAAP) составила $2,05 при консенсус-прогнозе от LSEG в $2,03. Чистая прибыль (GAAP) выросла до $7,35 млрд, или $1,50 на акцию, по сравнению с $5,50 млрд, или $1,14 на акцию годом ранее.

Во II квартале 2026 финансового года Broadcom прогнозирует выручку в размере $22,0 млрд (рост год к году на 47 %), что превышает средний прогноз в $20,56 млрд, согласно данным LSEG. Также компания прогнозирует скорректированную EBITDA в 68 %. Кроме того, согласно прогнозу Broadcom выручка группы полупроводниковых решений Semiconductor Solutions составит $14,8 млрд (рост год к году на 76 %), выручка подразделения по разработке инфраструктурного ПО — $7,2 млрд (рост — 9 %), согласно данным MarketBeat.

Постоянный URL: http://servernews.ru/1137836
05.03.2026 [14:21], Владимир Мироненко

Дефицит памяти поможет Broadcom подзаработать, но не так, как вы подумали

В связи с ростом цен на оперативную память на фоне её дефицита, который, по прогнозам экспертов, сохранится и в 2027 году, VMware (подразделение Broadcom) предложила частное облако VMware Cloud Foundation (VCF) 9.0 в качестве решения, необходимого для работы в новых условиях. VMware заявила, что «традиционный подход, заключающийся в увеличении количества оборудования для решения проблем производительности и масштабируемости, больше не является жизнеспособным».

«Broadcom разработала VCF 9.0 специально для решения этой экономической задачи, предложив три различных подхода: снижение совокупной стоимости владения за счёт многоуровневого хранения памяти, отсрочка капитальных затрат за счёт передовых технологий повышения эффективности и обеспечение немедленного внедрения в существующий парк оборудования», — сообщила она.

Как отметил The Register, VMware всегда продвигала многоуровневую организацию памяти VCF 9 как возможность снизить затраты на инфраструктуру за счёт уменьшения установленного объёма DRAM путём прозрачного переноса части данных на NVMe. Вместе с тем, не следует забывать, что стоимость SSD также выросла. VMware также признаёт, что её архитектура памяти подходит не для всех рабочих нагрузок и не предназначена для виртуальных машин, чувствительных к задержкам, или очень больших инстансов.

 Источник изображения: Kevin Ache/unsplash.com

Источник изображения: Kevin Ache/unsplash.com

Но VMware всё равно утверждает, что «наиболее прямое решение проблемы стремительного роста цен на DRAM — это просто использовать её меньше», а VCF 9.0 позволяет «заменить дорогостоящую DRAM значительно более дешёвым хранилищем NVMe». Многоуровневое распределение памяти VMware в настоящее время превосходит альтернативу в виде CXL, пишет The Register. Кроме того, новые поколения серверных процессоров AMD и Intel создали возможность очередного этапа консолидации нагрузок. Dell утверждает, что её клиенты заменяют семь серверов одной новой машиной; Intel говорит о консолидации 5:1.

Новые серверы позволяют запускать огромное количество ВМ, что концентрирует риски и требует огромного количества дорогостоящей памяти. Но VMware и не требует, чтобы в каждом хосте в кластере использовалось многоуровневое распределение памяти. Так что VCF 9 в текущей ситуации действительно может оказаться эффективным средством снижения затрат. В то же время The Register отметил, что многие пользователей vSphere считают VCF 9 очень дорогим продуктом, несмотря на уверения Broadcom в обратном. При этом Broadcom, похоже, в принципе не готова идти на ценовые уступки — или бери, или уходи.

Постоянный URL: http://servernews.ru/1137827
05.03.2026 [13:17], Руслан Авдеев

GIP и EQT купили за $10,7 млрд крупнейшего в мире корпоративного поставщика чистой энергии AES, чтобы запитать ЦОД

Возглавляемый Global Infrastructure Partners (GIP, принадлежит BlackRock) консорциум договорился о покупке одного из крупнейших в мире производителей возобновляемой энергии — AES. Сделка стоимостью в $10,87 млрд направлена на укрепление позиций AES в качестве крупного поставщика электроэнергии для ЦОД. GIP и EQT заплатят по $15 за акцию.

AES объявила, что покупка позволит ей занять более выгодную позицию для поддержки долговременного роста во всех своих сферах деятельности, в т.ч. в секторах регулируемых сетевых компаний, а также «чистой» энергетики в США. Кроме того, импульс к развитию получат и объекты критической инфраструктуры в Латинской Америке. Компания заявила, что за 45 лет энергоснабжения разных отраслей она сформировала портфолио, отвечающее меняющимся потребностям клиентов и жителей.

Предполагается, что сделка максимизирует ценность компании для существующих акционеров и обеспечит бизнесу долгосрочный успех — исполнение взятых на себя обязательств продолжится. Ожидается, что покупка укрепит позиции AES в качестве крупного поставщика электроэнергии для индустрии ЦОД. Компания уже заключила многочисленные сделки с бизнесами, работающими в индустрии дата-центров.

 Источник изображения: AES

Источник изображения: AES

Недавно она заключила соглашение с Google о поставках энергии для нового ЦОД в округе Уилбаргер (Wilbarger, Техас). Уже подписано соглашение о покупке «чистой» энергии (PPA) с Meta — предусмотрена поставка более 650 МВт в Техасе и Канзасе. Также заключены три соглашения о покупке электричества с Microsoft (в Мичигане, Миссури и Иллинойсе) общей мощностью 475 МВт. Всего AES заключила с IT-корпорациями контракты на поставку 11,8 ГВт энергии. Сейчас портфолио AES составляет 32,1 ГВт мощностей (из них 64 % приходится на зелёную энергитку), ещё 11,9 ГВт строятся.

В портфолио GIP уже имеется несколько сделок на рынке дата-центров. BlackRock прямо или опосредованно участвует во многих сделках. Так, компания участвовала в покупке Aligned Data Centers. Ранее она также инвестировала в занимающуюся системами охлаждения компания Xnrgy, британский строительный бизнес Gravity Edge и разработчика ИИ-чипов Groq, позже купленный NVIDIA за $20 млрд.

Постоянный URL: http://servernews.ru/1137809
05.03.2026 [12:04], Сергей Карасёв

Asustor выпустила хранилище Lockerstor 24R Pro Gen2 на платформе AMD Ryzen 7 Pro

Компания Asustor представила сетевое хранилище Lockerstor 24R Pro Gen2 (модель AS7224RDX), рассчитанное на монтаж в стойку. Новинка является старшим собратом моделей AS7212RDX и AS7216RDX, которые дебютировали в мае прошлого года.

В основу анонсированного NAS положена аппаратная платформа AMD с процессором Ryzen 7 Pro 7745 (8 ядер; 16 потоков; 3,8–5,3 ГГц). Чип функционирует в тандеме с 16 Гбайт оперативной памяти DDR5-4800 ECC, объём которой при необходимости может быть расширен до 192 Гбайт (4 × 48 Гбайт UDIMM).

Во фронтальной части расположены 24 отсека для накопителей SFF/LFF с интерфейсом SATA-3; допускается горячая замена. Могут формироваться массивы JBOD и RAID 0/1/5/6/10/50/60. Кроме того, есть внутренний коннектор M.2 для SSD формата 2280 (PCIe 5.0 x4). Хранилище располагает двумя сетевыми портами 1GbE и двумя портами 10GbE, интерфейсом HDMI, а также четырьмя разъёмами USB 3.2 Gen1 Type-A (5 Гбит/с). Предусмотрены слоты PCIe 5.0 x8 и PCIe 5.0 x4 для опциональных сетевых адаптеров 10/25/40/50GbE и SAS-карт. Возможно подключение модулей расширения Xpanstor 12R (AX7012R), рассчитанных на 12 накопителей SFF/LFF.

 Источник изображения: Asustor

Источник изображения: Asustor

Модель Lockerstor 24R Pro Gen2 оснащена четырьмя вентиляторами охлаждения диаметром 60 мм и двумя блоками питания мощностью 550 Вт с сертификатом 80 PLUS Platinum. Диапазон рабочих температур — от 0 до +40 °C. Габариты составляют 172 × 439 × 576 мм, масса — 18,6 кг. Заявлена совместимость с Windows 10/11, Windows Server 2016/2019/2022, macOS, Unix, Linux и BSD. Поддерживаются протоколы CIFS / SMB, SMB 2.0 / 3.0, AFP, NFS, FTP (Unicode), TFTP, WebDAV, Rsync, SSH, SFTP, iSCSI/IP-SAN, HTTP, HTTPS, Proxy, SNMP, Syslog. Производитель предоставляет на устройство пятилетнюю гарантию.

Постоянный URL: http://servernews.ru/1137806
05.03.2026 [11:54], Сергей Карасёв

Крошечный одноплатный компьютер NanoPi NEO3 Plus оснащён процессором Rockchip RK3528A

Ассортимент одноплатных компьютеров FriendlyElec пополнился миниатюрной моделью NanoPi NEO3 Plus, построенной на аппаратной платформе Rockchip. Для устройства доступны образы Debian 13, Ubuntu Core 24.04, OpenMediaVault NAS, Proxmox VE OS и FriendlyWrt 24.10/23.05.

Изделие имеет размеры всего 48 × 48 мм. Установлен процессор RK3528A, который объединяет четыре вычислительных ядра Arm Cortex-A53 с тактовой частотой до 2 ГГц и графический ускоритель Mali-450 с поддержкой OpenGL ES1.1/ES2.0 и OpenVG 1.1. Возможно декодирование видеоматериалов в форматах 4K H265/H264 со скоростью 60 к/с. Видеовыхода нет. Объём оперативной памяти LPDDR4 составляет 1 Гбайт.

 Источник изображения: FriendlyElec

Источник изображения: FriendlyElec

ОС может быть загружена с карты microSD. Опционально для одноплатного компьютера предлагается интегрированный модуль eMMC вместимостью 64 или 256 Гбайт. Присутствуют сетевой порт 1GbE (RJ45), по одному разъёму USB 3.0 Type-A и USB 2.0 Type-C, а также 26-контактная колодка GPIO (I2C, UART, SPI, I2S, GPIO). Имеются коннекторы для вывода аудиосигнала и подключения вентилятора охлаждения. Питание (5 В / 2 A) подаётся через порт USB Type-C или разъём GPIO.

 Источник изображения: FriendlyElec

Источник изображения: FriendlyElec

Для новинки доступен корпус с габаритами 54 × 52,5 × 25 мм и массой 87,2 г. Диапазон рабочих температур простирается от 0 до +80 °C. Говорится о совместимости с ассистентами OpenClaw/Nanobot на базе ИИ. Изделие NanoPi NEO3 Plus предлагается для заказа по цене $24. За корпус придётся доплатить $8, тогда как дополнительный модуль eMMC на 64 и 256 Гбайт обойдётся в $23 и $61 соответственно.

Постоянный URL: http://servernews.ru/1137803
05.03.2026 [09:36], Руслан Авдеев

National Grid и Emerald AI успешно умерили энергетические аппетиты британского ИИ ЦОД Nebius

Ведущий оператор электросетей Великобритании National Grid провёл первое в стране испытание «гибкой» системы электроснабжения дата-центров при участии Nebius и с использованием ИИ-системы управления нагрузками и питанием Emerald AI. По данным Computer Weekly, эксперимент проходил с использованием кластера из 96 ускорителей NVIDIA Blackwell Ultra.

В декабре 2025 года в течение пяти дней были проведены более 200 симуляций «сетевых событий» для проверки способности ПО Emerald динамически оптимизировать энергопотребление дата-центра. Платформа Emerald AI смогла подогнать энергопотребление к заданному уровню, сократить спрос на энергию до −40 % и сохранить исполнение критических нагрузок в нормальном режиме.

Система успешно реагировала на скачки спроса в энергосети в перерывах во время футбольных матчей, справилась с запросом на понижение энергопотребления продолжительностью до 10 часов и отработала резкое снижение потребление (30 %) — всё для сохранения стабильности работы энергосети. По оценкам исследователей, при таком подходе ИИ ЦОД по запросу могут «высвобождать» для энергосети до 2 ГВт. Если дата-центры перестанут быть просто крупными потребителями энергии и будут «вовлечены» в работу энергосети, это позволит лучше использовать существующую инфраструктуру и поддержит подключение к сети различных источников.

 Источник изображения: Toolmash Expo/unsplash.com

Источник изображения: Toolmash Expo/unsplash.com

По словам National Grid Partners, большинство энергосистем используют, вероятно, 30 % от имеющейся мощности в течение года, а пиковые нагрузки случаются довольно редко. Если присоединённые объекты могут быстро и контролируемо снижать энергопотребление по запросу энергосети, сетевому оператору не нужно будет наращивать мощности.

По словам Emerald AI, эксперимент показал способность ИИ-оборудования ЦОД Nebius гибко регулировать энергопотребление в любой момент времени. Даже после получения сигнала среди ночи удалось за 30 с снизить энергопотребление более чем на треть. Система отлично подходит при питании от источников возобновляемой энергии. Например, когда ветра мало в течение восьми часов, дата-центр может снизить потребление, на 100 % сохрание питание критически важных вычислительных нагрузок.

По словам Emerald AI, есть три основных способа добиться «гибкости» энергопотребления для ИИ-задач. Во-первых, можно замедлить некоторые процессы или приостановить их. Напрмиер, тонкую настройку модели обычно можно отложить на час. Во-вторых, можно перемещать рабочие нагрузки. Так, компания уже протестировала перенос генерации ответа ИИ из одного ЦОД Oracle в другой, что вызвало не такую критичную для данной нагрузки задержку примерно в 10 мс. На самом деле гиперскейлеры, включая Google и Microsoft, уже давно используют перемещение нагрузок между регионами, хотя и не с такой скоростью и с другими целями.

В-третьих, можно организовать мониторинг работы ЦОД. В этом случае Emerald AI управляет рабочими нагрузками с помощью ИИ, расставляя для них приоритеты. Это оптимальный способ обеспечить энергосистеме необходимые ресурсы, при этом сохраняя для пользователя целостность рабочих нагрузок, говорит компания.

Постоянный URL: http://servernews.ru/1137778
05.03.2026 [09:07], Владимир Мироненко

5G-виртуализация с ИИ-монетизацией: Broadcom представила VMware Telco Cloud Platform 9 с фокусом суверенные облака

Broadcom представила VMware Telco Cloud Platform 9 — частную облачную платформу для телекоммуникационных ЦОД, которая позволит глобальным телекоммуникационным операторам повысить эффективность оборудования и снизить эксплуатационные расходы при предоставлении суверенных и ИИ-сервисов.

Созданная на базе VMware Cloud Foundation 9 с дополнительными возможностями, специфичными для телекоммуникационных компаний, платформа позволит операторам добиться в течение пяти лет совокупной экономии совокупной стоимости владения (TCO) на 40 % по сравнению с изолированными архитектурами; снизить энергопотребление и связанные с ним затраты на 25–30 % за счёт повышения производительности серверов и плотности виртуальных машин.

Также сообщается, что благодаря использованию Advanced NVMe Memory Tiering новая платформа позволит достичь до 38 % снижения совокупной стоимости владения (TCO) памятью и серверами, и на 38 % сократить TCO хранилища с помощью функции vSAN ESA Global Deduplication, позволяющей глобально дедуплицировать данные. Кроме того, новая платформа позволит повысить эффективность, управляемость и соответствие нормативным требованиям за счёт интеллектуальной автоматизации, интегрированного управления затратами и соблюдения политик.

 Источник изображений: VMware

Источник изображений: VMware

«VMware Telco Cloud Platform 9 позволит телекоммуникационным операторам предоставлять безопасную, суверенную, ориентированную на ИИ инфраструктуру, которая способствует внедрению технологий следующего поколения, ускорению роста доходов и снижению затрат», — заявил Пол Тернер (Paul Turner), главный директор по продуктам подразделения VMware Cloud Foundation.

Broadcom отметила, что VMware Telco Cloud Platform развивается, поддерживая как функции ядра сети 4G/5G, так и ресурсоёмкие рабочие ИИ-нагрузки на единой открытой платформе, позволяя операторам предоставлять суверенное облако и ИИ. С целью улучшения монетизации ИИ в Telco Cloud Platform 9 добавят такие возможности, как частный ИИ (Private AI-as-a-Service), GPU-виртуализацию (GPU Virtualization) и GPUaaS (с логической изоляцией конфиденциальных данных). Планы также включают расширенный мониторинг физических и виртуальных GPU.

При реализации опции «Частный ИИ как услуга» включение собственных инструментов, таких как хранилище моделей, среда выполнения моделей и векторные базы данных, позволит операторам предлагать клиентам готовые ИИ-среды, обеспечивая при этом строгую изоляцию данных и соответствие нормативным требованиям. vGPU позволят повысить эффективность использования оборудования и снизить затраты. Благодаря этому телекоммуникационным компаниям смогут одновременно запускать высокопроизводительные рабочие нагрузки без необходимости выделения оборудования для каждого пользователя.

Также платформа будет поддерживать автоматизированное управление жизненным циклом (LCM), обеспечивая разработчикам развёртывание готовых к производству частных ИИ-сред за считанные минуты, а не недели. Компания также представила «Сервис создания агентов» (Agent Builder) — Low-code платформу, которая упростит создание сложных ИИ-агентов ИИ, автоматизируя оркестрацию моделей, извлечение данных и возможности подключения инструментов.

Broadcom отметила, что по мере перехода сетей к модели, ориентированной на ИИ, они должны стать самокорректирующимися и основанными на намерениях. Платформа VMware Telco Cloud Platform обеспечит возможности для автоматизации управления жизненным циклом и оптимизации энергопотребления в ядре 5G и, в конечном итоге, в 6G. Поддержка энергоэффективной инфраструктуры на базе новых процессоров и интеллектуальное планирование ресурсов позволят оптимизировать энергопотребление для энергоёмких приложений 5G и ИИ.

Также планируются изменения в работе Kubernetes, с модернизированной моделью управления жизненным циклом CaaS и вариантами обновления, ориентированными на операторов связи. Broadcom внедрит унифицированную автоматизацию на основе GitOps. Планируется использование централизованной панели управления с единым интерфейсом для управления парком, контроля затрат и лицензирования. А ESX Live Patching позволит администраторам применять критически важные обновления безопасности к хостам без необходимости проведения плановых работ или нарушения работы активных ВМ. При этом ИИ-ассистенты помогут оптимизировать процесс подключения к платформе и устранения неполадок.

Суверенное облако стало центральным требованием к закупкам для многих рабочих нагрузок государственного сектора и регулируемых отраслей в Европе и других странах. Broadcom заявила, что платформа Telco Cloud Platform 9 будет включать «архитектурные механизмы защиты», соответствующие суверенным требованиям, с акцентом на локальный контроль, проверку и операции в пределах границ.

  • Платформа позволит телекоммуникационным компаниям выполнять свои требования к суверенному облаку, такие как хранение данных абонентов, телеметрии и плоскости управления строго в пределах указанных границ.
  • Телекоммуникационные компаниям смогут сохранять эксклюзивный контроль над ключами шифрования, гарантируя, что доступ к конфиденциальным данным будет иметь только местный оператор связи.
  • Доказательства аудиторского уровня: интегрированные инструменты ведения журналов и автоматизации будут фиксировать непрерывные, неизменяемые доказательства работы платформы.
  • Автоматизированное соблюдение требований и обеспечение выполнения политик: предварительно настроенные комплекты для усиления безопасности и интегрированный менеджер политик Kubernetes на основе Open Policy Agent (OPA) позволят операторам обеспечивать соблюдение политик безопасности в соответствии с законами, правилами и стандартами, значительно сокращая затраты и время на аудит больших кластерных сетей.

Также будет использоваться централизованная панель мониторинга SecOps, обеспечена поддержка конфиденциальных вычислений в защищённых анклавах AMD и Intel, и реализовано обеспечение горизонтальной безопасности с использованием VMware vDefend для микросегментации и контроля на основе принципа нулевого доверия.

Постоянный URL: http://servernews.ru/1137797
04.03.2026 [23:30], Руслан Авдеев

Aikido объединила морские ветряки с модульными ИИ ЦОД

Американская Aikido, поставщик плавучих ветрогенераторов, представила оффшорную ВЭУ-платформу, объединённую с модульным дата-центром, рассчитанным на ИИ-нагрузки, сообщает Datacenter Dynamics. Платформа включает ветряную турбину мощностью 15–18 МВт, способную обеспечить до 10–12 МВт IT-мощности. Непосредственно под стальной оболочкой платформы размещаются три вычислительных модуля мощностью 3–4 МВт каждый. Расчётный PUE — 1,08.

Платформа также получит аккумуляторное энергохранилище для обеспечения стабильности работы IT-модулей. В компании рассчитывают на доступность вычислительных мощностей не менее 75 % рабочего времени. Потенциально этот показатель может быть увеличен до 90 % путём использования более ёмких аккумуляторных систем. За охлаждение отвечает система замкнутого цикла на основе пресной воды. Тепло через стальную структуру платформы передаётся окружающей морской воде. Компания уверяет, что тепловое воздействие будет ограниченным — в радиусе всего нескольих метров от платформы.

Бизнес-модель Aikido сконцентрирована не на поставках энергии, а на прямой продаже вычислений. Для масштабирования выбран модульный подход, позволяющий собирать платформы до 10 раз быстрее, чем обычные прибрежные конструкции. Кроме того, компания сообщила, что аккумуляторы можно зарядить заранее, что ускорит ввод новых мощностей. На сборку прототипа у Aikido ушло менее недели. Помещения для IT-оборудования в ходе финального монтажа в порту были подключены к системам питания и охлаждения на набережной.

 Источник изображения: Aikido

Источник изображения: Aikido

Теперь компания работает в Норвегии над более функциональным модулем, призванным стать «доказательством концепции». Он должен заработать в 2026 году. Первый коммерческий проект планируется реализовать в Великобритании в 2028 году. Aikido, являющаяся участником программы NVIDIA Inception, заявила её решение уже вызвало интерес у потенциальных заказчиков.

Впрочем, остаются некоторые опасения в связи с состоянием рынка оффшорных ветряных электростанций. Несмотря на предварительные многообещающие результаты, на нём наметилась стагнация из-за роста стоимости. По имеющимся данным, многие проекты сегодня попросту невыгодны без государственной поддержки, так что рынок замер в ожидании более ясных «сигналов». В частности, в США эта отрасль фактически лишилась поддержки.

Впрочем, Aikido рассчитывает, что её новая бизнес-модель придать новый импульс сегменту плавучих электростанций. В компании заявляют, что комбинация проверенных прибрежных ветряных энергосистем и вычислений высокой плотности позволит создать новый класс инфраструктуры, где генерация энергии, системы охлаждения и вычислительные мощности размещены в одном месте.

Постоянный URL: http://servernews.ru/1137756
04.03.2026 [16:49], Руслан Авдеев

Huawei начала глобальные продажи своих ИИ-решений для ЦОД

На фоне нарастающего бума ИИ-технологий покупатели готовы платить за самое разное оборудование, способное обрабатывать ИИ-токены. Теперь, помимо предложений американских гигантов вроде NVIDIA, AMD и Intel, у них появился и более экзотический вариант — решения на чипах Huawei, сообщает The Register.

В Китае компания предлагает т.н. Intelligent Computing Platform, включающую хранилище данных, серверы на основе собственных CPU Kunpeng, а также ускорителей семейства Ascend, которые пока отстают по производительности от западных чипов. Тем не менее Huawei решила начать продажи своих систем за пределами КНР, обещая, что может подготовить и оснастить ЦОД за 4-6 мес., что на пару месяцев быстрее, чем обычно предлагают другие компании. Утверждается, что такое возможно благодаря умной интеграции источников питания, систем охлаждения и кабельной инфраструктуры.

Также компания утверждает, что может поставить кластер из 1024 вычислительных узлов за 15 дней, а благодаря системам, замечающим ошибки до того, как они вызовут сбои, обеспечено 99,99 % времени безотказной работы. В ходе MWC 2025 китайский техногигант заявил, что предлагает приемлемый вариант для быстрого развёртывания ИИ-инфраструктуры. Такие заявления имеют под собой некоторую почву, поскольку компания может сослаться на опыт китайских пользователей, обучавших собственные модели только с помощью оборудования Huawei.

 Источник изображения: Huawei

Источник изображения: Huawei

При этом Huawei придётся справиться с проблемой неприятия компании на Западе. Власти многих государств неоднократно заявляли, что решения китайской компании угрожают их национальной безопасности. Впрочем, в мире немало стран, где компанию готовы радушно принять, поскольку в очереди на покупку ускорителей NVIDIA и AMD они стоят в самом конце (если вообще числятся в ней). Это означает, что Huawei может оказаться для них вполне приемлемым поставщиком. Так, небольшие неооблачные провайдеры готовы работать с обширным пулом поставщиков ускорителей, чтобы получить дефицитные вычислительные мощности.

Выход Huawei на международный рынок происходит на фоне разрешения американскими властями продаж в Поднебесную ИИ-ускорителей NVIDIA H200, которые вполне вероятно, могут отнять у Huawei значительную часть китайского рынка, на котором компания долгое время доминировала, в многом благодаря американским санкциям. Ранее сообщалось, что компания уже пыталась продать свои ИИ-чипы Ascend в ОАЭ, пока США тянули с поставками чипов NVIDIA на Ближний Восток.

Постоянный URL: http://servernews.ru/1137751
04.03.2026 [16:16], Владимир Мироненко

CoreWeave удвоит капзатраты на ИИ ЦОД в 2026 году, но инвесторы сомневаются в оправданности такого шага

Неоооблачный провайдер CoreWeave расширил свои планы роста на 2026 финансовый год на фоне высокого спроса. Во время отчёта по итогам IV квартала и всего 2025 финансового года генеральный директор Майкл Интратор (Mike Intrator) сообщил, что CoreWeave расширит запланированную законтрактованную мощность ЦОД (operating lease right-of-use assets) к 2030 году ещё на 5 ГВт, пишет ресурс Data Center Dynamics. На конец 2025 финансового года у CoreWeave было 850 МВт «активных мощностей», из которых 250 МВт были введены в эксплуатацию в IV квартале. В течение 2025 года количество ЦОД компании выросло с 32 до 43.

«В 2025 году мы заключили контракты на дополнительные мощности в объёме около 2 ГВт, завершив год с более чем 3,1 ГВт законтрактованных мощностей, практически все из которых, как мы ожидаем, будут введены в эксплуатацию к 2027 году. Наши законтрактованные, но ещё не введённые в эксплуатацию мощности представляют собой скрытый потенциал дохода, который мы будем монетизировать по мере строительства и ввода в эксплуатацию объектов. Мы продолжим стратегически выбирать земельные участки, электросети и инфраструктуру для ЦОД», — заявил Интратор.

 Источник изображений: CoreWeave

Источник изображений: CoreWeave

В IV квартале компания запустила ранее отложенные проекты ЦОД. Из-за задержек с их вводом акционер CoreWeave Рамонд Масайтис (Ramond Masaitis) в январе подал на компанию в суд, утверждая, что она ввела акционеров в заблуждение относительно своей способности удовлетворять спрос клиентов на вычислительные мощности. Интратор сообщил аналитикам, что эти задержки теперь устранены, и мощности успешно введены в эксплуатацию раньше ожидаемого и скорректированного графика.

Капитальные затраты CoreWeave в прошлом году продолжали расти, составив $14,9 млрд, что ниже предыдущих ожиданий в $20–$23 млрд, хотя и выше пересмотренных в III квартале прогнозов. Только в IV квартале капитальные затраты составили $8,2 млрд, что выше показателя III квартала в $1,9 млрд. Во II квартале капитальные затраты составили $2,9 млрд. Предварительные оценки на III квартал находились в диапазоне $2,9–$3,4 млрд, но на их объём повлияла задержка с запуском ЦОД. Объем незавершённого строительства в IV квартале составил $9,4 млрд, что на $2,5 млрд больше, чем в предыдущем квартале.

CoreWeave прогнозирует, что капитальные затраты в 2026 году достигнут $30–$35 млрд. Как отметил финансовый директор Нитин Агравал (Nitin Agrawal), это в основном «связано с уже подписанными контрактами с клиентами, которые мы намерены ввести в эксплуатацию в этом году, поскольку ожидаем удвоить нашу активную мощность до более чем 1,7 ГВт к концу года». Следует отметить, что это выше консенсус-прогноза Visible Alpha в 1,59 ГВт (согласно данным CNBC). Планируемые CoreWeave капзатраты превысили прогноз аналитиков FactSet в $26,9 млрд, усилив опасения по поводу прибыльности. В связи с этим, а также разочаровывающим прогнозом по выручке, акции Coreweave упали на 18​%.

Выручка CoreWeave в IV квартале составила $1,57 млрд, что на $747 млн больше, чем годом ранее (рост год к году — на 110​%), и немного выше консенсус-прогноза LSEG в размере $1,55 млрд. Скорректированный убыток на разводнённую акцию составил $0,56 против ожидаемого Уолл-стрит $0,49. Скорректированная EBITDA составила $898 млн, что выше показателя в $486 млн годом ранее. Компания прогнозирует выручку в I квартале 2026 финансового года в размере от $1,9 до $2 млрд, что ниже консенсус-прогноза LSEG в $2,29 млрд.

Выручка за весь год составила более $5,13 млрд, что на $1,9 млрд больше год к году. Скорректированная EBITDA за весь год равна $3,1 млрд, превысив показатель в $1,2 млрд в 2024 году. В 2025 году CoreWeave увеличила свой портфель заказов до $66,8 млрд, что на $11,2 млрд больше последовательно и более чем на $50 млрд больше год к году. По словам Интратора, средневзвешенная продолжительность контрактов компании увеличилась с четырёх до пяти лет к концу 2024 года.

Для финансирования роста, как сообщила CoreWeave, в течение 2025 года она привлекла $18 млрд в виде заёмных и собственных средств от более чем 200 инвестиционных партнеров и финансовых учреждений. В этом году CoreWeave уже привлекла дополнительные $2 млрд инвестиций от NVIDIA в рамках расширенного коммерческого контракта. Компания прогнозирует, что выручка в 2026 году составит от $12 до $13 млрд, что в среднем соответствует росту на 140​% в годовом исчислении, и предсказывает, что в 2027 году годовой темп роста достигнет $30 млрд. Аналитики, опрошенные LSEG, прогнозируют выручку за год в $12,09 млрд.

Поддерживая планы компании по увеличению капзатрат, Интратор заявил в интервью CNBC, что Coreweave сознательно решила инвестировать в дополнительную инфраструктуру и пойти на снижение маржи, чтобы не упустить «уникальный момент» спроса на мощности. «Я понимаю опасения людей, которые видят, как мы выделяем огромные суммы денег на этот рынок, но правда в том, что наш портфель заказов огромен», — сказал он.

Интратор отметил, что, помимо высокого спроса на мощности ЦОД, положительным моментом является сохраняющийся высокий интерес к более старым поколениям ускорителей: «Мы также наблюдаем значительный рост спроса на предыдущие поколения архитектуры GPU». «При этом предложение остается ограниченным. Средняя цена H100 в IV квартале была в пределах 10​% от цены начала года, в то время как средняя цена A100 выросла в 2025 году. По словам наших клиентов, спрос на эту инфраструктуру в основном связан с задачами инференса», — добавил Интратор.

Постоянный URL: http://servernews.ru/1137762

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;