Лента новостей
|
12.11.2025 [15:17], Руслан Авдеев
Microsoft инвестирует $10 млрд в ИИ ЦОД в ПортугалииMicrosoft потратит $10 млрд на ИИ ЦОД на побережье Португалии. Это станет одной из крупнейших инвестиций компании в Европе в 2025 году, сообщает Bloomberg. Речь о проекте кампуса в Синише (Sines) в 150 км от Лиссабона. Строительством парка занимается Microsoft совместно с португальской Start Campus и британским стартапом Nscale. Информацию о проекте и сумме подтвердил президент Microsoft Брэд Смит (Brad Smith). Как отмечает Datacenter Dynamics, в начале года в кампусе введён в эксплуатацию первый из шести планируемых объектов — ЦОД SIN01. $10 млрд покроют расходы на развитие второй фазы проекта. Второй ЦОД SIN02 обеспечит 180 МВт и уже строится. Общая мощность кампуса должна составить 1,2 ГВт. Пока неизвестно, в скольких проектах ЦОД на площадке Microsoft и Nscale будут участвовать совместно. Партнёрство Microsoft, Nscale и Start Campus было анонсировано в октябре 2025 года. Nscale развернёт для Microsoft в Синише 12,6 тыс. ускорителей NVIDIA GB300. Столкнувшись с нехваткой мощностей, компания подписала соглашения с несколькими неооблаками на $60 млрд, в том числе с CoreWeave, Nebius, IREN и Lambda. Только за последний квартал на аренду потрачено $11,1 млрд. Мощности Nscale компания намерена арендовать в Великобритании, США и Норвегии. Всего Microsoft намерена арендовать у Nscale 116 тыс. ускорителей GB300. Хотя большинство ЦОД расположены в районе Лиссабона (присутствуют объекты AtlasEdge, Claranet, Edged, Tata Communications и Equinix), прибрежный город Синиш с населением порядка 15 тыс. человек становится ключевым инвестиционным хабом Португалии. Отсюда проложены и подводные кабели, ещё больше появится в будущем — Medusa, New CAM Ring, Nuvem и Olisipo. В мае китайская CALB Group начала строить в городе фабрику по производству аккумуляторов за €2 млрд ($2,3 млрд). Также Синиш, возможно, станет домом для «ИИ-гигафабрики», поддерживаемой Евросоюзом.
12.11.2025 [14:38], Сергей Карасёв
Квартальная выручка CoreWeave подскочила более чем в два раза, а объём законтрактованных мощностей вырос до 2,9 ГВтПровайдер облачных услуг для ИИ-задач CoreWeave отчитался о работе в III квартале 2025 года. Выручка компании за трёхмесячный период достигла $1,36 млрд: это на 134 % больше по сравнению с показателем годичной давности, когда было получено $583,94 млн. Отмечается, что CoreWeave стремительно наращивает продажи. Так, в I четверти 2025-го выручка подскочила на 420 % в годовом исчислении — до $971,63 млн. Во II квартале зафиксирован рост на 207 % с итоговым результатом в $1,2 млрд. Операционный доход за отчётный период составил $51,85 млн против $117,12 млн годом ранее. В III квартале 2025-го CoreWeave понесла чистые убытки в размере $110,12 млн, или $0,22 в пересчёте на одну ценную бумагу. Для сравнения: годом ранее компания потеряла $359,81 млн, или $1,82 на акцию. Скорректированный показатель EBITDA (прибыль до вычета процентов, налогов и амортизационных отчислений) составил $838,12 млн против $378,76 млн в III четверти 2024 года.
Источник изображения: CoreWeave CoreWeave заявляет о диверсификации своей клиентской базы. Финансовый директор компании Нитин Агравал (Nitin Agrawal) сообщил, что на сегодняшний день вклад крупнейшего заказчика в общую выручку не превышает 35 %. Это существенно меньше по сравнению со II кварталом 2025 года, когда показатель находился на уровне 50 %. А в 2024-м около 62 % от суммарной выручки CoreWeave обеспечила Microsoft. Вторым по величине заказчиком оказалась NVIDIA (15 %), которая к тому же обязалась выкупить у CoreWeave все нераспроданные ИИ-мощности. Ранее Microsoft скупала мощности в интересах OpenAI. Теперь OpenAI напрямую закупает мощности у CoreWeave, хотя Microsoft тоже от них отказываться не будет. Кроме того, среди новых крупных заказчиков CoreWeave есть IBM и Meta✴. По словам Агравала, более 60 % портфеля заказов компании приходится на «клиентов инвестиционного уровня». CoreWeave также продолжает расширять инфраструктуру дата-центров. В течение III квартала добавлены 120 МВт мощностей, благодаря чему общий показатель достиг 590 МВт. Компания завершила квартал с законтрактованными мощностями в 2,9 ГВт. На территории США в течение июля–сентября введены в эксплуатацию восемь дополнительных ЦОД. Однако один из крупных проектов по созданию дата-центров был отложен из-за отставания от графика неназванного стороннего застройщика. В результате капитальные затраты за отчётный период составили $1,9 млрд, а не $2,9–$3,4 млрд, как предполагалось ранее.
12.11.2025 [14:09], Сергей Карасёв
Компактная рабочая станция Minisforum MS-R1 получила 12-ядерный Arm-процессор с NPU и два порта 10GbEКомпания Minisforum анонсировала рабочую станцию небольшого форм-фактора MS-R1, подходящую для решения различных ИИ-задач. В новинке, которая уже доступна для заказа, соседствуют процессор с архитектурой Arm и ОС на ядре Linux. Устройство заключено в корпус объемом примерно 1,78 л с габаритами 196 × 189 × 48 мм. Применён чип Cix CP8180 (P1) с 12 вычислительными ядрами в конфигурации DynamIQ: 4 × Cortex-A720 с частотой до 2,6 ГГц, 4 × Cortex-A720 с частотой 2,3–2,4 ГГц и 4 × Cortex-A520 с частотой 1,8 ГГц. В состав изделия входит графический ускоритель Arm Immortalis G720 MC10 с поддержкой Vulkan 1.3, OpenGL ES 3.2, OpenCL 3.0. Встроенный VPU-блок обеспечивает возможность декодирования материалов 8Kp60 AV1, H.265, H.264, VP9, VP8, H.263, MPEG-4, MPEG-2, а также кодирования видео 8Kp30 H.265, H.264, VP9, VP8. Процессор наделён нейромодулем (NPU) с поддержкой операций INT4/INT8/INT16/FP16/BF16 и производительностью до 28,8 TOPS. Общее ИИ-быстродействие с учётом CPU и GPU достигает 45 TOPS.
Источник изображения: Minisforum Компьютер может нести на борту до 64 Гбайт LPDDR5-5500. Есть коннектор M.2 2280/22110 для NVMe SSD с интерфейсом PCIe 4.0 x4. Кроме того, присутствует x16-слот (PCIe 4.0 x8) для карты расширения. В оснащение входят адаптеры Wi-Fi 6E и Bluetooth 5.3 (модуль M.2 2230 E-Key) и двухпортовый сетевой контроллер 10GbE (Realtek RTL8127). Устройство располагает тремя портами USB 3.1 Type-A и четырьмя разъёмами USB 2.0 Type-A, двумя интерфейсами USB 3.1 Type-C (DisplayPort 1.4 Alt Mode), двумя гнёздами RJ45 для сетевых кабелей, интерфейсом HDMI 2.0, аудиогнездом на 3,5 мм и 40-контактной колодкой GPIO. Питание (19 В, 180 Вт) подаётся через DC-разъём. Система охлаждения включает три медные тепловые трубки и вентилятор. Новинка поставляется с Debian 12. Цена варьируется примерно от $500 за версию с 32 Гбайт ОЗУ без накопителя до $700 за модификацию с 64 Гбайт памяти и SSD вместимостью 1 Тбайт.
12.11.2025 [12:00], Сергей Карасёв
Orion soft представил в zVirt 4.5 папки виртуальных машин и возможность быстрого «переезда» с любых систем виртуализацииРазработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft представил в виртуализации zVirt 4.5 новую для российского рынка возможность группировки виртуальных машин по вложенным папкам. Она облегчит управление инфраструктурой на инсталляциях с сотнями и тысячами виртуальных машин. Также в системе стал доступен инструмент для быстрой миграции с любых систем виртуализации, написанный «с нуля» Terraform-провайдер, расширенные возможности по управлению программно-определяемыми сетями и катастрофоустойчивостью. Разработчик проведет вебинар о подробностях обновления 13 ноября. «Отсутствие возможности группировать виртуальные машины по папкам было значимой "болью" заказчиков. В Enterprise-компаниях с растущей ИТ-инфраструктурой средний размер инсталляции сегодня составляет 50–100 серверов, а количество виртуальных машин — несколько тысяч. Возможность структурировать их при таком масштабе необходима. Она обеспечивает внушительную экономию сил и времени, снижает вероятность ошибок при администировании, упрощает задачи по выделению виртуальных машин для разных проектов или групп ИТ-специалистов», — рассказывает Максим Березин, директор по развитию бизнеса Orion soft. Функция «Папки виртуальных машин» обеспечивает удобный веб-интерфейс для группировки объектов, даёт возможность просматривать «дерево» папок, создавать до 15 уровней вложенных папок, перемещать виртуальные машины между папками с помощью перетаскивания мышкой, назначать и отзывать права доступа для объектов в папках, изменять параметры высокой доступности одновременно для нескольких виртуальных машин. Другим ключевым обновлением стал v2v-конвертер с возможностью миграции из любых систем управления виртуализаций и с любых серверов. Ранее в zVirt был доступен конвертер виртуальных машин только с VMware. Теперь быстрый перенос возможен и с других решений, как зарубежных, так и российских. Благодаря конвертеру виртуальные машины можно переносить массово, а простой при этом достигает не больше 7–10 минут. Продолжая уходить от открытых компонентов, разработчики добавили в zVirt 4.5 Terraform-провайдер, написанный собственными силами команды и не привязанный к Open Source версии для oVirt. Он поддерживает управление виртуальными машинами, дисками, логическими и внешними сетями, маршрутизаторами и политиками микросегментации. Разработчики также значительно расширили возможности SDN и DR. Произошло глубокое обновление микросегментации: стали доступны запрещающие правила, пулы IP-адресов, журналирование правил микросегментации, экспорт логических и внешних сетей в несколько дата-центров. В модуле DR появилась поддержка FC доменов хранения, а также возможность репликации ВМ из нескольких основных дата-центров в один резервный. Обновления расширяют возможности компаний по обеспечению защищённости и катастрофоустойчивости масштабных, в том числе распределённых инфраструктур. В ближайших планах по дальнейшему расширению возможностей zVirt — живая миграция виртуальных машин между дата-центрами, балансировка нагрузки на уровне SDN, BGP, а также настройки Multipath в портале администрирования. Реклама | ООО «Орион» ИНН 9704113582 erid: F7NfYUJCUneTTTy6Vepn
12.11.2025 [10:28], Владимир Мироненко
YADRO выводит на рынок высокопроизводительный ИИ-сервер для компаний, внедряющих искусственный интеллектYADRO (входит в «ИКС Холдинг») объявляет о коммерческом запуске ИИ-сервера YADRO G4208P G3 — решения для компаний, которые рассматривают искусственный интеллект как стратегический драйвер роста. В условиях перехода рынка от отдельных пилотных проектов к широкому внедрению прикладных сценариев использования искусственного интеллекта новый сервер призван удовлетворить растущий спрос бизнеса на масштабируемую инфраструктуру с предсказуемой эффективностью. Многолетний опыт YADRO в построении ИИ-систем для российских заказчиков лёг в основу архитектуры нового сервера G4208P G3. Платформа спроектирована под реальные задачи бизнеса: дообучение корпоративных моделей и обучение компактных моделей, высокопроизводительный инференс в промышленной среде, а также задачи, где требуется GPU-ускорители, включая видеоаналитику и обработку изображений. YADRO G4208P G3 поддерживает установку до восьми GPU-ускорителей и конфигурации на основе двух процессоров Intel Xeon Scalable 4-го/5-го поколений с интерфейсами PCIe 5.0 и памятью DDR5-5600. Сочетание производительности и масштабируемости такого уровня выводит сервер в число самых сильных предложений на российском рынке. Сервер прошел серию испытаний и сравнений с публичными бенчмарками, включая MLCommons и прикладные тесты для генеративных моделей (LLM). Результаты подтвердили уровень производительности и эффективности, сопоставимый с решениями ведущих мировых вендоров. Для российских компаний это означает, что инфраструктура на базе YADRO G4208P G3 позволит запускать крупные современные ИИ- модели, включая DeepSeek-R1 685B, и обеспечить их стабильную работу в продуктивной среде с соблюдением целевых SLO/SLA, снижением времени отклика сервисов и контролируемыми затратами на развитие инфраструктуры. Параллельно идёт широкая программа испытаний совместно с технологическими партнёрами — разработчиками отечественных программных решений. Ряд сценариев уже успешно протестирован, подтверждены совместимость и ключевые показатели производительности. ИИ-стеки, валидированные на базе серверов YADRO, формируют инфраструктурную основу для развития отечественных технологий искусственного интеллекта. YADRO сопровождает заказчиков на всем пути внедрения своих продуктов. Команда помогает определить оптимальную конфигурацию под конкретные задачи — от картирования рабочих нагрузок и выбора архитектуры до пилотирования и настройки производительности. Полный цикл сервиса включает консультирование, инсталляцию, сопровождение и поддержку на всём жизненном цикле решения. В результате заказчики получают устойчивую ИИ-инфраструктуру, которая работает надёжно и развивается вместе с бизнесом. «Компании переходят к практической интеграции ИИ в ключевые процессы, и мы уверены, что сейчас самый подходящий момент для выхода сервера YADRO G4208P G3. Платформа создана на основе нашего опыта реальных внедрений и ориентирована на быстрый путь от идеи к промышленной эксплуатации. Мы предлагаем оборудование и экспертную поддержку — от выбора конфигурации и внедрения до последующего обслуживания — чтобы заказчики могли эффективно управлять развитием своих ИИ- инициатив», — резюмирует Павел Егоров, директор по продуктам YADRO. Сервер YADRO G4208P G3 внесён в Единый реестр российской радиоэлектронной продукции Минпромторга, что подтверждает его соответствие требованиям импортозамещения и открывает возможность применения в государственных и корпоративных проектах с требованиями по локализации. Подробнее ознакомиться с конфигурациями, результатами тестов и сценариями применения, а также получить рекомендации экспертов и оставить заявку на пилотное тестирование сервера можно на сайте. Реклама | ООО «КНС ГРУПП» ИНН 7701411241 erid: F7NfYUJCUneTTTy81zhv
12.11.2025 [09:28], Владимир Мироненко
Переконфигурируемый ускоритель NextSilicon Maverick-2 с dataflow-архитектурой меняет подход к вычислениямВ конце октября стартап NextSilicon объявил о выходе Maverick-2 — интеллектуального ускорителя вычислений (Intelligent Compute Accelerator, ICA), анонсированного в прошлом году. Чип уже используется в Сандийских национальных лабораториях (SNL) Министерства энергетики США (DOE) в составе суперкомпьютера Vanguard-II, а также рядом клиентов. Как утверждает глава NextSilicon Элад Раз (Elad Raz), компании в сфере научных вычислений и HPC сталкиваются с проблемой ограниченных возможностей CPU и GPU, из-за чего приходится идти на компромиссы, но архитектура Maverick решает эту проблему. По словам NextSilicon, нынешние массовые CPU «скованы» архитектурой фон Неймана 80-летней давности, в которой значительная часть отведена вспомогательной логике, включая предсказание ветвлений, внеочередное исполнение и т.д., а не собственно исполнительным устройствам. В свою очередь, GPU обеспечивают более высокую параллельную производительность, но для эффективного использования ускорителей требуются специализированные среды разработки (CUDA), управление сложными иерархиями памяти, когерентностью кешей и т.п. А ASIC, созданные для конкретных ИИ-задач, обеспечивают высокую производительность и эффективность, но их разработка требует больших затрат. NextSilicon предлагает заменить эти решения чипом с управлением потоками данных (dataflow), который можно перенастраивать во время выполнения задач для устранения узких мест кода, и у которого нет ограничений, присущих CPU и GPU. «В ресурсоёмких приложениях большую часть времени выполняется лишь небольшая часть кода, — рассказал Раз. — Мы разработали интеллектуальный программный алгоритм, который непрерывно отслеживает работу приложения. Он точно определяет, какой путь кода выполняется чаще всего, и перенастраивает чип для ускорения именно этих путей. И всё это мы делаем во время исполнения кода и за наносекунды». FPGA тоже можно перепрограммировать, но для этого нужен цикл перезагрузки. Аппаратная часть Maverick представляет собой реконфигурируемую структуру ALU, которой отведена большая часть «кремния». которую можно быстро перенастраивать во время выполнения кода. Это означает больше вычислений за такт (и на Ватт), при условии, что данные находятся в нужном месте в нужное время. Алгоритм анализирует код на наличие узких мест и соответствующим образом настраивает чип во время выполнения программы. Программно-определяемая архитектура управления потоками данных позволяет достичь производительности и эффективности, близких к ASIC, не привязываясь к конкретному приложению и сохраняя гибкость алгоритмов, утверждает NextSilicon. В архитектуре NextSilicon вычислительные блоки (CB) подключены к шине памяти для получения данных, которые временно хранятся в станции резервирования (RS). Диспетчер определяет время запуска вычислительного блока. (RS и диспетчер аналогичны регистрам в процессоре.) Точки входа в память (MEP-блоки) обрабатывают операции доступа к памяти, генерируя запросы к шине, а по завершении направляют ответ в RS. MMU и TLB-кеш занимаются трансляцией адресов (при необходимости). Всё остальное пространство CB занято ALU, который в первом приближении и можно считать «инструкциями». Компания не уточняет, сколько именно CB содержится в чипе, но на фото кристалла их 224. Из ALU компилятор NextSilicon формирует т.н. Mill-ядра (Mill Core) в рамках CB, фактически представляющие собой граф связанных между собой операций, которые и выполняются ALU — появление данных на входе ALU срабатывает как триггер, ALU отрабатывает свою единственную назначенную операцию и передаёт результат следующему ALU, тот следующему и т.д. до конца графа. Особенностью чипа является способность в ходе исполнения по необходимости автоматически реплицировать и оптимально размещать Mill-ядра внутри одного CB, и между несколькими CB. Пришло больше данных, которые можно параллельно обработать — будет больше Mill-ядер. Но касается это только наиболее «горячих» участков. Илан Таяри (Ilan Tayari), соучредитель и вице-президент по архитектуре NextSilicon, назвал критически важным, что платформа может запускать любой код «из коробки», будь то код, написанный для CPU и GPU или ИИ-моделей. Будь то C++, Fortran, Python, CUDA, ROCm, OneAPI или даже ИИ-фреймворки, компилятор NextSilicon разделяет код на части, преобразуя их в промежуточное представление для реконфигурируемого оборудования. «Это не ограничивается тем, что существует сегодня, — сказал Таяри. — Для исследователей в сфере ИИ этот метод открывает новые захватывающие возможности. Вы получаете ускорение независимо от того, что использует ваша модель… экзотические функции активации, комплексные числа или новые математические операции: всё ускоряется сразу из коробки». Во время выполнения приложения оперативная телеметрия на чипе непрерывно оптимизирует его. Например, в случае частого взаимодействия вычислительных подблоков граф перестраивается, чтобы приблизить их друг к другу или, например, переключиться с векторной на матричную обработку. При наличии узкого места они дублируются для обеспечения параллелизма. Это происходит автоматически, без вмешательства разработчика, в отличие, например, от VLIW-подхода. Maverick-2 выпускается по 5-нм техпроцессу TSMC в однокристальной и двухкристальной конфигурациях, работающих на частоте 1,5 ГГц. Однокристальная модель с энергопотреблением 400 Вт разработана для карт PCIe 5.0 x16, а двухкристальная модель с энергопотреблением 750 Вт — для OAM-модулей. Однокристальный вариант с воздушным охлаждением включает 32 управляющих ядра RISC-V, 96 Гбайт HBM3E, кеш 128 Мбайт и один порт 100GbE. Двухкристальный вариант OAM с жидкостным охлаждением содержит 64 управляющих ядра RISC-V, 192 Гбайт HBM3E, кеш 256 Мбайт и два интерфейса 100GbE. Следует отметить, что указаны максимальные значения TDP, и, как пишет ServeTheHome, ожидается, что при многих рабочих нагрузках они будут ниже. NextSilicon заявляет о возможности достижения 600 Гфлопс при потреблении 750 Вт (примерно вдвое меньше, чем у конкурентов) в бенчмарке HPCG, что составляет 4,8 Тфлопс при потреблении 6 кВт для UBB. Компания протестировала как однокристальную, так и двухкристальную версии Maverick2. В тесте STREAM пропускная способность чипа составила 5,2 Тбайт/с, в бенчмарке GUPS чип достиг 32,6 GUPS при потреблении 460 Вт, что в 22 раза быстрее, чем у CPU, и почти в шесть раз быстрее, чем у GPU для таких приложений как СУБД, агентное принятие ИИ-решений в режиме реального времени и ИИ-инференс на основе разрозненных данных. В тесте Google PageRank (PR) чип показал результат 40 Гигастраниц/с, что в 10 раз выше, чем у ведущих GPU, при вдвое меньшем энергопотреблении. Компания отметила, что при больших размерах графов (более 25 Гбайт) ведущие GPU не смогли полностью пройти тест, в то время как Maverick-2 справился с ними без труда, продемонстрировав критическую потребность в адаптивных архитектурах, способных справиться со сложными рабочими нагрузками, лежащими в основе современных ИИ-систем, социальной аналитики и сетевого интеллекта. «[Эти результаты были] достигнуты с использованием существующего, немодифицированного кода приложения», — подчеркнул Эяль Нагар (Eyal Nagar), соучредитель и вице-президент по исследованиям и разработкам NextSilicon. «Нашим конкурентам требуются специализированные команды для модификации кода, BIOS, прошивок, ОС и параметров, чтобы достичь заявленных бенчмарков. NextSilicon обеспечивает превосходные результаты, используя уже готовое ПО», — добавил он. NextSilicon также представила тестовый кристалл для процессора корпоративного уровня на базе ядер RISC-V, который компания планирует использовать в качестве хост-процессора в ускорителе следующего поколения Maverick-3. Процессор Arbel, разработанный с нуля, с шириной конвейера в 10 команд представляет собой эволюцию более компактных ядер RISC-V на базе Maverick-2, обрабатывающих последовательный код. По словам компании, ядра имеют производительность ядер на уровне AMD Zen 5 или Intel Lion Cove. NextSilicon сообщила, что Arbel обеспечивает прорывную производительность благодаря четырём ключевым архитектурным инновациям:
«Это настоящий кремний, созданный по 5-нм техпроцессу TSMC — наша собственная запатентованная интеллектуальная собственность, а не лицензированная или заимствованная. Создан инженерами NextSilicon для воплощения видения будущего NextSilicon», — заявил Элад Раз. По данным компании, флагманский ускоритель Maverick2, помимо SNL, уже используется «десятками» заказчиков. Его массовые поставки начнутся в начале 2026 года, чтобы обеспечить значительный портфель заказов. NextSilicon сотрудничает с различными организациями, от Министерства энергетики США до ведущих научно-исследовательских институтов, а также коммерческих клиентов в сфере финансовых услуг, энергетики, производства и биологических наук. Программы раннего внедрения для новых клиентов уже доступны через партнёров Penguin Solutions и Dell Technologies. Ускоритель следующего поколения NextSilicon Maverick3 будет поддерживать вычисления с пониженной точностью для ИИ-задач и, как ожидается, появится в продаже в 2027 году, пишет EE Times.
12.11.2025 [08:45], Руслан Авдеев
ZincFive представила аккумуляторную систему для ИИ ЦОД — BC 2 AI на основе никель-цинковых элементовКомпания ZincFive представила аккумуляторы для ИИ ЦОД, выполненные по никель-цинковой (NiZn) технологии вместо распространённой литий-ионной (Li-Ion). Аккумуляторы объединяются в аккумуляторную систему BC 2 AI, сообщает компания. Аккумуляторный шкаф BC 2 AI ёмкостью 90 А·ч специально разработан для обеспечения энергией ИИ-серверов для выполнения ресурсоёмких задач в имеющих критическое значение дата-центрах. Модель разработана для работы в «двойном» режиме — она может использоваться как аккумуляторная система резервного питания, так и для активного управления энергией (Battery Management System), когда резервное питание не используется. По словам разработчика, система обеспечивает «ультрабыстрый» отклик на перепады нагрузки, исключительную «энергетическую плотность» и непревзойдённую энергобезопасность и экоустойчивость благодаря специфике NiZn-технологий. Это позволяет дата-центрам уверенно адаптироваться к меняющимся потребностям ИИ-инфраструктуры, говорит компания.
Источник изображения: ZincFive Система разработана для компенсации скачков нагрузки от кластеров ИИ-ускорителей во время обучения моделей. Одновременно она обеспечивает стабильное электропитание для стандартных IT-нагрузок. Утверждается, что она, управляя питанием на уровне ИБП (UPS), снижает нагрузку на внешнюю энергоинфраструктуру, сокращает капитальные затраты (CAPEX) и улучшает взаимодействие с общей энергосетью. Ещё одним преимуществом называется довольно компактная конструкция. Конкурирующие решения требуют в два-четыре раза больше пространства для сглаживания скачков потребления при ИИ-нагрузках, которые могут составить до 150 % от номинальной мощности ИБП. Система рассчитана на гиперскейлеров, колокейшн-провайдеров и OEM-партнёров, выпускающих ИБП. Она уже заслужила ряд престижных отраслевых премий. Летом 2024 года сообщалось, что совокупная мощность отгруженных и заказанных никель-цинковых аккумуляторов компании уже превысила 1 ГВт.
12.11.2025 [00:28], Владимир Мироненко
Nebius заключила сделку с Meta✴ на $3 млрд, распродав все свои вычислительные мощности и нарастив выручку на 355 %Поставщик облачных ИИ-решений Nebius Group N.V. (бывшая материнская структура «Яндекса» Yandex N.V.) заключил сделку с Meta✴ на $3 млрд на предоставление гиперскейлеру доступа к ИИ-инфраструктуре в течение пяти лет. Об этом сообщил основатель и генеральный директор Nebius Аркадий Волож в письме акционерам, посвящённом итогам III квартала 2025 финансового года, завершившегося 30 сентября 2025 года. Не раскрывая подробностей, Волож сообщил, что размер контракта был ограничен объёмом имеющихся мощностей. По его словам, компания в течение трёх месяцев развернёт все необходимые для его обслуживания мощности. Волож добавил, что, как и в случае со сделкой с Microsoft, экономические условия этого соглашения привлекательны и помогут ускорить рост облачного ИИ-бизнеса Nebius. По словам Воложа, выручка от сделки с Microsoft на сумму до $19,4 млрд, тоже заключённой на пять лет, начнёт расти в 2026 году. Nebius также опубликовала неаудированные результаты за III квартал 2025 финансового года. Выручка компании составила $146,1 млн, что на 355 % больше год к году и на 39 % больше, чем в предыдущем квартале. Nebius завершила квартал с чистым убытком в размере $119,6 млн, что больше убытка годом ранее, составившего $43,6 млн. Скорректированный чистый убыток вырос с $39,7 млн в прошлом году до $100,4 млн. Капитальные затраты компании взлетели на 455 % — до $955,5 млн со $172,1 млн годом ранее. Скорректированная EBITDA составила −$5,2 млн против −$45,9 млн годом ранее. В 2026 году компания планирует достичь годовой доходности (Annualized Run Rate, ARR) в пределах $7–$9 млрд. Также было объявлено, что в настоящее время все доступные мощности Nebius распроданы. Волож заявил, что 2025 год стал годом развития, поскольку компания создала инфраструктуру и основу для будущего быстрого роста. В следующем году Nebius должна прочно занять место в числе ведущих мировых компаний в сфере облачных ИИ-технологий, считает глава компании. «И в то же время 2026 год — это только начало», — добавил он. Волож сообщил, что для поддержки амбициозных планов роста в 2026 году и сохранения этих темпов роста в 2027 году компания будет использовать как минимум три источника финансирования: корпоративный долг, финансирование под залог активов и акционерный капитал. «В прошлом квартале мы прогнозировали 1 ГВт законтрактованной мощности к концу 2026 года. В настоящее время мы занимаемся поиском дополнительных площадок, которые доведут нашу общую законтрактованную мощность (т.е. закреплённую за электроэнергией землю) примерно до 2,5 ГВт к концу 2026 года, — рассказал Волож. — Из этого контрактного объёма мы ожидаем, что к концу 2026 года будет подключено от 800 МВт до 1 ГВт электроэнергии (т.е. электроэнергии, подключенной к построенным ЦОД)».
11.11.2025 [21:00], Владимир Мироненко
iKS-Consulting: российский рынок облачных сервисов вырастет в 2025 году до 416,5 млрд рублейКомпания iKS-Consulting опубликовала отчёт, посвящённый результатам исследования «Российский рынок облачный инфраструктурных сервисов 2025», целью которого была оценка текущего состояния и динамики развития отечественного рынка облачных услуг, а также анализ конкурентной ситуации и позиций ведущих игроков рынка. В ближайшие пять лет облачный рынок в России будет расти высокими темпами и к 2030 году достигнет 1,2 трлн руб. при среднегодовых темпах роста в 24,4 %, прогнозируют в iKS-Consulting. В отчёте указаны результаты анализа рынка сегмента IaaS и PaaS в публичных и гибридных облаках. Ранее рассматриваемый в едином отчёте по облачным услугам сегмент SaaS (аренда ПО и приложений) был выделен в отдельное исследование. Исследование было проведено в августе-ноябре 2025 года. Как указано в отчёте, в 2025 году на российском рынке облачных услуг сохраняются тренды, сложившиеся в предыдущие годы, включая активный рост и трансформацию, обусловленные импортозамещением, развитием ИИ и повышением требований к безопасности. В основе роста рынка лежит расширение областей цифровизации и рост уровня проникновения аутсорсинга в ИТ-инфраструктуру. Также продолжающаяся цифровая трансформация экономики сопровождается внедрением ИИ-технологий в различные бизнес-процессы.
Источник изображений: iKS-Consulting Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., млрд руб. Уход из России западных гиперскейлеров ускорил переход на российские облачные решения и вызвал высокий спрос на услуги по миграции с зарубежных облачных платформ на отечественные решения, что потребовало аудита инфраструктуры и переноса данных. Также спрос на высокотехнологичные платформы потребовал активного развития отечественных разработок в области IaaS, PaaS и SaaS-платформ, в первую очередь, для госсектора, сферы финансов и для критически важной инфраструктуры. Начавшийся в 2022 году процесс перехода в облака российских провайдеров продолжается в текущем. В настоящее время, как следует из результатов опроса участников рынка, вопросы поставок облачными провайдерами решены, хотя сроки и условия поставки стали менее комфортными для покупателей. Также отмечен значительный рост роли государственного заказчика (B2G) на российском ИТ-рынке, что обусловлено централизованной политикой по миграции органов власти на единую облачную инфраструктуру и развитием цифровых госуслуг. Некоторые компании начинают активно развивать собственную ИТ-инфраструктуру: строят частные облака, как полностью на собственной инфраструктуре, так и с использованием предложений облачных провайдеров. По мнению исследователей iKS-Consulting, этот тренд сохранится в ближайшие годы, сдерживая развитие сегмента публичных облаков. Неопределённость экономической перспективы делает аренду облака более предпочтительным вариантом, чем инвестиции в собственную инфраструктуру (on-premise). В пользу этого выбора свидетельствует и фактор высокой цикличности спроса на ресурсы при обучении и использовании больших языковых моделей (LLM), утверждают исследователи. По оценкам iKS-Consulting, объём российского рынка облачных сервисов, включая IaaS, PaaS и SaaS, в 2024 году увеличился в годичном исчислении на 32,8 % до 322,3 млрд руб. Предполагается, что в 2025 году рынок составит 416,5 млрд руб. или $4,84 млрд (рост год к году на 29,2 и 37,5 % соответственно). В числе факторов роста рынка в 2024–2025 гг. исследователи назвали:
Крупнейшими игроками рынка IaaS в 2024 года были компании Cloud.ru, ГК «РТК-ЦОД», Selectel, MWS и Yandex Cloud с 66 % всей выручки от услуг IaaS в публичных и гибридных облаках. Вышедшая в лидеры Cloud.ru значительно увеличила долю рынка за счёт предоставления услуг, связанных с ИИ, а также услуг в публичных и гибридных облаках. Сместившаяся на второе место ГК «РТК-ЦОД» имеет собственную сеть дата-центров, являясь крупнейшим игроком на рынке коммерческих ЦОД и предлагая услуги колокации в Москве, Санкт-Петербурге и многих других городах РФ. На рынке PaaS, составившем в 2024 году 33 млрд руб., лидируют Cloud.ru с долей рынка 45,53 % и Yandex.Cloud (23,65 %). Драйвером роста Cloud.ru является доступ к сервисам для создания и работы с ИИ-моделями, облачные сервисы для реализации отраслевых сценариев и разработки. В свою очередь Yandex.Cloud предлагает платформы для баз данных и услуги по управлению кластерами Kubernetes. Обе компании также лидируют в сегменте синтеза и распознавания речи и изображений. Согласно прогнозу iKS-Consulting, в 2025 году по совокупной выручке от услуг IaaS и PaaS первые два места останутся за лидерами сегмента IaaS — Cloud.ru и «РТК-ЦОД». Третье место у Yandex Cloud благодаря высоким темпам роста в обоих сегментах рынка. Замыкают пятёрку Selectel и МWS. Суммарно на первую пятёрку приходится около 70 % рынка.
11.11.2025 [19:36], Руслан Авдеев
AMD приобрела ИИ-стартап MK1, созданный ветеранами NeuralinkКомпания AMD объявила о покупке ИИ-стартапа MK1 для наращивания своих комптенций в сфере ИИ, сообщает CRN. MK1 занимается созданием ПО для инференса и корпоративного ИИ. MK1 основали соучредитель Neuralink Пол Меролла (Paul Merolla), который руководил проектированием чипов и разработкой алгоритмов для декодировки мозговой активности, а также бывший тимлид в Neuralink Тонг Вэй Ко (Thong Wei Koh). Также в команду входят бывшие разработчики Neuralink, Meta✴, Tesla и Apple. MK1 сосредоточена на «высокоскоростных» технологиях инференса и «рассуждений», оптимизированных для крупномасштабных проектов на базе оборудования AMD. Решения уже обрабатывают более 1 трлн токенов ежедневно. Технологии разработаны для использования преимуществ архитектуры памяти ускорителей AMD Instinct. Последние становятся всё популярнее на рынке ИИ-инфраструктуры — AMD заключила с OpenAI сделку о развёртывании на базе Instinct мощностей на 6 ГВт в рамках стратегического партнёрства.
Источник изображения: Arlington Research/unsplash.com Сочетание ПО MK1 и ускорителей AMD позволит, как ожидается, обеспечить «точные, полностью отслеживаемые рассуждения в любом масштабе». Вместе AMD и MK1 ускорят появление следующего поколения корпоративного ИИ, это позволит клиентам автоматизировать даже сложные бизнес-процессы и др. AMD объявила о покупке MK1 после отчёта о потраченных на покупку других компаний $36 млн, помимо нашумевшей сделки с ZT Systems на $4,9 млрд, заключённую ранее в этом году. Ранее компания приобрела стартап Enosemi, занимающийся кремниевой фотоникой, стартап Brium, специализировавшийся на инструментах разработки и оптимизации ИИ ПО, а также команду стартапа Untether AI, занимавшуюся разработкой ИИ-ускорителей. Ранее портал CRN сообщал, что в последние годы AMD активно занималась покупками бизнесов для расширения возможностей ИИ-ускорителей, оборудования и ПО в условиях растущей конкуренции с NVIDIA в сфере искусственного интеллекта. ZT Systems уже используется для разработки стоечных ИИ-решений на базе ускорителей Instinct, это очень помогло AMD получить контракты с крупными клиентами, включая OpenAI. В октябре компания продала производственный сегмент ZT Systems американской Sammina за $3 млрд, сохранив проектно-конструкторское и сервисное клиентское подразделения компании. |
|
