Материалы по тегу:
|
15.03.2026 [22:34], Владимир Мироненко
Китайская Hygon увеличила выручку благодаря высокому спросу на отечественные high-end чипыКитайская компания Hygon Information Technology, специализирующаяся на выпуске ускорителей и процессоров, опубликовала финансовые результаты за 2025 год. Выручка компании составила ¥14,38 млрд (около $2,1 млрд), что на 56,91 % больше, чем годом ранее, а чистая прибыль выросла на 31,66 % до ¥2,54 млрд (около $0,4 млрд). Впервые в истории компании её выручка за год превысила ¥10 млрд, сообщил ресурс Digitimes. Hygon объяснила значительный рост продаж «продолжающимся ростом спроса на high-end чипы отечественного производства», пишет ресурс South China Morning Post. Компания заявила, что ее рыночная доля в сегменте высокопроизводительных процессоров расширилась благодаря сотрудничеству с производителями оригинального оборудования и другими партнёрами в ключевых отраслях и сферах. В I квартале 2026 года Hygon прогнозирует выручку в размере ¥3,91–4,22 млрд ($0,57–$0,61 млрд), что на 62,91–75,82 % больше по сравнению с аналогичным периодом прошлого года, а чистая прибыль, как ожидается, вырастет на 22,56–42,32 %. Как отметил Digitimes, рост ИИ-рынка подтолкнул спрос на вычислительные ресурсы к беспрецедентным уровням. В период с 2010 по 2023 год глобальные потребности в вычислительных ресурсах ИИ увеличились в сотни тысяч раз, значительно превысив темпы согласно закону Мура. Глобальный ИИ-рынок быстро расширяется, достигнув $540 млрд в 2023 году и, по прогнозам, вырастет до $900 млрд к 2026 году. Внутренний рынок ускорителей ИИ в Китае вступает в фазу высокого роста. Согласно прогнозам отрасли, рынок ИИ-ускорителей может превысить в период с 2025 по 2029 год ¥1,3 трлн ($188,5 млрд) при среднегодовом темпе роста в 53,7 %. Финансовые показатели компаний в этом секторе Китая сильно различаются. Loongson сообщила о выручке в 2025 году в размере ¥635 млн ($92 млн, рост год к году на 25,99 %), оставаясь при этом убыточной. Компания Cambricon получила выручку в размере ¥6,497 млрд ($0,94 млрд), что на 453 % больше год к году и вернулась к прибыльности с чистой прибылью в ¥2,059 млрд ($0,3 млрд). Конкурентные позиции Hygon основаны на двух факторах: доступе к архитектуре x86, полученном в 2016 году благодаря соглашению о совместном предприятии и технологиях с AMD, а также собственным разработкам ускорителей. Архитектура x86 по-прежнему составляет примерно 85 % мировых серверных процессоров по состоянию на 2024 год. Доступ к набору инструкций позволяет процессорам Hygon поддерживать совместимость с существующими программными экосистемами, снижая затраты на миграцию и упрощая внедрение в корпоративной среде. Также Hygon вложила значительные средства в разработку DCU (Data Center Units), сопроцессоров на базе технологии GPGPU, предназначенных для обработки крупномасштабных параллельных рабочих нагрузок. Digitimes отметил, что высокий спрос на процессоры позволил Hygon повысить показатели прибыльности. С 2020 года по III квартал 2025 года валовая маржа Hygon выросла с 50,5 до 60,1 %, превзойдя показатели отечественных конкурентов, включая Loongson и Cambricon. При этом с 2021 года ежегодные инвестиции Hygon в НИОКР выросли более чем на 30 % в годовом исчислении, достигнув почти ¥3 млрд ($0,43 млрд) за 9 месяцев 2025 года. В 2025 году чистая прибыль компании росла медленнее, чем выручка, из-за более высокой интенсивности НИОКР и стимулирования инженерных кадров выделением акций. Ожидается, что скорректированная чистая прибыль за I квартал 2026 года вырастет на 63–82 % в годовом исчислении. В течение первых трёх кварталов 2025 года чистый операционный денежный поток вырос на 465,64 % год к году до ¥2,26 млрд ($0,33 млрд), что улучшило возможности компании по финансированию исследований и разработки чипов. К концу III квартала 2025 года обязательства Hygon по контрактам достигли ¥2,8 млрд ($0,41 млрд). В марте Hygon объявила о том, что её ускорители DCU будут проходить тестирование в Шанхайской лаборатории ИИ, которая сосредоточится на гибридном планировании и совместном инференсе. Эта инициатива основана на разработанной в лаборатории гетерогенной вычислительной платформе DeepLink, которая позволяет выполнять смешанные задачи инференса на разных китайских ИИ-чипах, включая Huawei Ascend, MetaX, T-Head Semiconductor и Biren. В случае успеха различные китайские ускорители можно будет использовать в рамках общих вычислительных кластеров, смещая отрасль от изолированных аппаратных хранилищ к скоординированным вычислительным архитектурам. Ещё одним фактором роста спроса на вычислительную инфраструктуру Hygon может стать расширение использования ИИ-агентов. По оценкам экспертов отрасли, выполнение задач ИИ-помощниками может расти более чем на 500 % в год в период с 2025 по 2030 год, а потребление токенов может увеличиться более чем на 3000 %.
15.03.2026 [11:46], Руслан Авдеев
Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаваттПо данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати. Кампус строит компания Crusoe на площадке Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году. Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт. Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.
Источник изображения: Crusoe Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители Nvidia Vera Rubin вместо ускорителей Nvidia Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы. По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии. Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами. Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta✴ Platforms. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей. По слухам, Nvidia уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.
15.03.2026 [11:16], Сергей Карасёв
GigaDevice представила чипы SPI NOR Flash серии GD25UF для периферийных и ИИ-устройствКомпания GigaDevice сообщила о расширении семейства чипов флеш-памяти SPI NOR Flash GD25UF: теперь в него входят изделия со сверхнизким энергопотреблением ёмкостью от 8 до 256 Мбит. Они предназначены для использования в периферийном оборудовании, маломощных ИИ-устройствах, электронике с питанием от батареи и пр. Чипы GD25UF работают при напряжении от 1,14 В до 1,26 В, что обеспечивает бесшовную интеграцию с «системами на чипе» (SoC), рассчитанными на 1,2 В. В частности, устраняется необходимость в дополнительных преобразователях или сложном управлении питанием. Благодаря этому сокращается количество вспомогательных компонентов в конечных устройствах, что способствует снижению стоимости при одновременном повышении энергоэффективности. Изделия семейства GD25UF поддерживают режимы Single, Dual, Quad и DTR Quad SPI. Максимальная тактовая частота составляет 120 МГц в режиме STR и 80 МГц в режиме DTR. Пропускная способность достигает 80 Мбайт/с. Отмечается, что по сравнению с традиционной флеш-памятью, рассчитанной на напряжение 1,8 В, у чипов GD25UF это значение снижено примерно на 33 %, что способствует сокращению энергопотребления на 50–70 %. Допускается работа в обычном режиме и с пониженным энергопотреблением. Заявленное количество циклов записи/стирания находится на отметке 100 тыс., тогда как сохранность данных гарантирована в течение 20 лет. Диапазон рабочих температур в зависимости от модификации простирается от -40 до +85 °C, от -40 до +105 °C или от -40 до +125 °C. Массовое производство изделий GD25UF уже началось: они доступы в исполнениях SOP8, WSON8, USON8 и WLCSP.
15.03.2026 [11:15], Сергей Карасёв
Выпуск ИИ-чипов DeepX DX-M2 отложен из-за проблем у TeslaИзменение графика разработки ИИ-ускорителя Tesla следующего поколения, по сообщению ресурса DigiTimes, привело к тому, что южнокорейская компания DeepX вынуждена отложить выпуск своих чипов DX-M2, массовое производство которых изначально было запланировано на II квартал 2027 года. Отмечается, что задержки возникли с разработкой изделия Tesla AI6. Предполагается, что это решение будет применяться для поддержания разнообразных нагрузок в инфраструктуре Tesla, включая платформы автономного вождения, системы человекоподобного робота Optimus и дата-центры для ИИ-задач. В 2025 году Tesla подписала контракт с Samsung на изготовление AI6 вплоть до декабря 2033-го: стоимость соглашения составляет $16 млрд. Первоначальный договор предусматривал производство около 16 тыс. пластин в месяц, однако затем Tesla запросила дополнительно 24 тыс. пластин, что в сумме предполагает объем до 40 тыс. пластин ежемесячно. Для Tesla AI6 планируется применение 2-нм техпроцесса Samsung. По такой же методике будут выпускаться чипы DeepX DX-M2. Для обоих этих изделий оговорено использование услуги Multi-Project Wafer (MPW), при которой на одной кремниевой пластине в рамках получения прототипов размещаются изделия нескольких разных заказчиков. Такой подход позволяет снизить затраты на разработку перед организацией массового производства. Однако, по информации DigiTimes, с выходом Tesla AI6 на этап MPW возникли задержки. С чем именно связаны сложности, не уточняется. Отраслевые эксперты полагают, что пересмотр графика может быть обусловлен изменением сроков инвестиций в автономные транспортные средства, роботизированные платформы и суперкомпьютеры с ИИ. Компания Samsung отказалась от комментариев, сославшись на конфиденциальность проектов заказчиков. Между тем из-за задержек Tesla выпуск чипов DeepX DX-M2 по программе MPW, который планировалось начать в апреле, переносится на более поздний срок. В соответствии с новым графиком, тестирование качества этих решений будет организовано не ранее III квартала текущего года. Ожидается, что DX-M2 обеспечит ИИ-производительность на уровне 80 TOPS при максимальном энергопотреблении примерно 5 Вт. Чип поддерживает память LPDDR5X. Утверждается, что процессор способен работать с ИИ-моделями, насчитывающими до 100 млрд параметров.
14.03.2026 [18:42], Владимир Мироненко
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИAmazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras. Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня». Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя. Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS. Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам». Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA. Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.
14.03.2026 [10:20], Сергей Карасёв
Silicon Motion представила контроллер SM8008 для загрузочных SSD в дата-центрахКомпания Silicon Motion анонсировала контроллер SM8008, предназначенный для создания загрузочных SSD в дата-центрах и накопителей корпоративного класса со сверхнизким энергопотреблением. Изделие, выполненное на фирменной платформе MonTitan, поддерживает интерфейс PCIe 5.0 x4 (протокол NVMe 2.0a). Отмечается, что стремительное развитие ИИ и облачной инфраструктуры сопровождается развёртыванием большого количества новых серверов, каждый из которых нуждается в надёжном и энергоэффективном загрузочном накопителе. В масштабах гиперскейлеров и крупных облачных провайдеров эксплуатируются миллионы серверов. В таких условиях даже незначительная экономия электроэнергии в расчёте на один SSD может привести к существенному снижению общего энергопотребления и уменьшению эксплуатационных расходов ЦОД.
Источник изображения: Silicon Motion Контроллер SM8008 изготавливается с применением 6-нм технологии TSMC. Он обеспечивает скорость последовательной передачи информации до 14 Гбайт/с, а показатель IOPS (операций ввода/вывода в секунду) достигает 2,3 млн. При этом энергопотребление в активном режиме составляет менее 5 Вт. Используется восьмиканальная архитектура NAND с поддержкой ONFI и Toggle DDR 5.0 со скоростью до 3600 МТ/с (MT/s). Говорится о возможности применения одноканальной памяти DDR4-3200 и LPDDR4-3200 ECC DRAM. Изделие соответствует спецификации OCP Hyperscale NVMe Boot SSD Version 1.0. Реализована поддержка TCG Opal 2.0, а также AES-256, SHA2-512 и RSA-3072b с аппаратным ускорением. Чип использует технологию Silicon Motion NANDCommand и усовершенствованный механизм коррекции ошибок LDPC, благодаря чему достигаются долговечность и стабильность производительности. На базе контроллера могут создаваться SSD в различных форм-факторах, включая M.2, U.2, E1.S и E3.S.
14.03.2026 [10:16], Сергей Карасёв
MediaTek представила чипы Genio Pro 5100 и Genio 420 для AIoT-приложенийКомпания MediaTek представила процессоры Genio Pro 5100 и Genio 420 с архитектурой Arm для AIoT-приложений и встраиваемых систем. Первый из названных чипов подходит, в частности, для автономных мобильных роботов, дронов, периферийного оборудования и автомобильных платформ, второй — для устройств умного дома, интерактивных дисплеев и пр. Изделие Genio Pro 5100 изготавливается по 3-нм технологии. Оно содержит восемь вычислительных ядер в конфигурации 1 × Arm Cortex-X925, 3 × Arm Cortex-X4 и 4 × Arm Cortex-A720. Присутствуют графический блок Arm Immortalis-G925 MC11 с поддержкой OpenGL, Vulkan и OpenCL, а также нейропроцессорный узел (NPU) с ИИ-производительностью более 50 TOPS. Модуль VPU обеспечивает возможность кодирования материалов H.264 и H.265 (до 8K30) и декодирования H.264, H.265, AV1 и VP9 (до 8K30). Реализована поддержка оперативной памяти LPDDR5x-8533 (до 30 Гбайт), а также флеш-памяти UFS 4.1, SD 3.0 и SPI-NOR. Допускается вывод изображения одновременно на три дисплея формата 4Kp60 через интерфейсы eDP 1.5 (4 линии), DisplayPort 1.4 (MST) и 3 × MIPI DSI (4 линии). Благодаря четырём интерфейсам MIPI-CSI (4 линии) возможно использование до 16 камер (1080p30). Среди прочего упомянута поддержка 2 × 2.5GbE, Wi-Fi 7 и Bluetooth 5.4 (через внешний модуль), 1 × PCIe 4.0 (2 линии) и 2 × PCIe 4.0 (1 линия), 6 × UART, 7 × I2C, 8 × I3C, 4 × PWM, 7 × I2S/TDM, 3 × PDM, 1 × USB 3.2 Gen2 (10 Гбит/с), 2 × USB 2.0 (Host/Device) и 1 × USB 2.0 (Host). Изделие выполнено в корпусе ETFC TFBGA с размерами 15,9 × 16,6 мм. Диапазон рабочих температур простирается от -40 до +105 °C. Вторая новинка, Genio 420, производится по 6-нм технологии. Процессор объединяет восемь ядер (2 × Arm Cortex-A78 с тактовой частотой 1,8 ГГц и 6 × Arm Cortex-A55 с частотой 1,6 ГГц) и графический ускоритель Arm Mali-G57 MC2. Модуль MediaTek NPU восьмого поколения обеспечивает ИИ-производительность на уровне 6,1 TOPS. Блок VPU поддерживает кодирование материалов H.264/H.265 (до 4Kp30) и декодирование H.264/H.265/VP9 (до 4Kp60) и MPEG4/VP8 (до 1080p60). Чип позволяет использовать оперативную память LPDDR4X-4266 (до 8 Гбайт) и LPDDR5/LPDDR5X-6400 (до 16 Гбайт), а также флеш-память UFS 3.1 (2 линии), eMMC 5.1, SD 3.0 / SDIO 3.0, SPI-NOR. Возможен вывод изображения на монитор 4Kp60 или два дисплея 2.5Kp60 через интерфейсы eDP, DP, LVDS и MIPI-DSI. Допускается использование до шести камер 1080p30 через 2 × MIPI-CSI. Прочие характеристики процессора таковы: контроллер 1GbE, опциональные адаптеры Wi-Fi 6 (1×1) + Bluetooth 5.3 на базе MT6631X или Wi-Fi 6E (2×2) + Bluetooth 5.3 на основе MT6637X, 1 × PCIe 2.0 (1L, RC, WoWLan), 4 × UART, 9 × I2C, 6 × SPI Master, 3 × PWM, GPIO, JTAG, 3 × USB 2.0, 1 × USB 3.2 Gen1 (5 Гбит/с; Host), 1 × USB 3.2 Gen1 (Host/Device). Чип выполнен в корпусе VFBGA с размерами 13,8 × 11,8 × 0,9 мм. Диапазон рабочих температур — от -20 до +95 °C. Процессоры поддерживают такие средства обеспечения безопасности, как Arm TrustZone, Security Boot (RSA4096), Crypto Engine и RNG. Говорится о совместимости с различными вариантами Linux, включая Yocto и Ubuntu.
13.03.2026 [23:19], Владимир Мироненко
VK Tech нарастила выручку в 2025 году на 38,0 %, а облако VK Cloud — на 13,5 %Разработчик корпоративного программного обеспечения VK Tech (входит в экосистему VK) опубликовал аудированные финансовые результаты за 2025 год. Выручка компании выросла на 38,0 % год к году — до 18,8 млрд руб. Наиболее высокий рост показали сервисы продуктивности VK WorkSpace (+75,1 % год к году) и бизнес-приложения (+65,7 % год к году). Компания сообщила, что рекуррентная (не связанная с оказанием единоразовых услуг клиентам) выручка выросла более чем в 2 раза год к году — до 12,8 млрд руб. (68 % от общего объёма выручки), что связано как с увеличением количества клиентов, использующих сервисы по модели On-Cloud, так и с ростом выручки от технической поддержки в рамках модели поставки On-Premise. Скорректированная EBITDA увеличилась на 21,6 % — до 4,8 млрд руб., рентабельность по скорректированной EBITDA составила 26 %. Количество клиентов выросло в 2,7 раза — до 31,9 тыс. VK Tech отметила, что среди них есть крупные, средние и малые компании из всех отраслей экономики. Выручка облачной платформы VK Cloud, объединяющей более 50 облачных сервисов для разработки и работы с данными в рамках направления «Облачная платформа», выросла на 13,5 % — до 6,5 млрд руб., в том числе выручка от продаж по модели On-Cloud увеличилась на 51,3 %. Выручка направления «Дата-сервисы» увеличилась на 15,5 % год к году — до 2,5 млрд руб., в том числе выручка от продаж в формате On-Premise — на 16,1 %. Драйвером роста стали решения Tarantool и VK Data Platform, выручка от которых увеличилась на 61,8 %. Компания отметила, что в 2025 году был запущен первый в России облачный Data Lakehouse — новый подход к хранению и анализу данных. Также была представлена новая версия Tarantool DB 3.0 с механизмом «охлаждения данных», а решение для обработки и хранения данных Tarantool подтвердило соответствие требованиям ФСТЭК России (№ 11). VK Tech сообщила, что в 2026 году усилит направление дата-сервисов за счёт ИИ-сервисов и инструментов аналитики больших данных на базе решений VK Predict, которые включают сервисы аналитики и системы поддержки принятия решений на основе анализа больших данных, технологий машинного обучения и ИИ.
13.03.2026 [18:31], Владимир Мироненко
Выручка Yandex B2B Tech в 2025 году выросла в 1,5 разаYandex B2B Tech (бизнес-группа «Яндекса»), опубликовала финансовые результаты за 2025 год в соответствии с международными стандартами финансовой отчётности (МСФО). Показатели отражают деятельность группы по двум ключевым направлениям: платформа для создания ИТ-продуктов Yandex Cloud и виртуальный офис «Яндекс 360». Выручка Yandex B2B Tech по двум направлениям за год выросла на 48 % — до 48,2 млрд руб. По оценке «Яндекса», Yandex B2B Tech растёт в 1,9 раза быстрее российского рынка корпоративных ИТ-решений. При этом выручка Yandex Cloud увеличилась на 39 % — до 27,6 млрд руб. Среднегодовой темп роста выручки платформы за последние 4 года составляет 52 % и четвёртый год подряд она показывает положительную маржинальность по EBITDA. В 2025 году 93 % выручки Yandex Cloud получено за счёт внешнего потребления. Большую часть (84 %) принесли клиенты из крупного и среднего бизнеса. Общее количество внешних клиентов платформы достигло 51 тыс. (рост год к году — на 17 %). Количество активных партнёров Yandex Cloud составляло 883 (+31 %). Выручка в партнёрском канале выросла год к году на 56 %. На ИИ- и ИБ-сервисы приходится 9 % от общей выручки Yandex Cloud за 2025 год (рост — почти вдвое). Выручка платформы для создания ИИ-решений Yandex AI Studio составила 2 млрд руб. (рост — почти в 2 раза). Клиенты платформы потребили через API 234 млрд токенов (в 7 раз больше год к году), в том числе, более 150 млрд — в IV квартале. Выручка ИБ-сервисов Yandex Cloud выросла в 2,5 раза год к году. Ими пользовался каждый четвёртый клиент платформы. На решения в формате on-premises пришлось 3,4 % общей выручки. Формат on-premises стал доступен для всех приоритетных направлений Yandex Cloud: ИИ, информационной безопасности, платформы данных и инфраструктурных решений. Также сообщается, что выручка от решений для создания и масштабирования инфраструктуры выросла год к году в 1,3 раза. По состоянию на конец 2025 года в Yandex Cloud насчитывалось более 300 тыс. запущенных виртуальных машин, а в облачном хранилище S3 находилось 4 Эбайт данных и около 3 млн объектов. Что касается второго направления, то выручка «Яндекса 360» составила за год 18,4 млрд руб. (рост — 59 % год к году). Среднегодовой темп роста выручки за последние 4 года равен 66 %. Ежемесячная аудитория «Яндекса 360», объединяющего 13 интегрированных между собой сервисов, превышала 102 млн пользователей. Его сервисами пользовались более 170 тыс. организаций. К концу года в виртуальном офисе насчитывалось 8,1 млн платных учётных записей, из них 2,2 млн приходилось на крупные организации. Компания сообщила, что в 2026 году в формате on-premises станут доступны все ключевые сервисы «Яндекса 360».
13.03.2026 [17:10], Руслан Авдеев
Crusoe представила периферийные зоны доступности Crusoe Edge Zones для внедрения ИИ-решений где угодноКомпания Crusoe анонсировала запуск периферийных зон доступности Crusoe Edge Zones на базе модульных ЦОД Crusoe Spark, обеспечивающих ИИ-вычисления практически в любой локации. Edge Zones предоставят ИИ-инфраструктуру с низкой задержкой и позволят внедрять суверенные ИИ-решения клиентам со всего мира. Благодаря Crusoe Edge Zones клиентам доступно развёртывание модулей Crusoe Spark в таких местах, которые недоступны традиционным гиперскейлерам и облачным провайдерам. Модули ЦОД Crusoe Spark для зон доступности выпускаются на недавно представленном заводе Spark Factory. Благодаря контролю над полным стеком работы над ИИ-инфраструктурой — от заводской сборки до облачной оркестрации — компания Crusoe способна развёртывать новые периферийные облака всего за три месяца. При этом это обойдётся значительно дешевле, чем классические варианты ЦОД. Благодаря этому можно будет предоставлять мощности для ИИ в тех локациях, где ограничены возможности имеющейся устаревшей инфраструктуры.
Источник изображения: Crusoe Crusoe Edge Zones на базе Crusoe Spark — дальнейшее масштабирование вертикально интегрированной концепции «ИИ-фабрик». Зоны оптимизированы для работы с облачной платформой Crusoe Cloud и инференс-службой Managed Inference. Благодаря запатентованной технологии Crusoe MemoryAlloy можно сократить «время до первого токена» в 9,9 раза. Кроме того, система обеспечит в 5 раз более высокую пропускную способность, чем стандартные конфигурации для инференса. В результате периферийные пользователи получат доступ к сверхэффективной инфраструктуре с высоким быстродействием. Ключевые сценарии применения:
В компании уверены, что в будущем ИИ-инфраструктура будет включать как гигантские кампусы гигаваттного масштаба для обучения ИИ, так и распределённые модули для обработки информации на периферии. На данный момент Crusoe инвестирует в оба направления. Концепция сетей модульных ЦОД, практически независимых от крупных кампусов, в последнее время на фоне конфликта на Ближнем Востоке становится всё популярнее. Независимо от этих событий недавно Akamai пообещала развернуть тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса, а LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в южнокорейском Пусане. |
|
