Материалы по тегу:
|
16.03.2026 [00:10], Владимир Мироненко
Гиперскейлеры и разработчики чипов создали консорциум OCI MSA для внедрения масштабируемого оптического интерконнекта для ИИГруппа компаний, включая AMD, Broadcom, Meta✴, Microsoft, NVIDIA и OpenAI, объявила о создании отраслевого консорциума OCI (Optical Compute Interconnect) Multi-Source Agreement (MSA) с целью формирования открытой экосистемы, управляемой гиперскейлерами, для обеспечения развития многовендорной цепочки поставок для масштабируемых оптических интерконнектов, отвечающих потребностям современной ИИ-инфраструктуры. Компании отметили, что по мере совершенствования LLM традиционные медные интерконнекты достигают физических пределов с точки зрения пропускной способности, энергоэффективности и дальности. Оптические соединения позволяют передавать данные на большие расстояния, сохраняя при этом более предсказуемое энергопотребление. Поэтому многие компании рассматривают их как решение для расширения ИИ-инфраструктуры. До сих пор в отрасли отсутствовал единый стандарт для реализации оптических каналов связи в крупномасштабных ИИ-системах. Спецификация OCI разработана с учетом оптимизации энергопотребления, задержки и стоимости. Она основана на NRZ-модуляции с WDM-мультиплексированием. Кроме того, она отражает смещение фокуса подключения с «модульно-ориентированной» к «кремниево-ориентированной» модели. Благодаря более тесной интеграции оптики с вычислительными и сетевыми компонентами, OCI обеспечивает значительное увеличение плотности полосы пропускания и масштабируемости системы, обеспечивая энергопотребление на уровне медных линий связи. Как сообщает консорциум, открытая и совместимая спецификация позволяет гиперскейлерам дезагрегировать любые XPU и коммутаторы на основе общего оптического физического уровня (PHY), обеспечивая соответствие лучших в своём классе вычислительных мощностей самым современным оптическим решениям. Консорциум опубликовал первоначальную спецификацию оптического интерфейса 200G, разработанного для масштабных сетей ИИ:
В спецификации также подробно описаны требования к мощности сигнала, чувствительности приеъёмника, устойчивости к шуму и коррекции ошибок для поддержания стабильности сигнала на экстремальных скоростях. Стандартизированный подход и совместный план развития значительно снижают риски интеграции, сокращают циклы разработки и обеспечат всей цепочке поставок стоек для ИИ чёткий, безопасный путь для развёртывания многопоколенных оптических межсоединений от разных производителей. Как отметил ресурс The Technology Express, консорциум выделяется тем, что объединяет компании, выступающие конкурентами в разработке аппаратного обеспечения для ИИ. Например, собственная разработка NVLink одной компании доминирует в высокопроизводительных кластерах GPU. В то же время другие игроки отрасли поддерживают конкурирующий открытый стандарт UALink. Однако протокол OCI MSA фокусируется на PHY, а не на протоколах. Поэтому он потенциально может поддерживать трафик NVLink и UALink по оптическому волокну вместо медных кабелей.
15.03.2026 [22:34], Владимир Мироненко
Китайская Hygon увеличила выручку благодаря высокому спросу на отечественные high-end чипыКитайская компания Hygon Information Technology, специализирующаяся на выпуске ускорителей и процессоров, опубликовала финансовые результаты за 2025 год. Выручка компании составила ¥14,38 млрд (около $2,1 млрд), что на 56,91 % больше, чем годом ранее, а чистая прибыль выросла на 31,66 % до ¥2,54 млрд (около $0,4 млрд). Впервые в истории компании её выручка за год превысила ¥10 млрд, сообщил ресурс Digitimes. Hygon объяснила значительный рост продаж «продолжающимся ростом спроса на high-end чипы отечественного производства», пишет ресурс South China Morning Post. Компания заявила, что ее рыночная доля в сегменте высокопроизводительных процессоров расширилась благодаря сотрудничеству с производителями оригинального оборудования и другими партнёрами в ключевых отраслях и сферах. В I квартале 2026 года Hygon прогнозирует выручку в размере ¥3,91–4,22 млрд ($0,57–$0,61 млрд), что на 62,91–75,82 % больше по сравнению с аналогичным периодом прошлого года, а чистая прибыль, как ожидается, вырастет на 22,56–42,32 %. Как отметил Digitimes, рост ИИ-рынка подтолкнул спрос на вычислительные ресурсы к беспрецедентным уровням. В период с 2010 по 2023 год глобальные потребности в вычислительных ресурсах ИИ увеличились в сотни тысяч раз, значительно превысив темпы согласно закону Мура. Глобальный ИИ-рынок быстро расширяется, достигнув $540 млрд в 2023 году и, по прогнозам, вырастет до $900 млрд к 2026 году. Внутренний рынок ускорителей ИИ в Китае вступает в фазу высокого роста. Согласно прогнозам отрасли, рынок ИИ-ускорителей может превысить в период с 2025 по 2029 год ¥1,3 трлн ($188,5 млрд) при среднегодовом темпе роста в 53,7 %. Финансовые показатели компаний в этом секторе Китая сильно различаются. Loongson сообщила о выручке в 2025 году в размере ¥635 млн ($92 млн, рост год к году на 25,99 %), оставаясь при этом убыточной. Компания Cambricon получила выручку в размере ¥6,497 млрд ($0,94 млрд), что на 453 % больше год к году и вернулась к прибыльности с чистой прибылью в ¥2,059 млрд ($0,3 млрд). Конкурентные позиции Hygon основаны на двух факторах: доступе к архитектуре x86, полученном в 2016 году благодаря соглашению о совместном предприятии и технологиях с AMD, а также собственным разработкам ускорителей. Архитектура x86 по-прежнему составляет примерно 85 % мировых серверных процессоров по состоянию на 2024 год. Доступ к набору инструкций позволяет процессорам Hygon поддерживать совместимость с существующими программными экосистемами, снижая затраты на миграцию и упрощая внедрение в корпоративной среде. Также Hygon вложила значительные средства в разработку DCU (Data Center Units), сопроцессоров на базе технологии GPGPU, предназначенных для обработки крупномасштабных параллельных рабочих нагрузок. Digitimes отметил, что высокий спрос на процессоры позволил Hygon повысить показатели прибыльности. С 2020 года по III квартал 2025 года валовая маржа Hygon выросла с 50,5 до 60,1 %, превзойдя показатели отечественных конкурентов, включая Loongson и Cambricon. При этом с 2021 года ежегодные инвестиции Hygon в НИОКР выросли более чем на 30 % в годовом исчислении, достигнув почти ¥3 млрд ($0,43 млрд) за 9 месяцев 2025 года. В 2025 году чистая прибыль компании росла медленнее, чем выручка, из-за более высокой интенсивности НИОКР и стимулирования инженерных кадров выделением акций. Ожидается, что скорректированная чистая прибыль за I квартал 2026 года вырастет на 63–82 % в годовом исчислении. В течение первых трёх кварталов 2025 года чистый операционный денежный поток вырос на 465,64 % год к году до ¥2,26 млрд ($0,33 млрд), что улучшило возможности компании по финансированию исследований и разработки чипов. К концу III квартала 2025 года обязательства Hygon по контрактам достигли ¥2,8 млрд ($0,41 млрд). В марте Hygon объявила о том, что её ускорители DCU будут проходить тестирование в Шанхайской лаборатории ИИ, которая сосредоточится на гибридном планировании и совместном инференсе. Эта инициатива основана на разработанной в лаборатории гетерогенной вычислительной платформе DeepLink, которая позволяет выполнять смешанные задачи инференса на разных китайских ИИ-чипах, включая Huawei Ascend, MetaX, T-Head Semiconductor и Biren. В случае успеха различные китайские ускорители можно будет использовать в рамках общих вычислительных кластеров, смещая отрасль от изолированных аппаратных хранилищ к скоординированным вычислительным архитектурам. Ещё одним фактором роста спроса на вычислительную инфраструктуру Hygon может стать расширение использования ИИ-агентов. По оценкам экспертов отрасли, выполнение задач ИИ-помощниками может расти более чем на 500 % в год в период с 2025 по 2030 год, а потребление токенов может увеличиться более чем на 3000 %.
15.03.2026 [11:46], Руслан Авдеев
Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаваттПо данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати. Кампус строит компания Crusoe на площадке Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году. Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт. Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.
Источник изображения: Crusoe Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители Nvidia Vera Rubin вместо ускорителей Nvidia Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы. По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии. Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами. Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta✴ Platforms. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей. По слухам, Nvidia уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.
15.03.2026 [11:16], Сергей Карасёв
GigaDevice представила чипы SPI NOR Flash серии GD25UF для периферийных и ИИ-устройствКомпания GigaDevice сообщила о расширении семейства чипов флеш-памяти SPI NOR Flash GD25UF: теперь в него входят изделия со сверхнизким энергопотреблением ёмкостью от 8 до 256 Мбит. Они предназначены для использования в периферийном оборудовании, маломощных ИИ-устройствах, электронике с питанием от батареи и пр. Чипы GD25UF работают при напряжении от 1,14 В до 1,26 В, что обеспечивает бесшовную интеграцию с «системами на чипе» (SoC), рассчитанными на 1,2 В. В частности, устраняется необходимость в дополнительных преобразователях или сложном управлении питанием. Благодаря этому сокращается количество вспомогательных компонентов в конечных устройствах, что способствует снижению стоимости при одновременном повышении энергоэффективности. Изделия семейства GD25UF поддерживают режимы Single, Dual, Quad и DTR Quad SPI. Максимальная тактовая частота составляет 120 МГц в режиме STR и 80 МГц в режиме DTR. Пропускная способность достигает 80 Мбайт/с. Отмечается, что по сравнению с традиционной флеш-памятью, рассчитанной на напряжение 1,8 В, у чипов GD25UF это значение снижено примерно на 33 %, что способствует сокращению энергопотребления на 50–70 %. Допускается работа в обычном режиме и с пониженным энергопотреблением. Заявленное количество циклов записи/стирания находится на отметке 100 тыс., тогда как сохранность данных гарантирована в течение 20 лет. Диапазон рабочих температур в зависимости от модификации простирается от -40 до +85 °C, от -40 до +105 °C или от -40 до +125 °C. Массовое производство изделий GD25UF уже началось: они доступы в исполнениях SOP8, WSON8, USON8 и WLCSP.
15.03.2026 [11:15], Сергей Карасёв
Выпуск ИИ-чипов DeepX DX-M2 отложен из-за проблем у TeslaИзменение графика разработки ИИ-ускорителя Tesla следующего поколения, по сообщению ресурса DigiTimes, привело к тому, что южнокорейская компания DeepX вынуждена отложить выпуск своих чипов DX-M2, массовое производство которых изначально было запланировано на II квартал 2027 года. Отмечается, что задержки возникли с разработкой изделия Tesla AI6. Предполагается, что это решение будет применяться для поддержания разнообразных нагрузок в инфраструктуре Tesla, включая платформы автономного вождения, системы человекоподобного робота Optimus и дата-центры для ИИ-задач. В 2025 году Tesla подписала контракт с Samsung на изготовление AI6 вплоть до декабря 2033-го: стоимость соглашения составляет $16 млрд. Первоначальный договор предусматривал производство около 16 тыс. пластин в месяц, однако затем Tesla запросила дополнительно 24 тыс. пластин, что в сумме предполагает объем до 40 тыс. пластин ежемесячно. Для Tesla AI6 планируется применение 2-нм техпроцесса Samsung. По такой же методике будут выпускаться чипы DeepX DX-M2. Для обоих этих изделий оговорено использование услуги Multi-Project Wafer (MPW), при которой на одной кремниевой пластине в рамках получения прототипов размещаются изделия нескольких разных заказчиков. Такой подход позволяет снизить затраты на разработку перед организацией массового производства. Однако, по информации DigiTimes, с выходом Tesla AI6 на этап MPW возникли задержки. С чем именно связаны сложности, не уточняется. Отраслевые эксперты полагают, что пересмотр графика может быть обусловлен изменением сроков инвестиций в автономные транспортные средства, роботизированные платформы и суперкомпьютеры с ИИ. Компания Samsung отказалась от комментариев, сославшись на конфиденциальность проектов заказчиков. Между тем из-за задержек Tesla выпуск чипов DeepX DX-M2 по программе MPW, который планировалось начать в апреле, переносится на более поздний срок. В соответствии с новым графиком, тестирование качества этих решений будет организовано не ранее III квартала текущего года. Ожидается, что DX-M2 обеспечит ИИ-производительность на уровне 80 TOPS при максимальном энергопотреблении примерно 5 Вт. Чип поддерживает память LPDDR5X. Утверждается, что процессор способен работать с ИИ-моделями, насчитывающими до 100 млрд параметров.
14.03.2026 [18:42], Владимир Мироненко
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИAmazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras. Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня». Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя. Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS. Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам». Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA. Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.
14.03.2026 [10:20], Сергей Карасёв
Silicon Motion представила контроллер SM8008 для загрузочных SSD в дата-центрахКомпания Silicon Motion анонсировала контроллер SM8008, предназначенный для создания загрузочных SSD в дата-центрах и накопителей корпоративного класса со сверхнизким энергопотреблением. Изделие, выполненное на фирменной платформе MonTitan, поддерживает интерфейс PCIe 5.0 x4 (протокол NVMe 2.0a). Отмечается, что стремительное развитие ИИ и облачной инфраструктуры сопровождается развёртыванием большого количества новых серверов, каждый из которых нуждается в надёжном и энергоэффективном загрузочном накопителе. В масштабах гиперскейлеров и крупных облачных провайдеров эксплуатируются миллионы серверов. В таких условиях даже незначительная экономия электроэнергии в расчёте на один SSD может привести к существенному снижению общего энергопотребления и уменьшению эксплуатационных расходов ЦОД.
Источник изображения: Silicon Motion Контроллер SM8008 изготавливается с применением 6-нм технологии TSMC. Он обеспечивает скорость последовательной передачи информации до 14 Гбайт/с, а показатель IOPS (операций ввода/вывода в секунду) достигает 2,3 млн. При этом энергопотребление в активном режиме составляет менее 5 Вт. Используется восьмиканальная архитектура NAND с поддержкой ONFI и Toggle DDR 5.0 со скоростью до 3600 МТ/с (MT/s). Говорится о возможности применения одноканальной памяти DDR4-3200 и LPDDR4-3200 ECC DRAM. Изделие соответствует спецификации OCP Hyperscale NVMe Boot SSD Version 1.0. Реализована поддержка TCG Opal 2.0, а также AES-256, SHA2-512 и RSA-3072b с аппаратным ускорением. Чип использует технологию Silicon Motion NANDCommand и усовершенствованный механизм коррекции ошибок LDPC, благодаря чему достигаются долговечность и стабильность производительности. На базе контроллера могут создаваться SSD в различных форм-факторах, включая M.2, U.2, E1.S и E3.S.
14.03.2026 [10:16], Сергей Карасёв
MediaTek представила чипы Genio Pro 5100 и Genio 420 для AIoT-приложенийКомпания MediaTek представила процессоры Genio Pro 5100 и Genio 420 с архитектурой Arm для AIoT-приложений и встраиваемых систем. Первый из названных чипов подходит, в частности, для автономных мобильных роботов, дронов, периферийного оборудования и автомобильных платформ, второй — для устройств умного дома, интерактивных дисплеев и пр. Изделие Genio Pro 5100 изготавливается по 3-нм технологии. Оно содержит восемь вычислительных ядер в конфигурации 1 × Arm Cortex-X925, 3 × Arm Cortex-X4 и 4 × Arm Cortex-A720. Присутствуют графический блок Arm Immortalis-G925 MC11 с поддержкой OpenGL, Vulkan и OpenCL, а также нейропроцессорный узел (NPU) с ИИ-производительностью более 50 TOPS. Модуль VPU обеспечивает возможность кодирования материалов H.264 и H.265 (до 8K30) и декодирования H.264, H.265, AV1 и VP9 (до 8K30). Реализована поддержка оперативной памяти LPDDR5x-8533 (до 30 Гбайт), а также флеш-памяти UFS 4.1, SD 3.0 и SPI-NOR. Допускается вывод изображения одновременно на три дисплея формата 4Kp60 через интерфейсы eDP 1.5 (4 линии), DisplayPort 1.4 (MST) и 3 × MIPI DSI (4 линии). Благодаря четырём интерфейсам MIPI-CSI (4 линии) возможно использование до 16 камер (1080p30). Среди прочего упомянута поддержка 2 × 2.5GbE, Wi-Fi 7 и Bluetooth 5.4 (через внешний модуль), 1 × PCIe 4.0 (2 линии) и 2 × PCIe 4.0 (1 линия), 6 × UART, 7 × I2C, 8 × I3C, 4 × PWM, 7 × I2S/TDM, 3 × PDM, 1 × USB 3.2 Gen2 (10 Гбит/с), 2 × USB 2.0 (Host/Device) и 1 × USB 2.0 (Host). Изделие выполнено в корпусе ETFC TFBGA с размерами 15,9 × 16,6 мм. Диапазон рабочих температур простирается от -40 до +105 °C. Вторая новинка, Genio 420, производится по 6-нм технологии. Процессор объединяет восемь ядер (2 × Arm Cortex-A78 с тактовой частотой 1,8 ГГц и 6 × Arm Cortex-A55 с частотой 1,6 ГГц) и графический ускоритель Arm Mali-G57 MC2. Модуль MediaTek NPU восьмого поколения обеспечивает ИИ-производительность на уровне 6,1 TOPS. Блок VPU поддерживает кодирование материалов H.264/H.265 (до 4Kp30) и декодирование H.264/H.265/VP9 (до 4Kp60) и MPEG4/VP8 (до 1080p60). Чип позволяет использовать оперативную память LPDDR4X-4266 (до 8 Гбайт) и LPDDR5/LPDDR5X-6400 (до 16 Гбайт), а также флеш-память UFS 3.1 (2 линии), eMMC 5.1, SD 3.0 / SDIO 3.0, SPI-NOR. Возможен вывод изображения на монитор 4Kp60 или два дисплея 2.5Kp60 через интерфейсы eDP, DP, LVDS и MIPI-DSI. Допускается использование до шести камер 1080p30 через 2 × MIPI-CSI. Прочие характеристики процессора таковы: контроллер 1GbE, опциональные адаптеры Wi-Fi 6 (1×1) + Bluetooth 5.3 на базе MT6631X или Wi-Fi 6E (2×2) + Bluetooth 5.3 на основе MT6637X, 1 × PCIe 2.0 (1L, RC, WoWLan), 4 × UART, 9 × I2C, 6 × SPI Master, 3 × PWM, GPIO, JTAG, 3 × USB 2.0, 1 × USB 3.2 Gen1 (5 Гбит/с; Host), 1 × USB 3.2 Gen1 (Host/Device). Чип выполнен в корпусе VFBGA с размерами 13,8 × 11,8 × 0,9 мм. Диапазон рабочих температур — от -20 до +95 °C. Процессоры поддерживают такие средства обеспечения безопасности, как Arm TrustZone, Security Boot (RSA4096), Crypto Engine и RNG. Говорится о совместимости с различными вариантами Linux, включая Yocto и Ubuntu.
13.03.2026 [23:19], Владимир Мироненко
VK Tech нарастила выручку в 2025 году на 38,0 %, а облако VK Cloud — на 13,5 %Разработчик корпоративного программного обеспечения VK Tech (входит в экосистему VK) опубликовал аудированные финансовые результаты за 2025 год. Выручка компании выросла на 38,0 % год к году — до 18,8 млрд руб. Наиболее высокий рост показали сервисы продуктивности VK WorkSpace (+75,1 % год к году) и бизнес-приложения (+65,7 % год к году). Компания сообщила, что рекуррентная (не связанная с оказанием единоразовых услуг клиентам) выручка выросла более чем в 2 раза год к году — до 12,8 млрд руб. (68 % от общего объёма выручки), что связано как с увеличением количества клиентов, использующих сервисы по модели On-Cloud, так и с ростом выручки от технической поддержки в рамках модели поставки On-Premise. Скорректированная EBITDA увеличилась на 21,6 % — до 4,8 млрд руб., рентабельность по скорректированной EBITDA составила 26 %. Количество клиентов выросло в 2,7 раза — до 31,9 тыс. VK Tech отметила, что среди них есть крупные, средние и малые компании из всех отраслей экономики. Выручка облачной платформы VK Cloud, объединяющей более 50 облачных сервисов для разработки и работы с данными в рамках направления «Облачная платформа», выросла на 13,5 % — до 6,5 млрд руб., в том числе выручка от продаж по модели On-Cloud увеличилась на 51,3 %. Выручка направления «Дата-сервисы» увеличилась на 15,5 % год к году — до 2,5 млрд руб., в том числе выручка от продаж в формате On-Premise — на 16,1 %. Драйвером роста стали решения Tarantool и VK Data Platform, выручка от которых увеличилась на 61,8 %. Компания отметила, что в 2025 году был запущен первый в России облачный Data Lakehouse — новый подход к хранению и анализу данных. Также была представлена новая версия Tarantool DB 3.0 с механизмом «охлаждения данных», а решение для обработки и хранения данных Tarantool подтвердило соответствие требованиям ФСТЭК России (№ 11). VK Tech сообщила, что в 2026 году усилит направление дата-сервисов за счёт ИИ-сервисов и инструментов аналитики больших данных на базе решений VK Predict, которые включают сервисы аналитики и системы поддержки принятия решений на основе анализа больших данных, технологий машинного обучения и ИИ.
13.03.2026 [18:31], Владимир Мироненко
Выручка Yandex B2B Tech в 2025 году выросла в 1,5 разаYandex B2B Tech (бизнес-группа «Яндекса»), опубликовала финансовые результаты за 2025 год в соответствии с международными стандартами финансовой отчётности (МСФО). Показатели отражают деятельность группы по двум ключевым направлениям: платформа для создания ИТ-продуктов Yandex Cloud и виртуальный офис «Яндекс 360». Выручка Yandex B2B Tech по двум направлениям за год выросла на 48 % — до 48,2 млрд руб. По оценке «Яндекса», Yandex B2B Tech растёт в 1,9 раза быстрее российского рынка корпоративных ИТ-решений. При этом выручка Yandex Cloud увеличилась на 39 % — до 27,6 млрд руб. Среднегодовой темп роста выручки платформы за последние 4 года составляет 52 % и четвёртый год подряд она показывает положительную маржинальность по EBITDA. В 2025 году 93 % выручки Yandex Cloud получено за счёт внешнего потребления. Большую часть (84 %) принесли клиенты из крупного и среднего бизнеса. Общее количество внешних клиентов платформы достигло 51 тыс. (рост год к году — на 17 %). Количество активных партнёров Yandex Cloud составляло 883 (+31 %). Выручка в партнёрском канале выросла год к году на 56 %. На ИИ- и ИБ-сервисы приходится 9 % от общей выручки Yandex Cloud за 2025 год (рост — почти вдвое). Выручка платформы для создания ИИ-решений Yandex AI Studio составила 2 млрд руб. (рост — почти в 2 раза). Клиенты платформы потребили через API 234 млрд токенов (в 7 раз больше год к году), в том числе, более 150 млрд — в IV квартале. Выручка ИБ-сервисов Yandex Cloud выросла в 2,5 раза год к году. Ими пользовался каждый четвёртый клиент платформы. На решения в формате on-premises пришлось 3,4 % общей выручки. Формат on-premises стал доступен для всех приоритетных направлений Yandex Cloud: ИИ, информационной безопасности, платформы данных и инфраструктурных решений. Также сообщается, что выручка от решений для создания и масштабирования инфраструктуры выросла год к году в 1,3 раза. По состоянию на конец 2025 года в Yandex Cloud насчитывалось более 300 тыс. запущенных виртуальных машин, а в облачном хранилище S3 находилось 4 Эбайт данных и около 3 млн объектов. Что касается второго направления, то выручка «Яндекса 360» составила за год 18,4 млрд руб. (рост — 59 % год к году). Среднегодовой темп роста выручки за последние 4 года равен 66 %. Ежемесячная аудитория «Яндекса 360», объединяющего 13 интегрированных между собой сервисов, превышала 102 млн пользователей. Его сервисами пользовались более 170 тыс. организаций. К концу года в виртуальном офисе насчитывалось 8,1 млн платных учётных записей, из них 2,2 млн приходилось на крупные организации. Компания сообщила, что в 2026 году в формате on-premises станут доступны все ключевые сервисы «Яндекса 360». |
|


