Материалы по тегу:
|
14.03.2026 [18:42], Владимир Мироненко
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИAmazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras. Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня». Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя. Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS. Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам». Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA. Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.
14.03.2026 [10:20], Сергей Карасёв
Silicon Motion представила контроллер SM8008 для загрузочных SSD в дата-центрахКомпания Silicon Motion анонсировала контроллер SM8008, предназначенный для создания загрузочных SSD в дата-центрах и накопителей корпоративного класса со сверхнизким энергопотреблением. Изделие, выполненное на фирменной платформе MonTitan, поддерживает интерфейс PCIe 5.0 x4 (протокол NVMe 2.0a). Отмечается, что стремительное развитие ИИ и облачной инфраструктуры сопровождается развёртыванием большого количества новых серверов, каждый из которых нуждается в надёжном и энергоэффективном загрузочном накопителе. В масштабах гиперскейлеров и крупных облачных провайдеров эксплуатируются миллионы серверов. В таких условиях даже незначительная экономия электроэнергии в расчёте на один SSD может привести к существенному снижению общего энергопотребления и уменьшению эксплуатационных расходов ЦОД.
Источник изображения: Silicon Motion Контроллер SM8008 изготавливается с применением 6-нм технологии TSMC. Он обеспечивает скорость последовательной передачи информации до 14 Гбайт/с, а показатель IOPS (операций ввода/вывода в секунду) достигает 2,3 млн. При этом энергопотребление в активном режиме составляет менее 5 Вт. Используется восьмиканальная архитектура NAND с поддержкой ONFI и Toggle DDR 5.0 со скоростью до 3600 МТ/с (MT/s). Говорится о возможности применения одноканальной памяти DDR4-3200 и LPDDR4-3200 ECC DRAM. Изделие соответствует спецификации OCP Hyperscale NVMe Boot SSD Version 1.0. Реализована поддержка TCG Opal 2.0, а также AES-256, SHA2-512 и RSA-3072b с аппаратным ускорением. Чип использует технологию Silicon Motion NANDCommand и усовершенствованный механизм коррекции ошибок LDPC, благодаря чему достигаются долговечность и стабильность производительности. На базе контроллера могут создаваться SSD в различных форм-факторах, включая M.2, U.2, E1.S и E3.S.
14.03.2026 [10:16], Сергей Карасёв
MediaTek представила чипы Genio Pro 5100 и Genio 420 для AIoT-приложенийКомпания MediaTek представила процессоры Genio Pro 5100 и Genio 420 с архитектурой Arm для AIoT-приложений и встраиваемых систем. Первый из названных чипов подходит, в частности, для автономных мобильных роботов, дронов, периферийного оборудования и автомобильных платформ, второй — для устройств умного дома, интерактивных дисплеев и пр. Изделие Genio Pro 5100 изготавливается по 3-нм технологии. Оно содержит восемь вычислительных ядер в конфигурации 1 × Arm Cortex-X925, 3 × Arm Cortex-X4 и 4 × Arm Cortex-A720. Присутствуют графический блок Arm Immortalis-G925 MC11 с поддержкой OpenGL, Vulkan и OpenCL, а также нейропроцессорный узел (NPU) с ИИ-производительностью более 50 TOPS. Модуль VPU обеспечивает возможность кодирования материалов H.264 и H.265 (до 8K30) и декодирования H.264, H.265, AV1 и VP9 (до 8K30). Реализована поддержка оперативной памяти LPDDR5x-8533 (до 30 Гбайт), а также флеш-памяти UFS 4.1, SD 3.0 и SPI-NOR. Допускается вывод изображения одновременно на три дисплея формата 4Kp60 через интерфейсы eDP 1.5 (4 линии), DisplayPort 1.4 (MST) и 3 × MIPI DSI (4 линии). Благодаря четырём интерфейсам MIPI-CSI (4 линии) возможно использование до 16 камер (1080p30). Среди прочего упомянута поддержка 2 × 2.5GbE, Wi-Fi 7 и Bluetooth 5.4 (через внешний модуль), 1 × PCIe 4.0 (2 линии) и 2 × PCIe 4.0 (1 линия), 6 × UART, 7 × I2C, 8 × I3C, 4 × PWM, 7 × I2S/TDM, 3 × PDM, 1 × USB 3.2 Gen2 (10 Гбит/с), 2 × USB 2.0 (Host/Device) и 1 × USB 2.0 (Host). Изделие выполнено в корпусе ETFC TFBGA с размерами 15,9 × 16,6 мм. Диапазон рабочих температур простирается от -40 до +105 °C. Вторая новинка, Genio 420, производится по 6-нм технологии. Процессор объединяет восемь ядер (2 × Arm Cortex-A78 с тактовой частотой 1,8 ГГц и 6 × Arm Cortex-A55 с частотой 1,6 ГГц) и графический ускоритель Arm Mali-G57 MC2. Модуль MediaTek NPU восьмого поколения обеспечивает ИИ-производительность на уровне 6,1 TOPS. Блок VPU поддерживает кодирование материалов H.264/H.265 (до 4Kp30) и декодирование H.264/H.265/VP9 (до 4Kp60) и MPEG4/VP8 (до 1080p60). Чип позволяет использовать оперативную память LPDDR4X-4266 (до 8 Гбайт) и LPDDR5/LPDDR5X-6400 (до 16 Гбайт), а также флеш-память UFS 3.1 (2 линии), eMMC 5.1, SD 3.0 / SDIO 3.0, SPI-NOR. Возможен вывод изображения на монитор 4Kp60 или два дисплея 2.5Kp60 через интерфейсы eDP, DP, LVDS и MIPI-DSI. Допускается использование до шести камер 1080p30 через 2 × MIPI-CSI. Прочие характеристики процессора таковы: контроллер 1GbE, опциональные адаптеры Wi-Fi 6 (1×1) + Bluetooth 5.3 на базе MT6631X или Wi-Fi 6E (2×2) + Bluetooth 5.3 на основе MT6637X, 1 × PCIe 2.0 (1L, RC, WoWLan), 4 × UART, 9 × I2C, 6 × SPI Master, 3 × PWM, GPIO, JTAG, 3 × USB 2.0, 1 × USB 3.2 Gen1 (5 Гбит/с; Host), 1 × USB 3.2 Gen1 (Host/Device). Чип выполнен в корпусе VFBGA с размерами 13,8 × 11,8 × 0,9 мм. Диапазон рабочих температур — от -20 до +95 °C. Процессоры поддерживают такие средства обеспечения безопасности, как Arm TrustZone, Security Boot (RSA4096), Crypto Engine и RNG. Говорится о совместимости с различными вариантами Linux, включая Yocto и Ubuntu.
13.03.2026 [23:19], Владимир Мироненко
VK Tech нарастила выручку в 2025 году на 38,0 %, а облако VK Cloud — на 13,5 %Разработчик корпоративного программного обеспечения VK Tech (входит в экосистему VK) опубликовал аудированные финансовые результаты за 2025 год. Выручка компании выросла на 38,0 % год к году — до 18,8 млрд руб. Наиболее высокий рост показали сервисы продуктивности VK WorkSpace (+75,1 % год к году) и бизнес-приложения (+65,7 % год к году). Компания сообщила, что рекуррентная (не связанная с оказанием единоразовых услуг клиентам) выручка выросла более чем в 2 раза год к году — до 12,8 млрд руб. (68 % от общего объёма выручки), что связано как с увеличением количества клиентов, использующих сервисы по модели On-Cloud, так и с ростом выручки от технической поддержки в рамках модели поставки On-Premise. Скорректированная EBITDA увеличилась на 21,6 % — до 4,8 млрд руб., рентабельность по скорректированной EBITDA составила 26 %. Количество клиентов выросло в 2,7 раза — до 31,9 тыс. VK Tech отметила, что среди них есть крупные, средние и малые компании из всех отраслей экономики. Выручка облачной платформы VK Cloud, объединяющей более 50 облачных сервисов для разработки и работы с данными в рамках направления «Облачная платформа», выросла на 13,5 % — до 6,5 млрд руб., в том числе выручка от продаж по модели On-Cloud увеличилась на 51,3 %. Выручка направления «Дата-сервисы» увеличилась на 15,5 % год к году — до 2,5 млрд руб., в том числе выручка от продаж в формате On-Premise — на 16,1 %. Драйвером роста стали решения Tarantool и VK Data Platform, выручка от которых увеличилась на 61,8 %. Компания отметила, что в 2025 году был запущен первый в России облачный Data Lakehouse — новый подход к хранению и анализу данных. Также была представлена новая версия Tarantool DB 3.0 с механизмом «охлаждения данных», а решение для обработки и хранения данных Tarantool подтвердило соответствие требованиям ФСТЭК России (№ 11). VK Tech сообщила, что в 2026 году усилит направление дата-сервисов за счёт ИИ-сервисов и инструментов аналитики больших данных на базе решений VK Predict, которые включают сервисы аналитики и системы поддержки принятия решений на основе анализа больших данных, технологий машинного обучения и ИИ.
13.03.2026 [18:31], Владимир Мироненко
Выручка Yandex B2B Tech в 2025 году выросла в 1,5 разаYandex B2B Tech (бизнес-группа «Яндекса»), опубликовала финансовые результаты за 2025 год в соответствии с международными стандартами финансовой отчётности (МСФО). Показатели отражают деятельность группы по двум ключевым направлениям: платформа для создания ИТ-продуктов Yandex Cloud и виртуальный офис «Яндекс 360». Выручка Yandex B2B Tech по двум направлениям за год выросла на 48 % — до 48,2 млрд руб. По оценке «Яндекса», Yandex B2B Tech растёт в 1,9 раза быстрее российского рынка корпоративных ИТ-решений. При этом выручка Yandex Cloud увеличилась на 39 % — до 27,6 млрд руб. Среднегодовой темп роста выручки платформы за последние 4 года составляет 52 % и четвёртый год подряд она показывает положительную маржинальность по EBITDA. В 2025 году 93 % выручки Yandex Cloud получено за счёт внешнего потребления. Большую часть (84 %) принесли клиенты из крупного и среднего бизнеса. Общее количество внешних клиентов платформы достигло 51 тыс. (рост год к году — на 17 %). Количество активных партнёров Yandex Cloud составляло 883 (+31 %). Выручка в партнёрском канале выросла год к году на 56 %. На ИИ- и ИБ-сервисы приходится 9 % от общей выручки Yandex Cloud за 2025 год (рост — почти вдвое). Выручка платформы для создания ИИ-решений Yandex AI Studio составила 2 млрд руб. (рост — почти в 2 раза). Клиенты платформы потребили через API 234 млрд токенов (в 7 раз больше год к году), в том числе, более 150 млрд — в IV квартале. Выручка ИБ-сервисов Yandex Cloud выросла в 2,5 раза год к году. Ими пользовался каждый четвёртый клиент платформы. На решения в формате on-premises пришлось 3,4 % общей выручки. Формат on-premises стал доступен для всех приоритетных направлений Yandex Cloud: ИИ, информационной безопасности, платформы данных и инфраструктурных решений. Также сообщается, что выручка от решений для создания и масштабирования инфраструктуры выросла год к году в 1,3 раза. По состоянию на конец 2025 года в Yandex Cloud насчитывалось более 300 тыс. запущенных виртуальных машин, а в облачном хранилище S3 находилось 4 Эбайт данных и около 3 млн объектов. Что касается второго направления, то выручка «Яндекса 360» составила за год 18,4 млрд руб. (рост — 59 % год к году). Среднегодовой темп роста выручки за последние 4 года равен 66 %. Ежемесячная аудитория «Яндекса 360», объединяющего 13 интегрированных между собой сервисов, превышала 102 млн пользователей. Его сервисами пользовались более 170 тыс. организаций. К концу года в виртуальном офисе насчитывалось 8,1 млн платных учётных записей, из них 2,2 млн приходилось на крупные организации. Компания сообщила, что в 2026 году в формате on-premises станут доступны все ключевые сервисы «Яндекса 360».
13.03.2026 [17:10], Руслан Авдеев
Crusoe представила периферийные зоны доступности Crusoe Edge Zones для внедрения ИИ-решений где угодноКомпания Crusoe анонсировала запуск периферийных зон доступности Crusoe Edge Zones на базе модульных ЦОД Crusoe Spark, обеспечивающих ИИ-вычисления практически в любой локации. Edge Zones предоставят ИИ-инфраструктуру с низкой задержкой и позволят внедрять суверенные ИИ-решения клиентам со всего мира. Благодаря Crusoe Edge Zones клиентам доступно развёртывание модулей Crusoe Spark в таких местах, которые недоступны традиционным гиперскейлерам и облачным провайдерам. Модули ЦОД Crusoe Spark для зон доступности выпускаются на недавно представленном заводе Spark Factory. Благодаря контролю над полным стеком работы над ИИ-инфраструктурой — от заводской сборки до облачной оркестрации — компания Crusoe способна развёртывать новые периферийные облака всего за три месяца. При этом это обойдётся значительно дешевле, чем классические варианты ЦОД. Благодаря этому можно будет предоставлять мощности для ИИ в тех локациях, где ограничены возможности имеющейся устаревшей инфраструктуры.
Источник изображения: Crusoe Crusoe Edge Zones на базе Crusoe Spark — дальнейшее масштабирование вертикально интегрированной концепции «ИИ-фабрик». Зоны оптимизированы для работы с облачной платформой Crusoe Cloud и инференс-службой Managed Inference. Благодаря запатентованной технологии Crusoe MemoryAlloy можно сократить «время до первого токена» в 9,9 раза. Кроме того, система обеспечит в 5 раз более высокую пропускную способность, чем стандартные конфигурации для инференса. В результате периферийные пользователи получат доступ к сверхэффективной инфраструктуре с высоким быстродействием. Ключевые сценарии применения:
В компании уверены, что в будущем ИИ-инфраструктура будет включать как гигантские кампусы гигаваттного масштаба для обучения ИИ, так и распределённые модули для обработки информации на периферии. На данный момент Crusoe инвестирует в оба направления. Концепция сетей модульных ЦОД, практически независимых от крупных кампусов, в последнее время на фоне конфликта на Ближнем Востоке становится всё популярнее. Независимо от этих событий недавно Akamai пообещала развернуть тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса, а LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в южнокорейском Пусане.
13.03.2026 [15:42], Сергей Карасёв
Пропускная способность сети фильтрации Curator превысила 6 Тбит/сКомпания Curator, специализирующаяся на обеспечении доступности интернет-ресурсов и нейтрализации DDoS-атак, объявила об увеличении пропускной способности своей глобальной сети фильтрации. В результате модернизации инфраструктуры она превысила 6 Тбит/с, что позволяет эффективно противостоять растущему масштабу современных DDoS-атак и гарантировать устойчивость и постоянную доступность сервисов клиентов. За последний год интенсивность DDoS-атак резко увеличилась. Если в 2024 году максимальная мощность атак в пике достигала 1,14 Тбит/с, то к концу 2025 года специалисты Curator фиксировали уже несколько атак интенсивностью более 3 Тбит/с. В ответ на эту тенденцию компания провела масштабную работу по развитию своей инфраструктуры. В течение последних месяцев были расширены мощности сети, а также увеличено количество центров фильтрации и география присутствия системы. На данный момент сеть фильтрации Curator включает 9 собственных и 12 партнёрских центров очистки трафика. Центры фильтрации расположены в ключевых точках концентрации интернет-трафика и подключены к трансконтинентальным Tier-1 провайдерам, а также ведущим региональным магистральным интернет-провайдерам, что позволяет компании поддерживать самый высокий среди аналогов гарантированный уровень доступности приложений на уровне 99,95% и нивелировать любые сетевые атаки, достигшие в прошлом году рекордных уровней. «Мы постоянно совершенствуем защиту, гарантируя клиентам устойчивость бизнеса даже при росте угроз. Если ещё недавно атаки свыше терабита считались исключением, то сегодня атаки в несколько Тбит/с уже становятся новой реальностью. Расширение пропускной способности сети Curator до более чем 6 Тбит/с — ответ на эту динамику и необходимый шаг для обеспечения стабильной работы сервисов наших клиентов. Мы действуем на опережение, ведь наша философия — непрерывная доступность», — комментирует Дмитрий Ткачев, генеральный директор Curator.
13.03.2026 [15:40], Руслан Авдеев
Британский провайдер научился искать утечки воды с помощью оптоволокнаДочерняя структура BT — британский телеком-провайдер Openreach — приняла участие в необычном эксперименте совместно с Affinity Water и Lightsonic. Для выявления утечек воды в коммунальных системах использовалось оптоволокно сети широкополосного доступа Openreach, сообщает Datacenter Dynamics. Компания отметила, что пилотные испытания проходят успешно: телеком-провайдер помог партнёрам сэкономить 2 тыс. м³ воды всего за три месяца. Это приблизительно соответствует ежедневному потреблению воды 10 тыс. человек. Openreach при участии Affinity Water и Lightsonic использовали распределённое акустическое зондирование (Distributed Acoustic Sensing, DAS) — технология фактически превращает обычное оптоволокно в протяжённую сеть микрофонов высокой чувствительности. Фактически это тысячи «датчиков», готовых «услышать» места утечек воды в трубах водопровода и точно определить их местоположение. Цель проекта — поддержка водоснабжающих компаний вроде Affinity. Технология позволит решить проблему утечек. По некоторым данным, Англия и Уэльс ежегодно теряют из-за них около 3 млн м³ питьевой воды.
Источник изображения: Chris Bair/unsplash.com Специальная платформа для обнаружения утечек разработана Lightsonic. Испытания проводились в пяти местах с применением оптоволокна для мониторинга 650 км сетей водопроводов Affinity Water. Всего удалось обнаружить более 100 утечек воды. Как заявили в Openreach, результаты пилотных испытаний показывают, что новая оптоволоконная инфраструктура может обеспечивать не только широкополосный доступ, но и решать другие задачи — например, экономию воды. Предполагается, что технологию можно использовать и в других целях, в том числе для поиска утечек газа и мониторинга состояния мостов, тоннелей и других конструкций. Openreach подчёркивает, что технология позволяет регистрировать вибрации от утечек, строительных работ и других источников. Анализируя изменения светового сигнала и используя машинное обучение, можно точно выявлять место вибраций, при этом отфильтровывая фоновые шумы. Важно, что можно использовать уже проложенное в земле оптоволокно для круглосуточного мониторинга — это исключает необходимость дополнительных земляных работ. Если утечка будет обнаружена, система сможет выделить область исследования с точностью до нескольких метров, куда и будут направлены ремонтные бригады. Предполагается, что это поможет уменьшить перебои в работе водопроводов; при этом технологию можно легко масштабировать по всей территории Великобритании.
Источник изображения: Openreach По словам представителя Lightsonic, фактически речь идёт о преобразовании оптоволоконной сети в единый сенсорный слой — это открывает огромные возможности для мониторинга. Результаты эксперимента наглядно показывают, что датчики на основе ВОЛС уже сегодня могут помочь защите окружающей среды, а также создавать новые решения для более масштабного мониторинга систем коммунальных услуг в будущем. Инфраструктура различного назначения всё теснее связывается в Великобритании. Так, ещё в 2022 году сообщалось, что Южный Йоркшир протестирует прокладку оптоволокна в водопроводах. В конце 2024 года появилась информация, что один из наиболее отдалённых островов Великобритании — Папа-Уэстрей (Papa Westray) в Оркнейском архипелаге получил широкополосное оптоволоконное интернет-подключение по водопроводным трубам, а в 2025 году британским провайдерам предложила тянуть «оптику» по заброшенным газовым трубам и водопроводам компания AssetHUB.
13.03.2026 [14:32], Руслан Авдеев
Microsoft и Meta✴ заключили соглашения о дополнительной аренде ЦОД на $50 млрдMicrosoft и Meta✴ Platforms в последнем квартале обязались арендовать дата-центры на сумму около $50 млрд. Это свидетельствует о растущих ставках, которые техногиганты делают на ИИ-решения, сообщает Bloomberg. Эти события помогли увеличить общий объём обязательств по аренде ЦОД гиперскейлерами в будущем до более чем $700 млрд. Помимо Microsoft и Meta✴, в эту группу входят Oracle и Amazon (AWS). Анализ квартальных отчётов, проведённый Bloomberg, свидетельствует, что обязательства неуклонно росли в течение последнего года. Будущие расходы добавятся к уже действующим арендным договорам, но не будут отображаться в отчётности компаний, пока не начнутся платежи по новым соглашениям. Как правило, договоры аренды касаются ЦОД, но речь также может идти об аренде офисов и складов; в некоторых предусмотрено расторжение соглашений при определённых условиях.
Источник изображения: chris robert/unsplash.com В последние месяцы Microsoft и Meta✴ активно свидетельствовали о стремлении увеличить вычислительные мощности для создания ИИ-решений. У Microsoft уже заключены договоры на сумму порядка $155 млрд, у Meta✴ — $104 млрд. Обе компании, по данным Datacenter Dynamics, ведут переговоры о резервировании мощностей в кампусе Oracle/OpenAI в Абилине (Abilene, Техас), который строится в рамках проекта Stargate. Недавно Oracle отказалась от планов расширения на площадке, оставив доступные мощности желающим. Рост расходов особенно ощутим для Microsoft, приостановившей аренду дата-центров на большую часть 2025 года. Теперь дефицит площадей ЦОД приобрёл критическое значение для руководства компании и инвесторов. В IV календарном квартале 2025 года компания нарастила мощность своих ЦОД на 1 ГВт, потратив $6,7 млрд. Кварталом ранее речь шла о $11,1 млрд.
Источник изображения: Bloomberg При этом больше всего средств на аренду дата-центров потратила компания Oracle. Согласно последним данным, компания должна выплатить $261 млрд по договорам аренды, ещё не вступившим в силу. Как сообщает Datacenter Dynamics, сумма выросла с ноября 2025 года, когда Oracle говорила о $248 млрд арендных обязательств, — это на 148 % больше по сравнению с августом того же года. Впрочем, в последнем квартале обязательства у компании были меньше, чем у ключевых конкурентов, поскольку она уже подписала контракты на аренду многочисленных крупных площадок, необходимых для партнёрства с OpenAI. Значительная часть активности Oracle на рынке аренды приходилась на II–III кварталы 2025 года; приблизительно тогда же Oracle и OpenAI заключили облачную сделку на $300 млрд. По данным Evercore ISI, обязательства Oracle будут оплачиваться в течение 15–19 лет. Это свидетельствует о долгосрочной стратегии компании, ориентированной на развитие облачных технологий.
13.03.2026 [14:12], Руслан Авдеев
Китайская ByteDance обойдёт санкции США и получит доступ к чипам NVIDIA B200 на $2,5 млрдМатеринская компания TikTok — китайская ByteDance — получила доступ к современным американским ускорителям NVIDIA. По последним данным, она обошла введённые властями США ограничения на доступ к технологиям, заключив соглашение с Aolani Cloud из Юго-Восточной Азии, сообщает The Wall Street Journal. В Малайзии будет использоваться около 500 вычислительных систем NVIDIA Blackwell на основе 36 тыс. ИИ-ускорителей NVIDIA B200. Источники сообщают, что Aolani закупает серверы у компании Aivres, занимающейся их сборкой. Стоимость оборудования, вероятно, составит более $2,5 млрд. При этом Aolani сообщает, что пока располагает оборудованием на сумму $100 млн. Источники сообщают, что ByteDance намерена организовать исследования в сфере ИИ за пределами КНР и удовлетворить спрос клиентов со всего мира на решения на основе искусственного интеллекта. Уже сегодня она предлагает обычным пользователям разнообразные ИИ-приложения, бросая вызов Google, OpenAI и другим американским компаниям; четверть выручки уже поступает из-за пределов Китая. Так, она разработала более десятка приложений (китайские и глобальные версии) — чат-бот Dola, редактор видео Dreamina и др.; модель Seedance позволяет генерировать реалистичные видеосцены на основе пользовательских сценариев.
Источник изображения: Esmonde Yong/unspalsh.com Согласно январскому рейтингу Andreessen Horowitz, компания курирует пять из 50 наиболее популярных в мире пользовательских ИИ-приложений по количеству ежемесячных активных пользователей. В ByteDance работают команды исследователей в филиалах в Сингапуре и даже США. Напряжённость в отношениях между США и Китаем мешает бизнесу ByteDance: в январе компании пришлось передать американское подразделение TikTok под контроль «дружественно настроенным» к США инвесторам. Более трёх лет китайские технобизнесы имеют дело с американским экспортным контролем, не позволяющим напрямую продавать Китаю передовые ИИ-чипы вроде моделей серии Blackwell. Для развития технологий китайские компании вынуждены тратить всё больше средств на доступ к вычислительным мощностям за рубежом, благодаря чему возникла целая индустрия посредников, строящих ЦОД на продуктах NVIDIA для сдачи в аренду китайским клиентам. По имеющимся данным, в конце 2023 года инвесторы создали компанию Aolani с материнским холдингом на Каймановых островах. В числе инвесторов — сингапурская K3 Ventures. Aolani является приоритетным облачным партнёром NVIDIA, имеющим доступ к её новейшим чипам. С февраля 2025 года Aolani сдаёт ByteDance в аренду ИИ-серверы в Малайзии на основе ускорителей NVIDIA H100; за ускорители Blackwell компания ByteDance уже внесла предварительные платежи. Эти ускорители намерены развернуть на объектах в Малайзии. Помимо Малайзии, компания намерена создать мощности в Южной Корее, Австралии и Европе.
Источник изображения: Bloomberg Подчёркивается, что бизнес сотрудничает с американской юридической компанией, чтобы соответствовать американским требованиям. По мнению юристов, изменения правовых норм будут носить «перспективный, а не ретроспективный характер». Отмечается, что Aolani соблюдает все правила экспортного контроля, а ускорители не передаются клиентам и те не имеют на них никаких прав. В NVIDIA также придерживаются позиции, что американские правила экспорта позволяют создавать облачные сервисы вне стран, подпадающих под ограничения, вроде Китая, а сам вендор проверял всех облачных партнёров, прежде чем продавать чипы прямо или косвенно. По информации The Wall Street Journal, ByteDance вела переговоры об использовании ИИ-серверов с более чем 7 тыс. B200 в ЦОД в Индонезии, а Reuters сообщает, что компания также вела переговоры с США о разрешении покупки ускорителей NVIDIA H200, но её не удовлетворили условия их использования. Ещё в 2024 году сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, причём на территории самих Соединённых Штатов. Также в конце 2025 года появилась информация, что китайская INF Tech обошла санкции США на доступ к ускорителям NVIDIA Blackwell через индонезийское облако. |
|
