Материалы по тегу: hardware

15.03.2026 [22:34], Владимир Мироненко

Китайская Hygon увеличила выручку благодаря высокому спросу на отечественные high-end чипы

Китайская компания Hygon Information Technology, специализирующаяся на выпуске ускорителей и процессоров, опубликовала финансовые результаты за 2025 год. Выручка компании составила ¥14,38 млрд (около $2,1 млрд), что на 56,91 % больше, чем годом ранее, а чистая прибыль выросла на 31,66 % до ¥2,54 млрд (около $0,4 млрд). Впервые в истории компании её выручка за год превысила ¥10 млрд, сообщил ресурс Digitimes.

Hygon объяснила значительный рост продаж «продолжающимся ростом спроса на high-end чипы отечественного производства», пишет ресурс South China Morning Post. Компания заявила, что ее рыночная доля в сегменте высокопроизводительных процессоров расширилась благодаря сотрудничеству с производителями оригинального оборудования и другими партнёрами в ключевых отраслях и сферах.

 Источник изображений: Hygon/Digitimes

Источник изображений: Hygon/Digitimes

В I квартале 2026 года Hygon прогнозирует выручку в размере ¥3,91–4,22 млрд ($0,57–$0,61 млрд), что на 62,91–75,82 % больше по сравнению с аналогичным периодом прошлого года, а чистая прибыль, как ожидается, вырастет на 22,56–42,32 %.

Как отметил Digitimes, рост ИИ-рынка подтолкнул спрос на вычислительные ресурсы к беспрецедентным уровням. В период с 2010 по 2023 год глобальные потребности в вычислительных ресурсах ИИ увеличились в сотни тысяч раз, значительно превысив темпы согласно закону Мура.

Глобальный ИИ-рынок быстро расширяется, достигнув $540 млрд в 2023 году и, по прогнозам, вырастет до $900 млрд к 2026 году.

Внутренний рынок ускорителей ИИ в Китае вступает в фазу высокого роста. Согласно прогнозам отрасли, рынок ИИ-ускорителей может превысить в период с 2025 по 2029 год ¥1,3 трлн ($188,5 млрд) при среднегодовом темпе роста в 53,7 %.

Финансовые показатели компаний в этом секторе Китая сильно различаются. Loongson сообщила о выручке в 2025 году в размере ¥635 млн ($92 млн, рост год к году на 25,99 %), оставаясь при этом убыточной. Компания Cambricon получила выручку в размере ¥6,497 млрд ($0,94 млрд), что на 453 % больше год к году и вернулась к прибыльности с чистой прибылью в ¥2,059 млрд ($0,3 млрд).

Конкурентные позиции Hygon основаны на двух факторах: доступе к архитектуре x86, полученном в 2016 году благодаря соглашению о совместном предприятии и технологиях с AMD, а также собственным разработкам ускорителей.

Архитектура x86 по-прежнему составляет примерно 85 % мировых серверных процессоров по состоянию на 2024 год. Доступ к набору инструкций позволяет процессорам Hygon поддерживать совместимость с существующими программными экосистемами, снижая затраты на миграцию и упрощая внедрение в корпоративной среде. Также Hygon вложила значительные средства в разработку DCU (Data Center Units), сопроцессоров на базе технологии GPGPU, предназначенных для обработки крупномасштабных параллельных рабочих нагрузок.

Digitimes отметил, что высокий спрос на процессоры позволил Hygon повысить показатели прибыльности. С 2020 года по III квартал 2025 года валовая маржа Hygon выросла с 50,5 до 60,1 %, превзойдя показатели отечественных конкурентов, включая Loongson и Cambricon.

При этом с 2021 года ежегодные инвестиции Hygon в НИОКР выросли более чем на 30 % в годовом исчислении, достигнув почти ¥3 млрд ($0,43 млрд) за 9 месяцев 2025 года.

В 2025 году чистая прибыль компании росла медленнее, чем выручка, из-за более высокой интенсивности НИОКР и стимулирования инженерных кадров выделением акций. Ожидается, что скорректированная чистая прибыль за I квартал 2026 года вырастет на 63–82 % в годовом исчислении.

В течение первых трёх кварталов 2025 года чистый операционный денежный поток вырос на 465,64 % год к году до ¥2,26 млрд ($0,33 млрд), что улучшило возможности компании по финансированию исследований и разработки чипов. К концу III квартала 2025 года обязательства Hygon по контрактам достигли ¥2,8 млрд ($0,41 млрд).

В марте Hygon объявила о том, что её ускорители DCU будут проходить тестирование в Шанхайской лаборатории ИИ, которая сосредоточится на гибридном планировании и совместном инференсе. Эта инициатива основана на разработанной в лаборатории гетерогенной вычислительной платформе DeepLink, которая позволяет выполнять смешанные задачи инференса на разных китайских ИИ-чипах, включая Huawei Ascend, MetaX, T-Head Semiconductor и Biren.

В случае успеха различные китайские ускорители можно будет использовать в рамках общих вычислительных кластеров, смещая отрасль от изолированных аппаратных хранилищ к скоординированным вычислительным архитектурам.

Ещё одним фактором роста спроса на вычислительную инфраструктуру Hygon может стать расширение использования ИИ-агентов. По оценкам экспертов отрасли, выполнение задач ИИ-помощниками может расти более чем на 500 % в год в период с 2025 по 2030 год, а потребление токенов может увеличиться более чем на 3000 %.

Постоянный URL: http://servernews.ru/1138335
15.03.2026 [11:46], Руслан Авдеев

Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаватт

По данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати.

Кампус строит компания Crusoe на площадке Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году.

Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт.

Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители Nvidia Vera Rubin вместо ускорителей Nvidia Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы.

По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии.

Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами.

Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta Platforms. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей.

По слухам, Nvidia уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.

Постоянный URL: http://servernews.ru/1138331
15.03.2026 [11:16], Сергей Карасёв

GigaDevice представила чипы SPI NOR Flash серии GD25UF для периферийных и ИИ-устройств

Компания GigaDevice сообщила о расширении семейства чипов флеш-памяти SPI NOR Flash GD25UF: теперь в него входят изделия со сверхнизким энергопотреблением ёмкостью от 8 до 256 Мбит. Они предназначены для использования в периферийном оборудовании, маломощных ИИ-устройствах, электронике с питанием от батареи и пр.

Чипы GD25UF работают при напряжении от 1,14 В до 1,26 В, что обеспечивает бесшовную интеграцию с «системами на чипе» (SoC), рассчитанными на 1,2 В. В частности, устраняется необходимость в дополнительных преобразователях или сложном управлении питанием. Благодаря этому сокращается количество вспомогательных компонентов в конечных устройствах, что способствует снижению стоимости при одновременном повышении энергоэффективности.

 Источник изображения: GigaDevice

Источник изображения: GigaDevice

Изделия семейства GD25UF поддерживают режимы Single, Dual, Quad и DTR Quad SPI. Максимальная тактовая частота составляет 120 МГц в режиме STR и 80 МГц в режиме DTR. Пропускная способность достигает 80 Мбайт/с.

Отмечается, что по сравнению с традиционной флеш-памятью, рассчитанной на напряжение 1,8 В, у чипов GD25UF это значение снижено примерно на 33 %, что способствует сокращению энергопотребления на 50–70 %. Допускается работа в обычном режиме и с пониженным энергопотреблением. Заявленное количество циклов записи/стирания находится на отметке 100 тыс., тогда как сохранность данных гарантирована в течение 20 лет. Диапазон рабочих температур в зависимости от модификации простирается от -40 до +85 °C, от -40 до +105 °C или от -40 до +125 °C. Массовое производство изделий GD25UF уже началось: они доступы в исполнениях SOP8, WSON8, USON8 и WLCSP. 

Постоянный URL: http://servernews.ru/1138329
15.03.2026 [11:15], Сергей Карасёв

Выпуск ИИ-чипов DeepX DX-M2 отложен из-за проблем у Tesla

Изменение графика разработки ИИ-ускорителя Tesla следующего поколения, по сообщению ресурса DigiTimes, привело к тому, что южнокорейская компания DeepX вынуждена отложить выпуск своих чипов DX-M2, массовое производство которых изначально было запланировано на II квартал 2027 года.

Отмечается, что задержки возникли с разработкой изделия Tesla AI6. Предполагается, что это решение будет применяться для поддержания разнообразных нагрузок в инфраструктуре Tesla, включая платформы автономного вождения, системы человекоподобного робота Optimus и дата-центры для ИИ-задач. В 2025 году Tesla подписала контракт с Samsung на изготовление AI6 вплоть до декабря 2033-го: стоимость соглашения составляет $16 млрд. Первоначальный договор предусматривал производство около 16 тыс. пластин в месяц, однако затем Tesla запросила дополнительно 24 тыс. пластин, что в сумме предполагает объем до 40 тыс. пластин ежемесячно.

Для Tesla AI6 планируется применение 2-нм техпроцесса Samsung. По такой же методике будут выпускаться чипы DeepX DX-M2. Для обоих этих изделий оговорено использование услуги Multi-Project Wafer (MPW), при которой на одной кремниевой пластине в рамках получения прототипов размещаются изделия нескольких разных заказчиков. Такой подход позволяет снизить затраты на разработку перед организацией массового производства.

Однако, по информации DigiTimes, с выходом Tesla AI6 на этап MPW возникли задержки. С чем именно связаны сложности, не уточняется. Отраслевые эксперты полагают, что пересмотр графика может быть обусловлен изменением сроков инвестиций в автономные транспортные средства, роботизированные платформы и суперкомпьютеры с ИИ. Компания Samsung отказалась от комментариев, сославшись на конфиденциальность проектов заказчиков.

Между тем из-за задержек Tesla выпуск чипов DeepX DX-M2 по программе MPW, который планировалось начать в апреле, переносится на более поздний срок. В соответствии с новым графиком, тестирование качества этих решений будет организовано не ранее III квартала текущего года. Ожидается, что DX-M2 обеспечит ИИ-производительность на уровне 80 TOPS при максимальном энергопотреблении примерно 5 Вт. Чип поддерживает память LPDDR5X. Утверждается, что процессор способен работать с ИИ-моделями, насчитывающими до 100 млрд параметров.

Постоянный URL: http://servernews.ru/1138322
14.03.2026 [18:42], Владимир Мироненко

AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИ

Amazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения».

Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз.

AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras.

Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня».

 Источник изображения: Amazon

Источник изображения: Amazon

Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя.

Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование.

«Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам».

Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA.

Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период ​​между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.

Постоянный URL: http://servernews.ru/1138316
14.03.2026 [10:20], Сергей Карасёв

Silicon Motion представила контроллер SM8008 для загрузочных SSD в дата-центрах

Компания Silicon Motion анонсировала контроллер SM8008, предназначенный для создания загрузочных SSD в дата-центрах и накопителей корпоративного класса со сверхнизким энергопотреблением. Изделие, выполненное на фирменной платформе MonTitan, поддерживает интерфейс PCIe 5.0 x4 (протокол NVMe 2.0a).

Отмечается, что стремительное развитие ИИ и облачной инфраструктуры сопровождается развёртыванием большого количества новых серверов, каждый из которых нуждается в надёжном и энергоэффективном загрузочном накопителе. В масштабах гиперскейлеров и крупных облачных провайдеров эксплуатируются миллионы серверов. В таких условиях даже незначительная экономия электроэнергии в расчёте на один SSD может привести к существенному снижению общего энергопотребления и уменьшению эксплуатационных расходов ЦОД.

 Источник изображения: Silicon Motion

Источник изображения: Silicon Motion

Контроллер SM8008 изготавливается с применением 6-нм технологии TSMC. Он обеспечивает скорость последовательной передачи информации до 14 Гбайт/с, а показатель IOPS (операций ввода/вывода в секунду) достигает 2,3 млн. При этом энергопотребление в активном режиме составляет менее 5 Вт. Используется восьмиканальная архитектура NAND с поддержкой ONFI и Toggle DDR 5.0 со скоростью до 3600 МТ/с (MT/s). Говорится о возможности применения одноканальной памяти DDR4-3200 и LPDDR4-3200 ECC DRAM.

Изделие соответствует спецификации OCP Hyperscale NVMe Boot SSD Version 1.0. Реализована поддержка TCG Opal 2.0, а также AES-256, SHA2-512 и RSA-3072b с аппаратным ускорением. Чип использует технологию Silicon Motion NANDCommand и усовершенствованный механизм коррекции ошибок LDPC, благодаря чему достигаются долговечность и стабильность производительности. На базе контроллера могут создаваться SSD в различных форм-факторах, включая M.2, U.2, E1.S и E3.S.

Постоянный URL: http://servernews.ru/1138297
14.03.2026 [10:16], Сергей Карасёв

MediaTek представила чипы Genio Pro 5100 и Genio 420 для AIoT-приложений

Компания MediaTek представила процессоры Genio Pro 5100 и Genio 420 с архитектурой Arm для AIoT-приложений и встраиваемых систем. Первый из названных чипов подходит, в частности, для автономных мобильных роботов, дронов, периферийного оборудования и автомобильных платформ, второй — для устройств умного дома, интерактивных дисплеев и пр.

Изделие Genio Pro 5100 изготавливается по 3-нм технологии. Оно содержит восемь вычислительных ядер в конфигурации 1 × Arm Cortex-X925, 3 × Arm Cortex-X4 и 4 × Arm Cortex-A720. Присутствуют графический блок Arm Immortalis-G925 MC11 с поддержкой OpenGL, Vulkan и OpenCL, а также нейропроцессорный узел (NPU) с ИИ-производительностью более 50 TOPS. Модуль VPU обеспечивает возможность кодирования материалов H.264 и H.265 (до 8K30) и декодирования H.264, H.265, AV1 и VP9 (до 8K30).

 Источник изображений: MediaTek

Источник изображений: MediaTek

Реализована поддержка оперативной памяти LPDDR5x-8533 (до 30 Гбайт), а также флеш-памяти UFS 4.1, SD 3.0 и SPI-NOR. Допускается вывод изображения одновременно на три дисплея формата 4Kp60 через интерфейсы eDP 1.5 (4 линии), DisplayPort 1.4 (MST) и 3 × MIPI DSI (4 линии). Благодаря четырём интерфейсам MIPI-CSI (4 линии) возможно использование до 16 камер (1080p30). Среди прочего упомянута поддержка 2 × 2.5GbE, Wi-Fi 7 и Bluetooth 5.4 (через внешний модуль), 1 × PCIe 4.0 (2 линии) и 2 × PCIe 4.0 (1 линия), 6 × UART, 7 × I2C, 8 × I3C, 4 × PWM, 7 × I2S/TDM, 3 × PDM, 1 × USB 3.2 Gen2 (10 Гбит/с), 2 × USB 2.0 (Host/Device) и 1 × USB 2.0 (Host). Изделие выполнено в корпусе ETFC TFBGA с размерами 15,9 × 16,6 мм. Диапазон рабочих температур простирается от -40 до +105 °C.

Вторая новинка, Genio 420, производится по 6-нм технологии. Процессор объединяет восемь ядер (2 × Arm Cortex-A78 с тактовой частотой 1,8 ГГц и 6 × Arm Cortex-A55 с частотой 1,6 ГГц) и графический ускоритель Arm Mali-G57 MC2. Модуль MediaTek NPU восьмого поколения обеспечивает ИИ-производительность на уровне 6,1 TOPS. Блок VPU поддерживает кодирование материалов H.264/H.265 (до 4Kp30) и декодирование H.264/H.265/VP9 (до 4Kp60) и MPEG4/VP8 (до 1080p60).

Чип позволяет использовать оперативную память LPDDR4X-4266 (до 8 Гбайт) и LPDDR5/LPDDR5X-6400 (до 16 Гбайт), а также флеш-память UFS 3.1 (2 линии), eMMC 5.1, SD 3.0 / SDIO 3.0, SPI-NOR. Возможен вывод изображения на монитор 4Kp60  или два дисплея 2.5Kp60 через интерфейсы eDP, DP, LVDS и MIPI-DSI. Допускается использование до шести камер 1080p30 через 2 × MIPI-CSI. Прочие характеристики процессора таковы: контроллер 1GbE, опциональные адаптеры Wi-Fi 6 (1×1) + Bluetooth 5.3 на базе MT6631X или Wi-Fi 6E (2×2) + Bluetooth 5.3 на основе MT6637X, 1 × PCIe 2.0 (1L, RC, WoWLan), 4 × UART, 9 × I2C, 6 × SPI Master, 3 × PWM, GPIO, JTAG, 3 × USB 2.0, 1 × USB 3.2 Gen1 (5 Гбит/с; Host), 1 × USB 3.2 Gen1 (Host/Device). Чип выполнен в корпусе VFBGA с размерами 13,8 × 11,8 × 0,9 мм. Диапазон рабочих температур — от -20 до +95 °C.

Процессоры поддерживают такие средства обеспечения безопасности, как Arm TrustZone, Security Boot (RSA4096), Crypto Engine и RNG. Говорится о совместимости с различными вариантами Linux, включая Yocto и Ubuntu. 

Постоянный URL: http://servernews.ru/1138293
13.03.2026 [17:10], Руслан Авдеев

Crusoe представила периферийные зоны доступности Crusoe Edge Zones для внедрения ИИ-решений где угодно

Компания Crusoe анонсировала запуск периферийных зон доступности Crusoe Edge Zones на базе модульных ЦОД Crusoe Spark, обеспечивающих ИИ-вычисления практически в любой локации. Edge Zones предоставят ИИ-инфраструктуру с низкой задержкой и позволят внедрять суверенные ИИ-решения клиентам со всего мира.

Благодаря Crusoe Edge Zones клиентам доступно развёртывание модулей Crusoe Spark в таких местах, которые недоступны традиционным гиперскейлерам и облачным провайдерам.

Модули ЦОД Crusoe Spark для зон доступности выпускаются на недавно представленном заводе Spark Factory. Благодаря контролю над полным стеком работы над ИИ-инфраструктурой — от заводской сборки до облачной оркестрации — компания Crusoe способна развёртывать новые периферийные облака всего за три месяца. При этом это обойдётся значительно дешевле, чем классические варианты ЦОД. Благодаря этому можно будет предоставлять мощности для ИИ в тех локациях, где ограничены возможности имеющейся устаревшей инфраструктуры.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Crusoe Edge Zones на базе Crusoe Spark — дальнейшее масштабирование вертикально интегрированной концепции «ИИ-фабрик». Зоны оптимизированы для работы с облачной платформой Crusoe Cloud и инференс-службой Managed Inference. Благодаря запатентованной технологии Crusoe MemoryAlloy можно сократить «время до первого токена» в 9,9 раза. Кроме того, система обеспечит в 5 раз более высокую пропускную способность, чем стандартные конфигурации для инференса. В результате периферийные пользователи получат доступ к сверхэффективной инфраструктуре с высоким быстродействием.

Ключевые сценарии применения:

  • развёртывание Crusoe Edge Zones близ конечных потребителей для обеспечения сверхнизкой задержки — особенно важно там, где помощь ИИ нужна в режиме реального времени;
  • создание для клиентов выделенных корпоративных кластеров для обучения ИИ и инференса, сочетающих возможность использования собственной инфраструктуры и простоту управляемого облака;
  • внедрение суверенного ИИ на базе передовой инфраструктуры Crusoe государственными органами и отдельными отраслями, требующими специальной защиты данных — зоны Crusoe можно развёртывать без утечки данных за пределы той или иной юрисдикции.

В компании уверены, что в будущем ИИ-инфраструктура будет включать как гигантские кампусы гигаваттного масштаба для обучения ИИ, так и распределённые модули для обработки информации на периферии. На данный момент Crusoe инвестирует в оба направления.

Концепция сетей модульных ЦОД, практически независимых от крупных кампусов, в последнее время на фоне конфликта на Ближнем Востоке становится всё популярнее. Независимо от этих событий недавно Akamai пообещала развернуть тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса, а LG разработала модульные ИИ ЦОД AI Box, из которых соберёт 60-МВт дата-центр в южнокорейском Пусане.

Постоянный URL: http://servernews.ru/1138257
13.03.2026 [14:32], Руслан Авдеев

Microsoft и Meta✴ заключили соглашения о дополнительной аренде ЦОД на $50 млрд

Microsoft и Meta Platforms в последнем квартале обязались арендовать дата-центры на сумму около $50 млрд. Это свидетельствует о растущих ставках, которые техногиганты делают на ИИ-решения, сообщает Bloomberg.

Эти события помогли увеличить общий объём обязательств по аренде ЦОД гиперскейлерами в будущем до более чем $700 млрд. Помимо Microsoft и Meta, в эту группу входят Oracle и Amazon (AWS). Анализ квартальных отчётов, проведённый Bloomberg, свидетельствует, что обязательства неуклонно росли в течение последнего года.

Будущие расходы добавятся к уже действующим арендным договорам, но не будут отображаться в отчётности компаний, пока не начнутся платежи по новым соглашениям. Как правило, договоры аренды касаются ЦОД, но речь также может идти об аренде офисов и складов; в некоторых предусмотрено расторжение соглашений при определённых условиях.

 Источник изображения: chris robert/unsplash.com

Источник изображения: chris robert/unsplash.com

В последние месяцы Microsoft и Meta активно свидетельствовали о стремлении увеличить вычислительные мощности для создания ИИ-решений. У Microsoft уже заключены договоры на сумму порядка $155 млрд, у Meta — $104 млрд.

Обе компании, по данным Datacenter Dynamics, ведут переговоры о резервировании мощностей в кампусе Oracle/OpenAI в Абилине (Abilene, Техас), который строится в рамках проекта Stargate. Недавно Oracle отказалась от планов расширения на площадке, оставив доступные мощности желающим.

Рост расходов особенно ощутим для Microsoft, приостановившей аренду дата-центров на большую часть 2025 года. Теперь дефицит площадей ЦОД приобрёл критическое значение для руководства компании и инвесторов. В IV календарном квартале 2025 года компания нарастила мощность своих ЦОД на 1 ГВт, потратив $6,7 млрд. Кварталом ранее речь шла о $11,1 млрд.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

При этом больше всего средств на аренду дата-центров потратила компания Oracle. Согласно последним данным, компания должна выплатить $261 млрд по договорам аренды, ещё не вступившим в силу. Как сообщает Datacenter Dynamics, сумма выросла с ноября 2025 года, когда Oracle говорила о $248 млрд арендных обязательств, — это на 148 % больше по сравнению с августом того же года. Впрочем, в последнем квартале обязательства у компании были меньше, чем у ключевых конкурентов, поскольку она уже подписала контракты на аренду многочисленных крупных площадок, необходимых для партнёрства с OpenAI.

Значительная часть активности Oracle на рынке аренды приходилась на II–III кварталы 2025 года; приблизительно тогда же Oracle и OpenAI заключили облачную сделку на $300 млрд.

По данным Evercore ISI, обязательства Oracle будут оплачиваться в течение 15–19 лет. Это свидетельствует о долгосрочной стратегии компании, ориентированной на развитие облачных технологий.

Постоянный URL: http://servernews.ru/1138238
13.03.2026 [14:12], Руслан Авдеев

Китайская ByteDance обойдёт санкции США и получит доступ к чипам NVIDIA B200 на $2,5 млрд

Материнская компания TikTok — китайская ByteDance — получила доступ к современным американским ускорителям NVIDIA. По последним данным, она обошла введённые властями США ограничения на доступ к технологиям, заключив соглашение с Aolani Cloud из Юго-Восточной Азии, сообщает The Wall Street Journal.

В Малайзии будет использоваться около 500 вычислительных систем NVIDIA Blackwell на основе 36 тыс. ИИ-ускорителей NVIDIA B200. Источники сообщают, что Aolani закупает серверы у компании Aivres, занимающейся их сборкой. Стоимость оборудования, вероятно, составит более $2,5 млрд. При этом Aolani сообщает, что пока располагает оборудованием на сумму $100 млн.

Источники сообщают, что ByteDance намерена организовать исследования в сфере ИИ за пределами КНР и удовлетворить спрос клиентов со всего мира на решения на основе искусственного интеллекта. Уже сегодня она предлагает обычным пользователям разнообразные ИИ-приложения, бросая вызов Google, OpenAI и другим американским компаниям; четверть выручки уже поступает из-за пределов Китая. Так, она разработала более десятка приложений (китайские и глобальные версии) — чат-бот Dola, редактор видео Dreamina и др.; модель Seedance позволяет генерировать реалистичные видеосцены на основе пользовательских сценариев.

 Источник изображения: Esmonde Yong/unspalsh.com

Источник изображения: Esmonde Yong/unspalsh.com

Согласно январскому рейтингу Andreessen Horowitz, компания курирует пять из 50 наиболее популярных в мире пользовательских ИИ-приложений по количеству ежемесячных активных пользователей. В ByteDance работают команды исследователей в филиалах в Сингапуре и даже США. Напряжённость в отношениях между США и Китаем мешает бизнесу ByteDance: в январе компании пришлось передать американское подразделение TikTok под контроль «дружественно настроенным» к США инвесторам.

Более трёх лет китайские технобизнесы имеют дело с американским экспортным контролем, не позволяющим напрямую продавать Китаю передовые ИИ-чипы вроде моделей серии Blackwell. Для развития технологий китайские компании вынуждены тратить всё больше средств на доступ к вычислительным мощностям за рубежом, благодаря чему возникла целая индустрия посредников, строящих ЦОД на продуктах NVIDIA для сдачи в аренду китайским клиентам.

По имеющимся данным, в конце 2023 года инвесторы создали компанию Aolani с материнским холдингом на Каймановых островах. В числе инвесторов — сингапурская K3 Ventures. Aolani является приоритетным облачным партнёром NVIDIA, имеющим доступ к её новейшим чипам. С февраля 2025 года Aolani сдаёт ByteDance в аренду ИИ-серверы в Малайзии на основе ускорителей NVIDIA H100; за ускорители Blackwell компания ByteDance уже внесла предварительные платежи. Эти ускорители намерены развернуть на объектах в Малайзии. Помимо Малайзии, компания намерена создать мощности в Южной Корее, Австралии и Европе.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Подчёркивается, что бизнес сотрудничает с американской юридической компанией, чтобы соответствовать американским требованиям. По мнению юристов, изменения правовых норм будут носить «перспективный, а не ретроспективный характер». Отмечается, что Aolani соблюдает все правила экспортного контроля, а ускорители не передаются клиентам и те не имеют на них никаких прав. В NVIDIA также придерживаются позиции, что американские правила экспорта позволяют создавать облачные сервисы вне стран, подпадающих под ограничения, вроде Китая, а сам вендор проверял всех облачных партнёров, прежде чем продавать чипы прямо или косвенно.

По информации The Wall Street Journal, ByteDance вела переговоры об использовании ИИ-серверов с более чем 7 тыс. B200 в ЦОД в Индонезии, а Reuters сообщает, что компания также вела переговоры с США о разрешении покупки ускорителей NVIDIA H200, но её не удовлетворили условия их использования.

Ещё в 2024 году сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, причём на территории самих Соединённых Штатов. Также в конце 2025 года появилась информация, что китайская INF Tech обошла санкции США на доступ к ускорителям NVIDIA Blackwell через индонезийское облако.

Постоянный URL: http://servernews.ru/1138235

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;