Материалы по тегу:
|
08.02.2026 [15:03], Сергей Карасёв
До 1,4 Пбайт и 60 Гбайт/с в 1U: вышла All-Flash СХД TrueNAS R60Компания TrueNAS анонсировала высокопроизводительные СХД семейства R60, ориентированные на задачи ИИ и НРС, а также на приложения, связанные с анализом данных. Устройства типа All-Flash выполнены в форм-факторе 1U, а максимальная внутренняя вместимость может превышать 1 Пбайт. Дебютировали модификации TrueNAS R60-S и TrueNAS R60-P: первая оснащена неназванным процессором с 16 вычислительными ядрами (32 потока), вторая — с 32 (64 потока). Объём оперативной памяти DDR5-6400 составляет соответственно 64–128 Гбайт и 256 Гбайт. Во фронтальной части располагаются 12 отсеков для SFF-накопителей с интерфейсом PCIe 4.0 или PCIe 5.0 (NVMe); возможна горячая замена. Могут использоваться SSD вместимостью до 122 Тбайт. Таким образом, в максимальной конфигурации суммарная ёмкость достигает 1,46 Пбайт, а с учётом компрессии 2,5:1 эффективная ёмкость составляет до 3,6 Пбайт. Пропускная способность, как утверждается, составляет до 60 Гбайт/с. Обе модели допускают подключение до четырёх дисковых полок SAS, а старшая версия — двух полок NVMe. Общая вместимость может достигать 7 Пбайт. Системы хранения оснащаются одним или двумя сетевыми портами 400GbE и двумя или четырьмя портами 200/100/25GbE. Имеется также выделенный сетевой порт управления. Питание обеспечивают два блока с резервированием (сертификация 80 Plus Titanium). Типовое энергопотребление находится в пределах 350–600 Вт. Диапазон рабочих температур простирается от +10 до +35 °C. Габариты составляют 710 × 438 × 43,5 мм. Говорится о поддержке протоколов SMB v1/2/3, NFSv3 и v4, AFP, FTP, WebDAV, iSCSI, NVMe-oF (TCP, RDMA/RoCE) и S3, а также гипервизоров KVM, Citrix XenServer, Microsoft Hyper-V. Используется открытая файловая система OpenZFS, обеспечивающая высокую надёжность, защиту от повреждения данных, моментальные снимки и автоматическое восстановление в случае сбоев. Заявлена совместимость с облачными платформами iX-Storj, Amazon S3, BackBlaze B2 Cloud, Google Cloud и Microsoft Azure.
07.02.2026 [23:53], Игорь Осколков
Tenstorrent принудительно «отрезала» ИИ-ядра у ускорителей Blackhole, даже у уже проданныхРазработчик ИИ-ускорителей Tenstorrent, возглавляемый Джимом Келлером, неожиданно изменил конфигурацию своих чипов Blackhole. Последнее обновление прошивки для карт p150a/p150b принудительно снижает количество активных ИИ-ядер Tensix со 140 до 120, причём это касается уже выпущенных и проданных карт. Описание p150a/p150b на сайте тоже обновилось. Хотя количество ядер уменьшится более чем на 14 %, компания обещает, что в типичных рабочих нагрузках разница в производительности составит лишь 1–2 %. Однако если ранее пиковая заявленная производительность составляла 774 Тфлопс (BLOCKFP8), то теперь она равна 664 Тфлопс. Таким образом, формально вычислительные блоки у младшей p100a и старших p150a/p150b теперь одинаковые. Вся разница в технических характеристиках между ними, помимо сетевого интерфейса, теперь заключается в объёме и скорости набортной памяти — 28 Гбайт GDDR6 (448 Гбайт/с) у младшей модели против 32 Гбайт (512 Гбайт/с) у старших. Причину такого внезапного изменения характеристик компания не назвала. В Сети есть предположения, что Tenstorrent таким образом пытается, к примеру, увеличить выход годных чипов. Или же она столкнулась с какими-то другими ограничениями, к примеру, по питанию и/или охлаждению. В частности, в том же самом апдейте снижен TDP у решения Galaxy на базе ускорителей Wormhole, чтобы, как сказано в описании, оставаться в рамках лимита по питанию. Наконец, изменение может быть связано и с подготовкой двухчиповой версии ускорителей Blackhole p300, которые получат 64 Гбайт памяти (1 Тбайт/с).
07.02.2026 [17:23], Руслан Авдеев
AWS: ни один сервер с NVIDIA A100 не выведен из эксплуатации, а некоторые клиенты всё ещё используют Intel Haswell — не всем нужен ИИПо словам главы AWS Мэтта Гармана (Matt Garman), клиенты до сих пор использует серверы на основе ИИ-ускорителей NVIDIA A100, представленных в 2020 году. Отчасти это происходит потому, что спрос на вычислительные ресурсы превышает предложение, так что устаревшие чипы по-прежнему востребованы, передаёт Datacenetr Dynamics. По словам Гармана, все ресурсы фактически распроданы, а серверы с A100 из эксплуатации никогда не выводились. Комментарии Гармана перекликаются с прошлогодним заявлением Амина Вахдата (Amin Vahdat), отвечающего в Google за ИИ и инфраструктуру. По его словам, в Google одновременно работают семь поколений тензорных ускорителей (TPU). Ускорители возрастом семь-восемь лет загружены на 100 %, а спрос на TPU так высок, что Google вынуждена отказывать некоторым клиентам. Впрочем, оба топ-менеджера, возможно, несколько кривят душой и пытаются развеять опасения инвесторов относительно того, что ИИ-ускорители, на которые тратятся огромные деньги, через два-три года придётся выкинуть, чтобы купить более современные, энергоэффективные и, конечно же, дорогие. И что за это время они не успеют окупиться. Хотя Гарман назвал главной причиной сохранения работы серверов на A100 высокий спрос, он признал, что есть и другие причины. В частности, современные ИИ-чипы снижают точность вычислений с плавающей запятой. В результате некоторые клиенты попросту не могут перейти на Blackwell или вовсе вынуждены использовать Intel Xeon Haswell десятилетней давности для HPC-подобных вычислений, поскольку точности у современных ИИ-ускорителей недостаточно. В июне 2025 года AWS заявила о снижении цены доступа к устаревшим NVIDIA H100, H200 и A100 на своей платформе, причём для A100 стоимость снизилась на треть.
Источник изображения: NVIDIA Стоит отметить, что «устаревшие» ускорители долго остаются востребованными, поскольку всё равно обладают большой производительностью. Наиболее яркий пример — разрешение на поставку в Китай чипов NVIDIA H200. Хотя США и их союзники готовятся к внедрению ускорителей поколения Vera Rubin, китайский бизнес готов покупать H200, поскольку те значительно производительнее, экономически выгоднее и удобнее отечественных ускорителей.
07.02.2026 [14:07], Сергей Карасёв
Broadcom представила первые в отрасли решения Wi-Fi 8 для точек доступа и коммутаторов корпоративного классаКомпания Broadcom анонсировала изделия BCM49438 и Trident X3+ BCM56390. Это, как утверждается, первые в отрасли решения для точек доступа и коммутаторов Wi-Fi 8 корпоративного класса, построенные на единой кремниевой архитектуре. Они могут применяться в сетях, ориентированных на работу с ИИ. Broadcom BCM49438 — это чип APU (Accelerated Processing Unit), который объединяет вычислительные ресурсы, сетевые функции и ускорение ИИ-операций на периферии. Изделие содержит четыре ядра с архитектурой Armv8 и нейропроцессорный блок Broadcom Neural Engine (BNE). Реализована поддержка памяти DDR4-3200, LPDDR4-4267, DDR5-5600 и LPDDR5-5500, а также двух интерфейсов USB и двух интерфейсов 10Gb MACsec. Предусмотрены четыре контроллера PCIe. Новинка может использоваться в паре с радиочипами Broadcom BCM43840, BCM43844 и BCM43820 стандарта Wi-Fi 8. На основе этих компонентов производители оборудования смогут создавать точки доступа Wi-Fi 8 с возможностями оптимизации в реальном времени, функциями постквантовой криптографии (CNSA 2.0), развитыми средствами обеспечения безопасности и ускорением ИИ-операций.
Источник изображений: Broadcom В свою очередь, коммутационное решение Trident X3+ BCM56390 также оснащено четырьмя ядрами с архитектурой Armv8. Пропускная способность достигает 700 Гбит/с. Могут быть реализованы 48 портов на 5 Гбит/с и 16 портов на 25 Гбит/с или 28 портов на 25 Гбит/с. Платформа позволяет создавать программируемые L3-коммутаторы с поддержкой MACsec на всех портах. Реализован механизм безопасной загрузки. Trident X3+ BCM56390 может работать в связке с PHY-чипами Broadcom BCM84918, BCM54908 и BCM54908E, а также с чипами PoE PSE, обеспечивающими оптимальное энергопотребление и эффективность. ![]() В целом, новые изделия образуют единую архитектуру, которая обеспечивает максимальную производительность и безопасность корпоративных беспроводных сетей Wi-Fi 8. Эти чипы расширяют возможности сетевой телеметрии, предлагая глубокий анализ в реальном времени для управления с помощью ИИ. Пробные поставки устройств уже начались.
07.02.2026 [13:53], Сергей Карасёв
Montage Technology представила активные кабели PCIe 6.x/CXL 3.xКомпания Montage Technology объявила о разработке активных электрических кабелей (AEC) PCIe 6.x/CXL 3.x, предназначенных для организации высокоскоростного интерконнекта с низкой задержкой в дата-центрах, ориентированных на ресурсоёмкие задачи ИИ и НРС. Отмечается, что на фоне стремительного внедрения ИИ и продолжающегося развития облачных вычислений быстро растёт нагрузка на ЦОД. При этом PCIe остаётся основным стандартом для обмена данными между CPU, GPU, сетевыми картами и высокопроизводительными хранилищами. Интерконнект на базе PCIe применяется как в рамках серверных стоек, так и в составе суперузлов, в связи с чем требуется увеличивать протяжённость соединений. В таких условиях, подчёркивает Montage Technology, медные линии на базе AEC имеют решающее значение для обеспечения целостности сигнала на больших расстояниях.
Источник изображения: Montage Technology Кабели Montage Technology PCIe 6.x/CXL 3.x с ретаймером используют фирменные блоки SerDes и передовую архитектуру DSP. Применён высокоплотный форм-фактор OSFP-XD. Говорится о развитых функциях мониторинга и диагностики каналов связи, что упрощает обслуживание систем и повышает их эффективность. Возможно использование в инфраструктурах с различными топологиями. В разработке решения, как утверждается, принимали участие ведущие китайские производители кабелей. Проведены успешные тесты на совместимость с CPU, xPU, коммутаторами PCIe, сетевыми адаптерами и другими устройствами. В дальнейшем компания Montage Technology намерена развивать направление высокоскоростного интерконнекта, включая выпуск ретаймеров PCIe 7.0.
06.02.2026 [22:30], Андрей Крупин
Названы 26 ключевых технологий, которые в ближайшие 5 лет получат широкое применение в российском бизнесеСистемный интегратор «Крок» представил результаты исследования 26 ключевых технологических направлений, которые в ближайшие пять лет станут основой для трансформации отечественного бизнеса. В основу проделанной специалистами компании работы легли интервью с руководителями крупного бизнеса, полуторагодовой мониторинг событий, открытых источников и закрытого обмена инсайтами между аналитическими агентствами на IT-рынке. Согласно исследованию, в России на плато продуктивности (технологии, которые уже применяются массово и приносят реальную пользу) вышли облачные вычисления, кибербезопасность и микросервисные архитектуры. Отечественный рынок движется к гибридным облакам, объединяющим публичные и частные среды, а также к мультиоблачным стратегиям, снижающим зависимость от одного провайдера. В части кибербезопасности эксперты ожидают до 2030 года распространение подходов Zero Trust, автоматизацию реагирования на инциденты, рост важности защиты облачных сред и цепочек поставок. В области микросервисной архитектуры прогнозируются автоматизация процессов CI/CD и рост популярности решений Service Mesh, которые упрощают управление распределёнными приложениями. В каждом из направлений аналитики предсказывают широкое внедрение искусственного интеллекта и тесную интеграцию с облачными платформами.
Источник изображения: пресс-служба компании «Крок» / croc.ru В перспективе ближайших нескольких лет стандартом с ожидаемым выходом на плато продуктивности станут такие направления, как Big Data, IoT, Edge-вычисления и роботизация процессов. Предприятия увидели реальную эффективность этих технологий и активно внедряют их для мониторинга, автоматизации и оптимизации процессов. Пилотные проекты постепенно трансформируются в крупные отраслевые решения. Генеративный ИИ, метавселенные и VR/AR начнут приносить реальный экономический эффект в конце десятилетия, уверены в «Кроке». Сейчас после огромного ажиотажа компании столкнулись с ограничениями технологий, высокой стоимостью и нехваткой качественного контента. Однако эти решения в будущем найдут применения в обучении, удалённой работе и производстве. В фазу «Инновационный триггер» (технологии, которые бизнес уже тестирует, но не применяет широко) вошли коммуникационная инфраструктура 6G, ИИ-агенты и графовые нейросети для антифрода. В настоящий момент эти технологии только завоёвывают доверие корпоративного сектора, а их широкое коммерческое применение в России ожидается не ранее 2028 года.
06.02.2026 [18:44], Руслан Авдеев
Время — деньги: SiTime отчиталась о росте на рынке ЦОД и объявила о покупке смежных активов Renesas ElectronicsКомпания SiTime, занимающаяся разработкой и выпуском высокоточных устройств синхронизации времени для IT-индустрии, отчиталась о благоприятных финансовых итогах IV квартала и 2025 года в целом, связанных с успехами в сегменте, связанном с телеком-индустрией, корпоративными клиентами и ЦОД (Communications, Enterprise and Datacenter, CED). Кроме того, она потратит $1,5 млрд на покупку ключевых активов тайминг-бизнеса Renesas Electronics, сообщает Converge Digest. В IV квартале 2025 года выручка SiTime составила $113,3 млн, на 36 % выше к/к и на 66 % г/г. Валовая маржа по GAAP составила 56,4 %, «не по GAAP» — 61,2 %, что превысило прогнозы. Чистая прибыль по GAAP составила $9,2 млн, или по $0,34 на каждую разводнённую акцию. Чистая прибыль не по GAAP — $41,3 млн или по $1,52 на акцию. В 2025 финансовом году выручка составила $326,7 млн, на 61 % выше год к году. Валовая маржа по GAAP составила 59,3 %, чистый убыток по GAAP — $42,9 млн, или по $1,72 на акцию с учётом разводнения. Валовая маржа не по GAAP составила $82,6 млн или $3,20 на акцию с учётом разводнения. SiTime завершила год с $808,4 млн денежных средств, их эквивалентов и краткосрочных инвестиций. По словам главы SiTime Раджеша Вашишта (Rajesh Vashist), IV квартал — уже седьмой квартал подряд, в котором сегмент CED компании продемонстрировал рост более 100 % г/г. Отмечен широкий спрос во всех клиентских сегментах и ожидается, что динамика сохранится и в 2026 году, благодаря приложениям в сфере коммуникаций и ЦОД, связанным с ИИ-задачами.
Источник изображения: SiTime На фоне успехов компания объявила о покупке ключевых активов тайминг-бизнеса Renesas Electronics Corporation. Этот шаг существенно расширяет портфолио решений SiTime и углубляет присутствие компании на растущих рынках ИИ ЦОД и телекоммуникаций. Предполагается, что купленный бизнес позволит генерировать около $300 млн выручки в течение 12 месяцев после того, как сделка будет закрыта, приблизительно 75 % будет приходиться на ИИ ЦОД и коммуникационную сферу, а валовая маржа составит около 70 %. В портфолио добавятся разнообразные продукты, включая генераторы тактовых импульсов (clock generators), буферы (buffers), сетевые синхронизаторы (network synchronizers) и подавители джиттера (jitter attenuators) — дополняя имеющуюся линейку MEMS-осцилляторов компании. Это расширяет присутствие SiTime на рынке коммутаторов ЦОД, SmartNIC, маршрутизаторов, промышленных систем и автомобильных платформ. По условиям сделки SiTime выплатит Renesas $1,5 млрд наличными и передаст приблизительно 4,13 млн своих акций. На это потратят собственные средства компании, ещё $900 млн будет взято в долг Wells Fargo. Ожидается, что сделка будет закрыта к концу 2026 года, после чего глава Renesas Хидетоси Сибата (Hidetoshi Shibata) войдёт в совет директоров SiTime. Дополнительно подписан меморандум о взаимопонимании для изучения возможности интеграции MEMS-резонаторов SiTime во встраиваемые продукты Renesas, это должно снизить сложность печатных плат с повышением эффективности и производительности готовых решений.
06.02.2026 [18:00], Сергей Карасёв
ИИ-пирамида: M5Stack представила мини-компьютер AI Pyramid Computing Box в необычном корпусеКомпания M5Stack, по сообщению CNX Software, выпустила компьютер небольшого форм-фактора AI Pyramid Computing Box, подходящий для работы с ИИ-приложениями. Главной особенностью новинки является необычное исполнение: устройство заключено в пирамидальный корпус, в верхней части которого располагается настраиваемая кнопка с подсветкой. В основу положен процессор Axera AX8850 с восемью ядрами Arm Cortex-A55, работающими на частоте до 1,7 ГГц. Встроенный NPU-блок обеспечивает ИИ-производительность до 24 TOPS на операциях INT8. Возможно кодирование материалов 8K (30 к/с) и декодирование 8K (60 к/с) в форматах H.264/H.265. В оснащение входят флеш-модуль eMMC 5.1 вместимостью 32 Гбайт и слот для карты microSD. Стандартная версия AI Pyramid Computing Box несёт на борту 4 Гбайт LPDDR4Х-4266 (по 2 Гбайт для ОС и NPU). Есть два выхода HDMI с поддержкой 4Kp60. Более мощный вариант AI Pyramid Computing Box Pro располагает 8 Гбайт ОЗУ (по 4 Гбайт для ОС и NPU), а также выходом и входом HDMI с поддержкой 4Kp60. Устройство наделено аудиокодеком ES8311, массивом из четырёх микрофонов ES7210, четырьмя портами USB 3.0 Type-A (5 Гбит/с) и двумя портами USB Type-C (один поддерживает стандарт PD 3.0), двумя сетевыми портами 1GbE (RJ45) и двумя 4-контактными коннекторами UART/I2C. Все разъёмы сосредоточены на одной из боковых граней. Там же находится небольшой информационный OLED-дисплей с разрешением 128 × 32 точки. Габариты составляют 144,5 × 105,0 × 62,0 мм, масса — 195 г. Питание (9 В / 3 А) подаётся через коннектор USB Type-C. На мини-компьютере применяется платформа Linux на базе Ubuntu. Модель AI Pyramid Computing Box предлагается за $200, а вариант AI Pyramid Computing Box Pro стоит на $50 больше.
06.02.2026 [17:43], Руслан Авдеев
Затраты четырёх американских гиперскейлеров на ИИ ЦОД и оборудование превысят в 2026 году $650 млрдСовокупные капитальные затраты четырёх американских гиперскейлеров в 2026 году составят $650 млрд. Огромную сумму выделили на новые ИИ ЦОД и сопутствующее оборудование, необходимое для их функционирования, в т.ч. ИИ-чипы, сетевые кабели, резервные генераторы и т.п., сообщает Bloomberg. Запланированные Alphabet (Google), Amazon (AWS), Meta✴ и Miсrosoft расходы должны помочь в достижении доминирующего положения на рынке ИИ-инструментов, на котором наблюдается беспрецедентный бум. Как утверждают в Bloomberg, вероятные затраты каждой из этих компаний в 2026 году установят рекорд по капитальным затратам любой корпорации за последние десять лет. Сравнить заоблачные расходы можно, разве что, с «пузырём» на телеком-рынке в 1990-х гг. или даже со стремительным развитием железнодорожных сетей в США в XIX веке. Рост расходов на 60 % в сравнении с предыдущим годом означает новую волну ускоренного строительства дата-центров, ведущих к непрекращающемуся дефициту электроснабжения и росту тарифов для обычных пользователей, конфликтам между застройщиками на почве конкуренции за энергию и чистую воду. Также расходы малой группы состоятельной компании могут исказить общие экономические показатели в стране. При этом, по мнению экспертов, рынок вычислительных ресурсов для ИИ рассматривается как очередное поле битвы, где победитель заберёт всё или большую часть. На днях Meta✴ объявила, что капитальные затраты за год вырастут до $135 млрд, рост может составить порядка 87 %. Тогда же Microsoft объявила об увеличении капитальных затрат во II квартале на 66 %, что превышает предыдущие прогнозы. Аналитики полагают, что годовые капитальные затраты компании вырастут почти вдвое до $145 млрд, как и у Oracle — до $55 млрд. Alphabet обнародовала прогноз капитальных вложений, превосходящий расходы значительной части американской промышленности, на уровне до $185 млрд. Наконец, Amazon даже превзошла этот показатель, запланировав потратить $200 млрд в 2026 году. По прогнозам Bloomberg, крупнейшие американские автопроизводители, компании, выпускающие строительную технику, железнодорожные компании, ВПК, мобильные операторы, службы доставки посылок, а также Exxon Mobil, Intel, Walmart и др. (всего 21 компания) потратят суммарно $180 млрд. При этом расходы гиперскейлеров даже по отдельности уже превысили ВВП целых стран. У каждого из гиперскейлеров разные подходы к обеспечению окупаемости инвестиций. Но все затраты основаны на предпосылке, что инструменты вроде ChatGPT будут играть всё более важную роль в бизнесе и дома. Создание передовых ИИ с помощью тысяч чипов — чрезвычайно дорогой процесс, но затраты оправдываются предполагаемым экспоненциальным ростом доходов в будущем. Всего несколько лет назад даже IT-гиганты имели относительно небольшие вычислительные мощности, обслуживая миллиарды людей, но теперь ситуация изменилась. Например, в 2026 году Meta✴ впервые за шесть лет потратила на капитальные проекты больше, чем на исследования и разработки (в основном, на зарплаты разработчикам). На конец 2025 года она уже владела активами и оборудованием на $176 млрд, это приблизительно впятеро больше, чем на конец 2019 года.
Источник изображения: Bloomberg По мере роста объёмов работ пока неизвестно, способны ли компании реализовать свои амбиции. Идёт конкуренция за ограниченное количество электриков, грузовиков-цементовозов и ИИ-ускорители NVIDIA, выпускаемые TSMC в ограниченных объёмах. Кроме того, прибыль Meta✴ и Google поступает в основном от цифровой рекламы, Amazon является крупнейшим ретейлером и поставщиком облачных сервисов, Microsoft является крупнейшим продавцом ПО для бизнеса — все они лидируют в своих отраслях и имеют значительные денежные резервы. Готовность тратить эти резервы на ИИ-проекты не может не беспокоить инвесторов. По словам представителя Theory Ventures, ранее работавшего в Google, раньше средства вкладывались в настоящие «машины для производства денег», а теперь им сами понадобились эти деньги, и даже кредиты. Более того, инвесторы, в последний год стремившиеся скупить акции техногигантов, теперь весьма осторожны на фоне растущих капитальных затрат. В некоторых случаях акции продаются даже тогда, когда основные направления бизнеса от онлайн-рекламы до электронной коммерции оставались стабильными и выручка даже превышала прогнозы. По словам некоторых экспертов, инвесторов пугают «аналитические обзоры и риторика». Не исключено, что перед их глазами — пример менее успешных компаний. Например, Fermi, очень успешно стартовавшая со сбором средств, теперь подозревается в манипуляциях с ценными бумагами и против неё уже подали коллективный иск от имени инвесторов. А, например, Oracle банки уже не очень хотят давать деньги в долг. На неё, кстати, тоже подали в суд в связи непрозрачностью финансирования ИИ ЦОД в интересах OpenAI, на которую завязано очень многое.
06.02.2026 [15:18], Владимир Мироненко
Акции Amazon упали после объявления о $200 млрд капзатрат на 2026 годАкции Amazon рухнули более чем на 10 % на внебиржевых торгах в четверг после объявления финансовых результатов за IV квартал и весь 2025 год и повышения прогноза капитальных затрат на 2026 год до $200 млрд. Выручка Amazon в IV квартале 2025 года, закончившемся 31 декабря, выросла год к году на 14 %, до $213,39 млрд, превысив прогноз аналитиков в $211,33 млрд (согласно опросу LSEG). Скорректированная прибыль на разводнённую акцию составила $1,95, что ниже консенсус-прогноза Уолл-стрит в $1,97. Чистая прибыль выросла до $21,19 млрд с $20,00 млрд годом ранее. В текущем квартале Amazon прогнозирует выручку в диапазоне от $173,5 млрд до $178,5 млрд, что означает рост год к году примерно на 11–15 %. Средняя точка этого диапазона соответствует прогнозу аналитиков в $175,6 млрд. За весь 2025 год выручка Amazon выросла 12 % до $716,92 млрд с $637,96 млрд годом ранее. Чистая прибыль увеличилась до $77,67 млрд или $7,17 на разводнённую акцию с $59,25 млрд или $5,53 на разводнённую акцию в 2024 году. Выручка облачного подразделения Amazon Web Services (AWS) за квартал увеличилась на 24 % до $35,58 млрд, превзойдя ожидания аналитиков, опрошенных StreetAccount, в размере $34,93 млрд. Операционная прибыль сегмента AWS достигла $12,47 млрд по сравнению с $10,63 млрд годом ранее. По словам гендиректора Amazon Энди Джасси (Andy Jassy), это был самый быстрый темп роста AWS за 13 кварталов. Как отметил ресурс SiliconANGLE, облачный бизнес Amazon по-прежнему намного больше, чем у конкурентов, но его рыночная доля постепенно сокращается из-за роста Microsoft Azure и Google Cloud. На прошлой неделе Microsoft сообщила о росте выручки Azure на 39 %, а продажи Google Cloud выросли на 48 %, что представляет собой самый быстрый темп роста с 2021 года. Аналитики сообщили, что Azure и Google Cloud также быстрее растут в сегменте ИИ-сервисов. «Учитывая высокий спрос на наши существующие продукты и перспективные возможности, такие как ИИ, микросхемы, робототехника и LEO-спутники, мы планируем инвестировать около $200 млрд в капитальные вложения в Amazon в 2026 году и ожидаем высокой долгосрочной окупаемости вложенного капитала», — заявил Джасси. В ходе конференции с аналитиками Джасси пояснил, что основная часть капитальных затрат в 2026 году будет направлена в AWS, где, по его словам, «рабочие нагрузки, не связанные с ИИ, растут быстрее, чем мы ожидали». «У нас очень высокий спрос, — добавил Джасси. — Клиенты действительно хотят использовать AWS для основных и ИИ-задач, и мы монетизируем мощности так быстро, как только можем их установить». Объявленная сумма значительно превышает прогноз Уолл-стрит в $146,6 млрд и намного превосходит $131 млрд капзатрат в 2025 году. Ранее на этой неделе материнская компания Google, Alphabet, заявила, что планирует потратить от $175 до $185 млрд на капитальные затраты, а Meta✴ Platforms — от $115 до $135 млрд. Ожидаемые затраты Microsoft составят $145 млрд, а Oracle — $55 млрд. Несмотря на опасения инвесторов по поводу значительных капитальных затрат, некоторые аналитики считают, что позиции Amazon остаются сильными. «Развитие ИИ, безусловно, значительно ускоряет переход компаний в облако, что является основной причиной значительно более высоких, чем прогнозировалось, капитальных затрат, которые мы считаем фундаментально позитивными», — написал аналитик Pivotal Research Group Джефф Влодарчак (Jeff Wlodarczak) в записке для клиентов. Он отметил, что Amazon управляет двумя высокорентабельными быстрорастущими предприятиями и огромным низкорентабельным логистическим бизнесом с беспрецедентным масштабом, который «потенциально может существенно повысить маржу в среднесрочной и долгосрочной перспективе, используя ИИ в сочетании с робототехникой». |
|

