Лента новостей
03.11.2024 [23:50], Владимир Мироненко
Lumen организует частные ВОЛС между ИИ ЦОД AWS, а взамен воспользуется ИИ-сервисами AmazonLumen Technologies и Amazon Web Services (AWS) объявили о сделке, которая обещает быть взаимовыгодной для обеих сторон. Финансовые условия соглашения не разглашаются. В рамках сделки Lumen предоставит выделенную инфраструктуру Private Connectivity Fabric на базе частных ВОЛС между регионами и локальными зонами AWS в США. AWS продолжит развёртывать свои собственные сетевые решения на данных ВОЛС. Как указано в пресс-релизе, усовершенствованная сеть AWS обеспечит высокоскоростные и динамические соединения, которые предоставят клиентам возможность разрабатывать приложения генеративного ИИ, обучать ИИ-модели и поставлять новые продукты на базе ИИ по всему региону и в локальных зонах. «ИИ меняет отрасли, и поддерживающая его сетевая инфраструктура должна быть такой же динамичной и отзывчивой, — сказала Кейт Джонсон (Kate Johnson), президент и генеральный директор Lumen Technologies. — Будучи доверенной сетью для ИИ, Lumen использует ВОЛС следующего поколения, чтобы помочь AWS предоставлять решения с высокой пропускной способностью, которые позволят их клиентам испытать и реализовать весь потенциал ИИ». ![]() Источник изображения: Lumen Technologies Также в рамках сделки Lumen переместит свои продуктовые и IT-платформы в облако AWS. В будущем Lumen сможет применять ИИ-технологии Amazon, включая сервис Bedrock, для лучшего планирования и оптимизации работы сети. Это обеспечит Lumen полную видимость своей сети, позволит повысить качество обслуживания клиентов и сократить расходы. В Lumen планируют перейти на автономную сетевую платформу на базе генеративного ИИ, которая позволит динамически управлять распределением ресурсов, а также быстро выявлять и решать проблемы, связанные с обслуживанием и сетью. «С AWS мы можем поддерживать нашу трансформацию и удовлетворять растущие потребности наших клиентов», — сказала Джонсон. В пресс-релизе также отмечено, что Lumen и AWS уже много лет являются партнёрами. Имея статус провайдера AWS MSP (Managed Service Provider), Lumen помогает клиентам переносить рабочие нагрузки в AWS, обеспечивая плавный переход к их облачной инфраструктуре. Lumen управляет инфраструктурой, включающей более чем 423 тыс. км оптоволоконных линий связи. Компания стремится извлечь выгоду из растущего спроса на ИИ-технологии, чтобы компенсировать падение выручки от устаревших направлений бизнеса, включя предоставление голосовых, широкополосных и других сервисов для предприятий и частных лиц. Недавно компания объявила о заключении подобных сделок с Meta✴ и Microsoft, причём в Azure она тоже перенесёт часть нагрузок. Кейт Джонсон заявила в интервью Bloomberg TV, что сети этих компаний не отвечают их потребностям в экономике ИИ, поскольку недостаточно велики, недостаточно быстры и недостаточно безопасны, но Lumen под силу исправить эти проблемы. В августе Lumen сообщила, что благодаря буму вокруг ИИ получила новые заказы на сумму $5 млрд и ведёт «активные переговоры с клиентами», чтобы заключить сделки ещё на $7 млрд.
03.11.2024 [13:15], Сергей Карасёв
Google объявила о доступности ИИ-ускорителей TPU v6 TrilliumКомпания Google сообщила о том, что её новейшие ИИ-ускорители TPU v6 с кодовым именем Trillium доступны клиентам для ознакомления в составе облачной платформы GCP. Утверждается, что на сегодняшний день новинка является самым эффективным решением Google по соотношению цена/производительность. Официальная презентация Trillium состоялась в мае нынешнего года. Изделие оснащено 32 Гбайт памяти HBM с пропускной способностью 1,6 Тбайт/с, а межчиповый интерконнект ICI обеспечивает возможность передачи данных со скоростью до 3,58 Тбит/с (по четыре порта на чип). Задействованы блоки SparseCore третьего поколения, предназначенные для ускорения работы с ИИ-моделями, которые используются в системах ранжирования и рекомендаций. Google выделяет ряд существенных преимуществ Trillium (TPU v6e) перед ускорителями TPU v5e:
![]() Один узел включает восемь ускорителей TPU v6e (в двух NUMA-доменах), два неназванных процессора (суммарно 180 vCPU), 1,44 Тбайт RAM и четыре 200G-адаптера (по два на CPU) для связи с внешним миром. Отмечается, что посредством ICI напрямую могут быть объединены до 256 изделий Trillium, а агрегированная скорость сетевого подключение такого кластера (Pod) составляет 25,6 Тбит/с. Десятки тысяч ускорителей могут быть связаны в масштабный ИИ-кластер благодаря платформе Google Jupiter с оптической коммутацией, совокупная пропускная способность которой достигает 13 Пбит/с. Trillium доступны в составе интегрированной ИИ-платформы AI Hypercomputer. Заявляется, что благодаря ПО Multislice Trillium обеспечивается практически линейное масштабирование производительности для рабочих нагрузок, связанных с обучением ИИ. Производительность кластеров на базе Trillium может достигать 91 Эфлопс на ИИ-операциях: это в четыре раза больше по сравнению с самыми крупными развёртываниями систем на основе TPU v5p. BF16-производительность одного чипа TPU v6e составляет 918 Тфлопс, а INT8 — 1836 Топс. ![]() В бенчмарках Trillium по сравнению с TPU v5e показал более чем четырёхкратное увеличение производительности при обучении моделей Gemma 2-27b, MaxText Default-32b и Llama2-70B, а также более чем трёхкратный прирост для LLama2-7b и Gemma2-9b. Кроме того, Trillium обеспечивает трёхкратное увеличение производительности инференса для Stable Diffusion XL (по отношению к TPU v5e). По соотношению цена/производительность TPU v6e демонстрирует 1,8-кратный рост по сравнению с TPU v5e и примерно двукратный рост по сравнению с TPU v5p. Появится ли более производительная модификация TPU v6p, не уточняется.
03.11.2024 [12:15], Сергей Карасёв
Google Cloud представила инстансы A3 Ultra с ускорителями NVIDIA H200 и готовится развернуть суперускорители GB200 NVL72Компания Google объявила о том, что в составе её облачной платформы в скором времени станут доступны инстансы A3 Ultra на базе ускорителей NVIDIA H200. Новые виртуальные машины предназначены для ресурсоёмких нагрузок, связанных с ИИ, включая обучение больших языковых моделей (LLM). Напомним, в августе 2023 года Google анонсировала инстансы A3 с ускорителями NVIDIA H100. Позднее дебютировали виртуальные машины A3 Mega с поддержкой конфиденциальных вычислений. А до конца текущего месяца клиенты получат доступ к A3 Ultra со значительно более высокой производительностью. Представленные инстансы построены на серверах с новыми DPU Titanium ML, оптимизированными для высокопроизводительных облачных рабочих нагрузок ИИ. Заявленная пропускная способность RDMA-соединений GPU↔GPU достигает 3,2 Тбит/с (RoCE). Задействована фирменная платформа Google Jupiter с оптической коммутацией. По сравнению с A3 Mega виртуальные машины A3 Ultra обеспечивают следующие преимущества:
Инстансы A3 Ultra будут доступны через Google Kubernetes Engine (GKE). Кроме того, виртуальные машины войдут в состав Hypercompute Cluster — специализированной платформы, объединяющей передовые ИИ-технологии Google Cloud. Отмечается также, что в начале 2025 года Google развернёт системы на базе NVIDIA GB200 NVL72. Ранее Google демонстрировала собственный вариант этого суперускорителя.
03.11.2024 [12:07], Руслан Авдеев
Bain Capital получила контроль над европейским оператора ЦОД AQ Compute и обещает многомиллиардные инвестиции в развитие бизнесаЧастная инвестиционная компания Bain Capital из США приобрела 80 % акций европейского оператора ЦОД AQ Compute. По данным Datacenter Dynamics, сумма сделки не раскрывается, но бывший владелец контрольного пакета Aquila Group примет участие в дальнейших инвестициях и сохранит за собой 20 % акций. Последняя основала AQ Compute в 2020 году, а первый ЦОД компании на 6 МВт открылся в Осло (Норвегия) в феврале 2024 года. Теперь его расширяют и на участке доступно уже 21 МВт. Предполагается, что в дальнейшем можно будет нарастить ёмкость до 171 МВт. Сейчас компания строит 60-МВт ЦОД в Барселоне (Испания) и Милане (Италия), объекты ориентированы на гиперскейлеров и ИИ-инфраструктуру. После сделки Bain Capital и Aquila Group объявили, что намерены значительно ускорить расширение бизнеса в Европе. В Aquila Capital сообщили о намерении инвестировать сотни миллионов евро в общий проект. Aquila Group займётся развитием и Aquila Clean Energy, независимого поставщика «чистой» энергии. Bain Capital владеет одним из крупнейших операторов дата-центров в Азии ChinData, якорным клиентом которого является ByteDance (TikTok). Bain купила ChinData в 2019 году, объединила её с Bridge Data Centres и вывела новую структуру на IPO в 2020 году, сохранив за собой долю в 42 %. Однако в прошлом году Bain вновь приватизировала ChinData в результате сделки по слиянию с дочерними структурами, процесс обошёлся в $3,16 млрд. С марта 2024 года Bain не оставляет попыток продать ChinData целиком или по частям. Кроме того, Bain Capital инвестировала в оператора DC Blox в США.
03.11.2024 [11:12], Сергей Карасёв
Nebius, бывшая Yandex, увеличила квартальную выручку почти в 9 разНидерландская Nebius Group N.V. (бренд Nebius), бывшая материнская компания «Яндекса», обнародовала неаудированные финансовые результаты за III квартал 2024 года. Выручка за трёхмесячный период достигла $43,3 млн: это почти в 9 раз, на 766 %, больше прошлого результата, составлявшего около $5,0 млн. Отрицательный показатель скорректированной EBITDA (прибыль до вычета процентов, налогов и амортизационных отчислений) сократился в годовом исчислении на 23 % — с $67,6 млн до $51,9 млн. При этом скорректированный чистый убыток оказался на отметке $47,3 млн против $86,5 млн в III четверти 2023 года. ![]() Источник изображения: Nebius Основной бизнес Nebius Group — это облачная платформа Nebius AI, ориентированная на ИИ-нагрузки. Компания предоставляет заказчикам вычислительные ресурсы, хранилища и управляемые сервисы на базе оборудования собственной разработки, включая серверы и стойки. В III квартале 2024 года на долю Nebius AI пришлось около двух третей от общей выручки группы. Поступления от облачных услуг выросли почти в 8 раз по сравнению с предыдущим годом, тогда как ARR (годовой регулярный доход) превысил $120 млн по состоянию на сентябрь 2024 года. Клиентская база расширилась до более чем 40 обслуживаемых заказчиков по сравнению с 30 во II квартале 2024 года. В частности, появились новые клиенты из списка Fortune 500. Nebius начала реализацию своей масштабной программы по инвестированию более $1 млрд в инфраструктуру ИИ по всей Европе к середине 2025 года. Компания запустит первый ИИ-кластер во Франции на базе ускорителей NVIDIA H200. Кроме того, продолжает расширяться ассортимент доступных облачных сервисов.
02.11.2024 [22:05], Руслан Авдеев
APNIC: переход на IPv6, как оказалось, не так уж нуженПо словам главного научного сотрудника APNIC (Asia Pacific Network Information Centre) Джеффа Хьюстона (Geoff Huston), перспективы перехода на протокол IPv6 не особенно привлекательны из-за меняющейся структуры сети, передаёт The Register. По словам Хьюстона, переход от IPv4 к IPv6 не обеспечит принципиально новых функциональных возможностей — предоставление более обширного адресного пространства является эволюционным шагом, а не революционным. В период стремительного развития интернета телеком-операторы занялись масштабированием сетей, отложив переход на IPv6. При этом различные варианты NAT позволили работать в условиях дефицита IPv4-адресов, из-за чего повсеместное внедрение IPv6 стало не таким срочным. ![]() Источник изображения: 2H Media/unsplash.com Более того, со временем изменилось и использование Сети. Так, в основе современных CDN, на которые опирается всё больше сервисов, лежат не IP-адреса, а доменные имена. Фактически сеть постепенно превратилась в «трубопроводы» для передачи данных, а основная функциональность постепенно смещается в приложения. Отдельным устройствам и ПО необязательно общаться напрямую друг с другом. Другими словами, массовый переход на IPv6 не так важен, как предполагалось, поскольку современные технологии и архитектуры дают возможность Сети функционировать и без полного отказа от IPv4. При этом растёт роль приложений, начавших играть роль сервисов. Они более гибко управляют потоками данных и пользовательским опытом, без ограничений, характерных для традиционных сетей. Хотя в будущем IP-адреса по-прежнему будут играть важную роль, но она будет снижаться, поскольку приложения берут на себя больше контроля над потоками информации. Хьюстон выразил мнение, что пришло время пересмотреть определение интернета как комплекса сетей, использующих общую физическую инфраструктуру передачи данных, общие протоколы и общий адресный пул. Вместо этого современная Сеть больше похожа на набор сервисов, использующих общие механизмы ссылок и общее пространство имён вроде DNS. Впрочем, подобных взглядов придерживаются не все. Недавно появились данные о стратегии Вьетнама, предусматривающий полный переход на IPv6 в ближайшие годы, а Китай ещё в конце 2023 года постановили обеспечить всё новое SOHO-оборудование поддержкой IPv6. Год назад сообщалось, что интернет-регистратор APNIC заканчивает делегировать IPv4-адреса своего последнего блока /8.
02.11.2024 [21:47], Владимир Мироненко
Облако AWS стало основным драйвером роста выручки Amazon — компания готова и дальше вкладываться в ИИ-инфраструктуруAmazon объявила результаты III квартала 2024 года, завершившегося 30 сентября, в котором облачные сервисы вновь стали одним из основных драйверов роста. Выручка Amazon составила $158,88 млрд, превысив показатель аналогичного квартала прошлого года на 11 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, в размере $157,2 млрд. При этом выручка облачного подразделения Amazon Web Services (AWS) выросла на 19 % до $27,4 млрд, немного не дотянув до прогноза аналитиков StreetAccount в размере $27,52 млрд, пишет CNBC. Увеличение выручки AWS ускоряется уже пятый квартал подряд. Доля ИИ-решений в выручке AWS составляет миллиарды долларов и более чем вдвое увеличилась по сравнению с прошлым годом, сообщил гендиректор Amazon Энди Джесси (Andy Jassy), ранее возглавлявший AWS: «Я считаю, что у нас больше спроса, чем мы могли бы удовлетворить, если бы у нас было ещё больше (вычислительных) мощностей сегодня». «Думаю, что сегодня у всех меньше мощностей, чем имеется спроса», — отметил он, добавив, что именно увеличение поставок чипов позволило бы решить эту проблему. ![]() Источник изображений: AWS Операционная прибыль AWS достигла $10,45 млрд, что на 50 % больше показателя годичной давности и составляет 60% операционной прибыли её материнской компании. Аналитики ожидали рост до $9,15 млрд. В отчётном квартале операционная маржа AWS, ключевой показатель прибыльности в процентах от продаж, достигла нового максимума в 38,1 %. Для сравнения, квартальная операционная маржа Google Cloud составила 17,1 % при прибыли в размере $1,9 млрд и выручке в $11,4 млрд. Финансовый директор Amazon Брайан Олсавски (Brian Olsavsky) назвал в числе факторов, повышающих маржу AWS ускорение спроса на её услуги и стремление к эффективности и контролю затрат во всём бизнесе, включая более продуманный найм персонала. Кроме того, он сообщил о продлении AWS в 2024 году срока службы своих серверов. Олсавски рассказал, что Amazon ожидает около $75 млрд капитальных затрат в 2024 году, большая часть которых будет направлена на технологическую инфраструктуру, связанную в первую очередь с AWS. В свою очередь, Джесси предположил, что капитальные расходы компании будут ещё выше в 2025 году, отметив, что рост «действительно обусловлен генеративным ИИ», и добавив, что, по его мнению, инвестиции в конечном итоге окупятся. «Наш бизнес в сфере ИИ — это многомиллиардный бизнес, рост которого исчисляется трехзначными процентами из года в год, и на данном этапе развития он растёт в три раза быстрее, чем AWS», — цитирует слова Джесси ресурс geekwire.com. Джесси отметил, что платформа в целом AWS тоже «росла довольно быстро». Также в отчётном квартале AWS объявила в соцсети X о решении закрыть некоторые сервисы, включая CodeCommit. Гендиректор AWS Мэтт Гарман (Matt Garman) объяснил ресурсу TechCrunch, что AWS «не может инвестировать во всё подряд». В текущем квартале Amazon прогнозирует выручку в диапазоне от $181,5 до $188,5 млрд, что означает рост на 7–11 % в годовом исчислении. Средняя точка этого диапазона, $185 млрд, немного ниже консенсус-прогноза аналитиков в $186,2 млрд (LSEG).
02.11.2024 [14:06], Руслан Авдеев
Intel катастрофически отстала от NVIDIA и AMD по объёмам продаж ИИ-ускорителей, не продав Gaudi даже на $500 млнNVIDIA стала самым быстрорастущим производителем ИИ-ускорителей, своим успехом стимулируя работу AMD, тоже желающей воспользоваться высоким спросом на ИИ-решения. А вот у Intel, по данным The Verge, рассчитывавшей заработать $1–2 млрд в 2024 году на ИИ-ускорителях Gaudi, похоже, не выйдет получить и $500 млн. Об этом прямо заявил в ходе последнего отчёта года глава компании Пат Гэлсингер (Pat Galsinger). Хотя компания представила новейшие ускорители Gaudi3 в прошлом квартале, распространение Gaudi в целом было более медленным, чем ожидалось — на это повлиял переход с Gaudi2 на Gaudi 3 и специфика ПО. В 2025 году, как ожидается, поставки Gaudi3 тоже будут не столь велики, как планировалось ранее. Несмотря на то, что заявленных целей добиться не получится, компания «остаётся воодушевлена» рынком ИИ. Хотя Гелсингер не скрыл разочарования, по его словам, имеется очевидная необходимость в более выгодных с точки зрения TCO ИИ-решениях на основе открытых стандартов, так что Intel будет работать над дальнейшим улучшением Gaudi. ![]() Источник изображения: Intel Гелсингер также выразил недовольство огромными расходами индустрии на чипы, нацеленные на обучение моделей в облаках, сравнив такую «тренировку ИИ» с «созданием погодной модели без её использования». В его видении ИИ необходимо интегрировать вообще во все чипы, что может оказаться важным в долгосрочной перспективе. В прошлом квартале Intel анонсировала план снижения расходов на $10 млрд и увольнении более 15 тыс. человек. Также известно о структурных изменениях самого бизнеса, включая передачу подразделения, занятого edge-системами в Client Computing Group, которая вообще-то работает над решениями для настольных ПК и ноутбуков. Кроме того, предполагается интеграция команд разработчиков ПО в основные подразделения компании. По словам Гелсингера, Intel будет фокусировать внимание на меньшем числе проектов, главной задачей станет максимизация ценности x86-франшизы на рынках клиентских устройств, периферийных вычислений и центров обработки данных.
02.11.2024 [13:36], Сергей Карасёв
Arm-процессоры Google Axion прописались в инстансах C4A: до 72 vCPU и 576 Гбайт RAMОблачная платформа Google Cloud анонсировала инстансы C4A — первые виртуальные машины, построенные на фирменных Arm-процессорах Axion собственной разработки. Утверждается, что C4A по соотношению цена/производительность обеспечивают выигрыш до 10 % по сравнению с аналогичными предложениями конкурентов. Напомним, чипы Axion дебютировали в апреле нынешнего года. Они оснащены Armv9-ядрами Neoverse V2 (Demeter), которые функционируют в связке с контроллерами Titanium (отвечают за работу с сетью, защиту и разгрузку IO-операций). Инстансы C4A предназначены для нагрузок общего назначения. Среди них названы веб-серверы, контейнерные микросервисы, СУБД, серверы приложений, аналитика данных, обработка мультимедийных материалов и инференс. Google заявляет, что по сравнению с виртуальными машинами на основе x86-процессоров текущего поколения инстансы C4A обеспечивают повышение энергетической эффективности до 60 % и улучшение соотношения цена/быстродействие до 65 %. Учитывая эти преимущества, ключевые службы Google, такие как Bigtable, Spanner, BigQuery, F1 Query, Blobstore, Pub/Sub, Google Earth Engine и YouTube Ads, уже начали переход на Axion. Инстансы C4A доступны в трёх вариантах: standard, highcpu и highmem. Во всех версиях количество vCPU (фактически ядер) варьируется от 1 до 72. В случае стандартных модификаций на один vCPU выделяет 4 Гбайт памяти, а для highcpu и highmem — 2 Гбайт и 8 Гбайт соответственно. Таким образом, объём памяти может составлять до 576 Гбайт. Стандартная пропускная способность сетевого подключения — до 50 Гбит/с, а для приложений с интенсивным трафиком показатель может достигать 100 Гбит/с. Кроме того, доступно хранилище Hyperdisk последнего поколения с производительностью до 350 тыс. IOPS и пропускной способностью до 5 Гбайт/с. ![]() Источник изображения: Google Клиенты Google Cloud могут использовать C4A для многих сервисов, включая Google Compute Engine, Google Kubernetes Engine (GKE), Batch и Dataproc. Виртуальные машины поддерживают большинство популярных редакций Linux — RHEL, SUSE Linux Enterprise Server, Ubuntu, Rocky Linux и др. Программное обеспечение, совместимое с архитектурой Arm, доступно в Google Cloud Marketplace. ![]() Источник изображения: Phoronix Согласно тестам Phoronix, инстансы C4A с 48 vCPU обеспечивают 1,4-кратный прирост производительности по сравнению с C4 на базе Intel Xeon. А по отношению к инстансам T2A на Arm-чипах Ampere Altra новые машины C4A демонстрируют увеличение быстродействия в 1,95 раза. При этом с финансовой точки зрении новинки оказываются выгоднее других решений.
02.11.2024 [13:06], Владимир Мироненко
Microsoft не хватает ресурсов для обслуживания ИИ, но компания готова и далее вкладываться в ЦОД, хотя инвесторам это не по нравуMicrosoft сообщила о результатах работы в I квартале 2025 финансового года, завершившемся 30 сентября. Показатели компании превысили прогнозы аналитиков, но её ожидания и планы вызвали опасения инвесторов, так что акции упали в четверг на 6 %. До этого акции компании падали столь значительно 26 октября 2022 года — на 7,7 %, за месяц до публичного релиза ChatGPT, после которого начался бум на ИИ. В этот раз инвесторов не устроили планы компании по увеличению расходов на искусственный интеллект (ИИ) в текущем квартале и ожидаемое замедление роста облачного бизнеса Azure, что свидетельствует о том, что крупных инвестиций в ИИ было недостаточно, чтобы справиться с ограничениями мощности ЦОД компании — Microsoft попросту не хватает ресурсов для обслуживания заказчиков. Выручка Microsoft выросла год к году на 16 % до $65,6 млрд, что выше средней оценки аналитиков в $64,5 млрд, которых опросила LSEG. Чистая прибыль увеличилась на 11 % до $24,67 млрд, в то время как аналитики прогнозировали $23,15 млрд. Чистая прибыль на акцию составила $3,30 при прогнозе Уолл-стрит в рамзере $3,10. Сегмент Intelligent Cloud компании Microsoft, который охватывает облачные сервисы Azure, а также Windows Server, SQL Server, GitHub, Nuance, Visual Studio и корпоративные сервисы, показал рост выручки на 20 % в годовом исчислении до $24,1 млрд. Azure и другие облачные сервисы увеличили выручку на 33 %. При этом ИИ внес 12 п.п. в рост выручки Azure в отчётном квартале по сравнению с 11 п.п. в предыдущем трёхмесячном периоде. Большинство направлений бизнеса Microsoft показали значительный рост: LinkedIn — 10 %; продукты Dynamics и облачные сервисы — 14 %, в том числе Dynamics 365 — 18 %; серверные продукты и облачные сервисы — 23 %. Выручка Microsoft 365 Commercial Cloud выросла на 15 %, а потребительского Microsoft 365 и сопутствующих облачных сервисов — на 5 %. Вместе с тем внешние поставщики запаздывают с поставкой инфраструктуры ЦОД для Microsoft, что означает, что компания не сможет удовлетворить спрос во II финансовом квартале. Бретт Иверсен (Brett Iversen), вице-президент Microsoft по связям с инвесторами, подтвердил, что Microsoft не сможет решить проблему ограничений мощности ИИ до II половины финансового года. Microsoft прогнозирует замедление роста выручки Azure во II финансовом квартале до 31–32 %, что отстает от среднего роста в 32,25 %, ожидаемого аналитиками, согласно Visible Alpha. Наряду с замедлением роста выручки Azure у инвесторов вызывает обеспокоенность и то, что Microsoft вкладывает огромные средства в создание инфраструктуры ИИ и расширение ЦОД. Microsoft заявила, что за квартал капитальные затраты выросли на 5,3 % до $20 млрд по сравнению с $19 млрд в предыдущем квартале. Это выше оценки Visible Alpha в размере $19,23 млрд. Сообщается, что в основном средства пошли на расширение ЦОД. Всего за 2025 финансовый год, начавшийся в июле, по оценкам аналитиков Visible Alpha, компания потратит более $80 млрд, что на $30 млрд больше, чем в предыдущем финансовом году. Компания считается лидером среди крупных технологических компаний в гонке ИИ благодаря своему эксклюзивному партнёрству с OpenAI, разработчиком ИИ-чат-бота ChatGPT. Доход Microsoft от бизнеса ИИ пока невелик, хотя компания прогнозирует, что он станет более существенным. В текущем квартале компания планирует достичь выручки в размере $10 млрд в годовом исчислении. Также Microsoft сообщила об отказе от предоставления клиентам в аренду ускорителей для обучения новых моделей ИИ, сделав приоритетным инференс. «На самом деле мы не продаем другим просто GPU для обучения [ИИ-моделей], — сказал Сатья Наделла (Satya Nadella). — Это своего рода бизнес, от которого мы отказываемся, потому что у нас очень большой спрос на инференс» для поддержки различных Copilot и других услуг ИИ. Как сообщает The Register, финансовый директор Эми Худ (Amy Hood), в свою очередь заявила, что Microsoft рассматривает доход, полученный от инференса, как источник средств для оплаты будущих инициатив по обучению ИИ-моделей. Сейчас компания стремительно наращивает закупки суперускорителей NVIDIA GB200 NVL72, стремясь получить их до того, как они станут доступны другим игрокам. Кроме того, Azure станет посредником в процессе расширения ИИ-инфраструктуры OpenAI. |
|