Материалы по тегу: облако

10.04.2026 [23:09], Владимир Мироненко

Intel поставит Google несколько поколений Xeon и IPU

Intel и Google объявили об углублении многолетнего партнёрства в области инфраструктуры ИИ и облачных вычислений, охватывающего как развёртывание процессоров, так и совместную разработку специализированных чипов инфраструктуры (IPU). За два дня до этого компания стала партнёром по производству микрочипов для мегапроекта Tesla Terafab. В итоге акции Intel за неделю выросли на треть.

Intel и Google отметили, что по мере ускорения внедрения ИИ-инфраструктура становится всё более сложной и гетерогенной, что приводит к увеличению зависимости от CPU для оркестрации, обработки данных и повышения производительности на системном уровне. В рамках сотрудничества с Intel компания Google планирует использовать несколько поколений процессоров Intel Xeon для улучшения производительности, энергоэффективности и TCO в своих инстансах. Intel уже делает кастомные Xeon для AWS.

Стороны подчеркнули, что одних только ускорителей недостаточно для удовлетворения потребностей современной ИИ-инфраструктуры. «ИИ меняет подход к построению и масштабированию инфраструктуры. Масштабирование ИИ требует большего, чем просто ускорители — оно требует сбалансированных систем. CPU и IPU играют центральную роль в обеспечении производительности, эффективности и гибкости, необходимых для современных рабочих нагрузок ИИ», — сообщил генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan).

Как отметил ресурс The Next Web, Intel потратила последние два года на переориентацию с рынка универсальных вычислений, где она когда-то доминировала, на процессоры и специализированные инфраструктурные чипы, которые играют структурную роль в развёртывании ИИ и которые постоянно недооценивали в рамках концепций, ориентированных на GPU. Одновременно компания развивает бизнес по производству кастомных чипов для ИИ-рынка.

 Источник изображения: Intel

Источник изображения: Intel

Амин Вахдат (Amin Vahdat), старший вице-президент и главный технолог Google по инфраструктуре ИИ отметил: «Процессоры и инфраструктурное ускорение остаются краеугольным камнем систем ИИ — от организации обучения до инференса и развёртывания. Intel является надёжным партнёром уже почти два десятилетия, и её план развития Xeon даёт нам уверенность в том, что мы сможем и дальше удовлетворять растущие требования к производительности и эффективности наших рабочих нагрузок».

Что важно, партнёрство охватывает несколько поколений Intel Xeon, а не текущий цикл обновления оборудования Google. Партнёрство также включает расширенную совместную разработку IPU (DPU) — специализированных программируемых ускорителей на базе ASIC, предназначенных для разгрузки сетевых функций, функций хранения, функций безопасности и т.п., которые на масштабах гиперскейлера позволяют существенно сэкономить и упростить управление инфраструктурой. Ранее компании совместно разработали свой первый IPU Mount Evans.

Момент для анонса партнёрства выбран подходящий. Рабочие нагрузки ИИ смещаются от обучения на ускорителях, что позволить себе могут немногие, к масштабируемому инференсу, который является распределённым, чувствительным к задержкам, непрерывным и требовательным к ресурсам CPU для оркестрации, работы с данными и управления системой в целом. По-видимому, собственные процессоры Google Axion пока не слишком годятся на эту роль. Впрочем, для внешних заказчиков компания точно так же предлагает инстансы с чипами NVIDIA, хотя её собственные TPU пользуются огромным спросом.

Впрочем, расширение сотрудничество можно объяснить и более прозаично — дефицит серверных процессоров на рынке усиливается, так что заранее договориться о поставках с крупным игроком, да ещё имеющим собственное производство на территории США, всегда выгодно.

Постоянный URL: http://servernews.ru/1139785
10.04.2026 [15:05], Руслан Авдеев

Девять из десяти: CoreWeave заключила с Meta✴ сделку на $21 млрд и тут же подписала контракт с Anthropic

Неооблачный провайдер CoreWeave заключил с Meta очередной крупный договор о предоставлении вычислительных мощностей для ИИ. В рамках сделки стоимостью $21 млрд Meta получит в своё распоряжение облачные ИИ-мощности до декабря 2032 года. Мощности для Meta развернут в нескольких локациях, в том числе на безе NVIDIA Vera Rubin. Дополнительно CoreWeave рассчитывает привлечь $4,25 млрд за счёт продажи облигаций для финансирования текущего строительства.

Договор опирается на уже существующее соглашение стоимостью $14,2 млрд, заключенное компаниями в сентябре 2025 года, которое предусматривало предоставление облачных сервисов до декабря 2031 года. Именно под эту сделку привлекли кредит с отложенным предоставлением средств (DDL) для покупки ИИ-серверов и сопутствующей инфраструктурой. К марту 2026 года контракт вырос с $14,2 млрд до $19,2 млрд.

Новый контракт — уже второе соглашение о предоставлении ИИ-инфрастурктуры, подписанное Meta в течение месяца, стоимостью более $20 млрд. В марте Meta заключила сделку объёмом $27 млрд с неооблачной компании Nebius, которая тоже предоставит платформу Vera Rubin. Что касается сделки с Anthropic, то деталей пока мало. Подписано многолетнее соглашение о предоставлении ИИ-мощностей для развития семейства моделей Claude, которые будут развёрнуты поэтапно, начиная с 2026 года. CoreWeave отметила, что теперь девять из десяти лидирующих разработчиков ИИ-моделей пользуются её услугами.

 Источник изображения: Adeolu Eletu/unspalsh.com

Источник изображения: Adeolu Eletu/unspalsh.com

Из привлекаемых $4,25 млрд часть приходится на облигации с погашением $1,25 млрд в 2031 году и конвертируемые, с погашением $3 млрд в 2032 году. Оба вида облигаций доступны институциональным покупателям в рамках частного размещения, без выпуска на открытый рынок. Неооблачная компания активно привлекает финансирование и из других источников. В 2026 году она уже получила $1 млрд от Morgan Stanley, упомянутый кредит на ИИ-ускорители и $2 млрд инвестиций от NVIDIA.

В сентябре 2025 года CoreWeave расширила соглашение с OpenAI на $6,5 млрд, доведя общую сумму контрактов до $22,4 млрд. В августе NVIDIA объявила о намерении выкупить все нераспроданные вычислительные мощности CoreWeave до 2032 года на сумму $6,3 млрд. Microsoft же и так была якорным заказчиком компании, хотя действовала в интересах OpenAI.

Постоянный URL: http://servernews.ru/1139798
10.04.2026 [14:04], Руслан Авдеев

Wasabi купит у Seagate сервис облачного хранения Lyve Cloud

Американская Wasabi Technologies, специализирующаяся на «горячих» облачных хранилищах, купит у Seagate облачное хранилище Lyve Cloud. Это позволит Wasabi укрепить позиции на рынке объектных S3-хранилищ. Сделка обусловлена тем, что клиенты ищут альтернативы традиционным облачным гиперскейлерам, сообщает Silicon Angle.

Финансовые условия сделки пока не разглашаются, но уже известно, что Seagate получит долю в капитале Wasabi. Последняя объявила о планах со временем интегрировать Lyve Cloud в основной бизнес Wasabi. Покупка стала свидетельством стратегических изменений как для продавца, так и для покупателя. Оператор облачных хранилищ Wasabi получит в своё распоряжение большую клиентскую базу и дополнительные возможности для масштабирования, а Seagate сможет сосредоточиться на основном бизнесе по выпуску накопителей и СХД, сохранив потенциал роста благодаря получению доли в капитале Wasabi. Кроме того, благодаря инвестициям Seagate у Wasabi появился новый партнёр, поэтому в компании ожидают, что сделка поможет перейти от конкуренции с Seagate к партнёрству.

Платформа корпоративного хранения данных Lyve Cloud работает с 2021 года и стремится обеспечить «предсказуемое» ценообразование, безопасность и соответствие отраслевым нормативам. В своё время Seagate построила этот бизнес в ответ на растущий запрос на облачные хранилища с контролируемым ценообразованием, особенно для крупных данных — резервного копирования, аналитики и видео. Компании-клиенты, оперирующие петабайтами данных, всё чаще обращают внимание на возможность «пересмотреть» цены в облаках, особенно схемы оплаты за выгрузку, а также сложные механизмы ценообразования. Провайдеры вроде Wasabi стремятся привлечь их фиксированными ценами и упрощённой тарификацией.

 Источник изображения: Wasabi

Источник изображения: Wasabi

Ожидается, что сделка укрепит позиции Wasabi на рынке резервного копирования и восстановления данных. Обе компании продолжат взаимодействие с компаниями, отвечающими за решения в сфере безопасности, включая Veeam Software, Rubrik и Commvault Systems. Одной из целей сделки называется упрощение операций для клиентов, использующих хранилища нескольких поставщиков одновременно.

Инициатива Lyve Cloud — часть более обширного плана Seagate, пытавшейся создать экосистему, связанную со своим оборудованием для хранения данных, в т.ч. патнёрство с поставщиками управляемых сервисов и решений для резервного копирования. С продажей этого бизнеса Seagate фактически отказывается от прямой конкуренции с облачными хранилищами, при этом она сохраняет косвенное участие в бизнесе благодаря доле в капитале. По имеющимся данным, клиенты Lyve Cloud перейдут на платформу Wasabi, управляющей глобальной сетью облачных хранилищ. Акцент делается на совместимость с Amazon S3.

По данным Datacenter Dynamics, в начале года Wasabi привлекла $70 млн в раунде акционерного финансирования, доведя капитализацию до $1,8 млрд. Раунд возглавила L2 Point Management, участие также приняли Everpure (ранее Pure Storage) и действующие инвесторы, включая Fidelity Management & Research Company. На тот момент Wasabi заявляла, что финансирование будет использовано на поддержку расширения ИИ-инфраструктуры, масштабирования глобального присутствия и развития продуктового портфолио. В ноябре 2025 года Wasabi представила новый класс облачных хранилищ, оптимизированный для работы с ИИ-моделями и большими объёмами данных, а также запустила новый облачный регион в Сан-Хосе (Калифорния).

Постоянный URL: http://servernews.ru/1139772
10.04.2026 [13:53], Руслан Авдеев

Bridge Data Centres выгнала из своих ЦОД сингапурское ИИ-неооблако Megaspeed, подозреваемое в нарушении антикитайских санкций США

Подконтрольный американской инвесткомпании Bain Capital оператор ЦОД Bridge Data Centres (BDC) отказал в размещении на своём объекте в Малайзии облачному провайдеру Megaspeed из Юго-Восточной Азии, которого США подозревают в незаконном предоставлении чипов NVIDIA Китаю, сообщает Bloomberg.

Как сообщают знакомые с ситуацией источники, компанию Megaspeed International на объекте в Малайзии заменит облачный провайдер Zenlayer. Об этом свидетельствует служебная записка, направленная Bridge Data Centres своим кредиторам в феврале. Причина замены не называется, но источники сообщают, что оператор ЦОД пошёл на разрыв отношений с Megaspeed после того, как США инициировали расследование относительно структуры собственности компании, желая выяснить, не занималась ли она организацией доступа к передовым ИИ-чипам NVIDIA для Китая в нарушение американских экспортных ограничений.

Для Megaspeed одним из ключевых вопросов является судьба ИИ-серверов на основе ускорителей NVIDIA, обнаруженных на объектах Bridge Data Centres прошлой осенью. Сингапурская Megaspeed является неооблачным ИИ-провайдером, объект в Малайзии был её крупнейшим активом. Megaspeed была сформирована в 2023 году путём отделения от китайской игровой компании.

NVIDIA отказалась сообщать, известно ли ей об инциденте с участием BDC и посещали ли её представители объекты Megaspeed в последние месяцы в этом регионе. В 2025 году производитель проводил выборочные проверки Megaspeed в Юго-Восточнйо Азии. В декабре сообщалось, что компания намерена снова проверить бизнес «в ближайшем будущем». BDC объявила, что все 68,4 МВт мощности ЦОД, зарезервированные для Megaspeed, передадут облачному провайдеру Zenlayer из Лос-Анджелеса. Он специализируется на обучении ИИ-моделей.

 Источник изображения: Hongwei FAN/unspalsh.com

Источник изображения: Hongwei FAN/unspalsh.com

BDC считается одним из крупнейших операторов ЦОД в Азии, куда, по прогнозам экспертов, к 2030 году инвестируют к 2030 году около $800 млрд. Кредиты — ключевое средство финансирования масштабирования BDC, поэтому компания должна демонстрировать кредиторам стабильный приток средств от арендаторов.

Чтобы развиваться дальше, Bridge Data Centres нужны миллиарды долларов. Минувшей зимой она начала привлекать дополнительный капитал. В марте оператор ЦОД вёл переговоры о привлечении $6 млрд для выхода на рынок Таиланда, тогда же компания намеревалась удвоить существующий кредит для расширения в Малайзии до $5 млрд.

По данным Datacenter Dynamics, Megaspeed отрицает участие в любом нелегальном трафике чипов и сдаче в аренду вычислительных мощностей киатйским структурам. По словам её представителей, компания неоднократно проходила проверки со стороны американских и малайзийских властей, а также NVIDIA. Ранее она подчёркивала, что информация СМИ вводит в заблуждение, а сама компания действует строго в рамках всех правил экспортного контроля, в соответствии с самыми высокими «юридическими и этическими стандартами».

Ещё несколько лет назад сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, а позже появилась информация, что Alibaba и ByteDance начали тренировать передовые ИИ-модели в ЦОД Юго-Восточной Азии. Тем не менее, в начале 2026 года в США принят «Закон о безопасности удалённого доступа» (Remote Access Security Act), расширяющий действие «Закона о реформе экспортного контроля». Это позволяет федеральным властям США «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Другими словами, китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР.

Постоянный URL: http://servernews.ru/1139790
10.04.2026 [08:57], Сергей Карасёв

Cloud.ru сформировал неооблако для работы с ИИ

Российский провайдер облачных сервисов Cloud.ru объявил о выделении решений для работы с ИИ в отдельное бизнес-направление. Речь идёт о платформе в формате неооблака (Neocloud), в основу которой положены ускорители на основе GPU.

Отмечается, что при формировании неооблака компания Cloud.ru полагалась на свой опыт в создании ИИ-инфраструктуры и работе с различными типами GPU. По модели GPUaaS (GPU-as-a-Service) провайдер предоставляет доступ к тысячам современных ИИ-ускорителей в публичном облаке. Кроме того, допускается гибридное развёртывание с использованием частной инфраструктуры.

Неооблако предназначено для практического внедрения ИИ в бизнес-процессы. Клиентам предлагается единая управляемая среда, объединяющая инфраструктуру, данные и инструменты. Она обеспечивает полный цикл работы с большими языковыми моделями (LLM) — от разработки и обучения до инференса и эксплуатации. При этом допускается масштабирование ресурсов в соответствии с выполняемыми задачами: могут использоваться как отдельные GPU, так и целые кластеры распределённых вычислений. Инфраструктура может быть адаптирована под разные этапы жизненного цикла ИИ-моделей.

 Источник изображения: Cloud.ru

Источник изображения: Cloud.ru

«В условиях ограниченного доступа к GPU и высокой стоимости оборудования компании сталкиваются с ключевым ограничением — невозможностью гибко управлять вычислительными ресурсами. Преимущество формата Neocloud — эффективное использование графических ускорителей под разные типы нагрузок, от дообучения моделей до инференса», — говорит Cloud.ru.

В рамках неооблака предоставляются различные GPUaaS-сервисы: это, в частности, выделенные серверы и виртуализированные ресурсы под управлением Kubernetes, высокопроизводительные кластеры и пр. Для распределённого обучения используются собственная платформа Evolution Distributed Train, а также стандартные инструменты управления вычислениями. Реализованы функции проактивного мониторинга, автоматической замены отказавших узлов, перезапуска задач обучения и управления очередями. По заявлениям Cloud.ru, благодаря эффективному распределению ресурсов между задачами разного масштаба обеспечивается доступность инфраструктуры на уровне 98 %, тогда как оптимизация затрат достигает 80 %.

«Сегодня бизнесу нужна не просто возможность получить доступ к GPU, а среда, в которой можно работать с ИИ на практике — от экспериментов до масштабирования решений. По сути, облако становится базой для реализации ИИ-стратегии, позволяя закрыть весь цикл работы с моделями и не инвестировать в избыточные мощности», — подчёркивает компания.

Постоянный URL: http://servernews.ru/1139767
09.04.2026 [18:57], Руслан Авдеев

У Cloud.ru уже 29 тыс. серверов и 56 МВт мощностей в девяти ЦОД

Провайдер облачных сервисов и ИИ-решений Cloud.ru отчитался об итогах 2025 года. Выручка компании за 2025 год увеличилась на 50 % год к году, составив 76,5 млрд руб. Показатель EBITDA вырос на 71 % — до 58,0 млрд руб., а чистая прибыль — на 86 % до 14,7 млрд. Для сравнения, в 2024 году чистая прибыль была на уровне 7,9 млрд. По оценкам iKS-Consulting, Cloud.ru является лидером российского рынка облаков.

Особую роль сыграли инфраструктура и сервисы, необходимые для проектов с ИИ. Впервые их доля в общей выручке перевалила за половину и составила 54 % (41,0 млрд руб.). В 2024 году аналогичный показатель составил 47 % — 23,7 млрд руб. Основными потребителями ИИ-сервисов и соответствующей инфраструктуры стали IT-бизнесы (29 %), ретейл (12 %), финансы (10 %) и девелопмент (8 %).

По результатам 2025 года выручка от «базовых» облачных сервисов выросла на 31 %, до 35,5 млрд руб. (против 27,2 млрд руб. в 2024 году). Показатель значительно выше, чем средние темпы роста российского облачного рынка. По словам компании, спрос на ИИ-сервисы стал дополнительным драйвером роста облачного рынка, но выросло и использование базовых облачных сервисов. Утверждается, что компания успешно реализовала накопленную экспертизу в управлении инфраструктурой и созданию новых сервисов, предложив клиентам «востребованные продукты по доступной цене».

 Источник изображения: Razvan Chisu/unspalsh.com

Источник изображения: Razvan Chisu/unspalsh.com

Сообщается, что в феврале Cloud.ru получила кредитный рейтинг ruAA+ от рейтингового агентства АКРА со стабильным прогнозом. В числе прочего отмечаются сильные операционные показатели, низкая долговая нагрузка и высокий уровень рентабельности. Ключевой фактор роста по оценке АКРА — развитие ИИ-направления. Инфраструктура компании включает стойки общей мощностью 56 МВт, размещённых в девяти ЦОД. Всего на компанию приходится 43 тыс. единиц IT-оборудования, в том числе 29 тыс. серверов.

Постоянный URL: http://servernews.ru/1139724
09.04.2026 [11:24], Сергей Карасёв

Uber перенесёт рабочие нагрузки на чипы AWS Graviton и Trainium нового поколения

Компания Uber сообщила о расширении использования облачной платформы Amazon Web Services (AWS). Оператор сервисов для вызова такси и частных водителей, а также доставки еды и грузов перенесёт определённые нагрузки на чипы AWS Graviton и Trainium нового поколения. Компания уже использует Arm-процессоры Ampere в облаке Oracle.

В частности, Uber будет использовать изделия Graviton4, насчитывающие до 96 ядер, для поддержания работы своих зон обслуживания поездок (Trip Serving Zones). Соответствующая инфраструктура функционирует в режиме реального времени: каждый раз, когда пользователь заказывает поездку или доставку, система рассчитывает оптимальный маршрут, выбирает подходящего водителя и определяет время. В часы пик и при проведении крупных мероприятий создаётся огромная вычислительная нагрузка: требуются анализ миллионов возможных сценариев поездок и обработка данных о местоположении пользователей и водителей. Ожидается, что применение Graviton4 позволит сократить задержки и оптимизировать затраты, а также обеспечит необходимую масштабируемость в периоды всплеска запросов без ущерба для надёжности, доступности или безопасности.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, Uber начнёт применять ускорители Trainium3 для обучения некоторых своих ИИ-моделей, которые лежат в основе приложений вызова такси и доставки. Эти изделия оснащены 144 Гбайт памяти HBM3E, а производительность на операциях FP8 достигает 2,52 Пфлопс. ИИ-модели Uber, как отмечается, анализируют данные миллиардов поездок для выбора водителя или курьера, оценки времени прибытия и генерации рекомендаций для пользователей. Обучение ИИ в таком масштабе требует колоссальных вычислительных возможностей: решения Trainium3, как подчёркивается, способны предоставить необходимые ресурсы.

«Uber — одно из самых требовательных приложений в мире, работающих в режиме реального времени. Мы помогаем Uber обеспечивать надёжность, на которую рассчитывают сотни миллионов людей, а также внедрять ИИ-функции, определяющие будущее сервисов совместных поездок и доставки по запросу», — говорит Рич Гераффо (Rich Geraffo), вице-президент и управляющий директор AWS в Северной Америке.

Постоянный URL: http://servernews.ru/1139689
07.04.2026 [15:52], Руслан Авдеев

Лучше синица в руке: операторы ЦОД всё чаще отказывают неооблакам, предпочитая большой выгоде финансовую устойчивость

Несмотря на отличные условия, предлагаемые многими неооблачными провайдерами операторам ЦОД, последние нередко отказывают в заключении сделок. Дело в том, что перспективы прибыли сводятся на нет высокими рисками, сообщает Datacenter Knowledge. Изменения происходят на фоне исторически низкого уровня свободных площадей в Северной Америке, там спрос продолжает превышать новые предложения.

Срывы перспективных сделок свидетельствуют о глубинных изменениях в принципах распределения мощностей. После двух лет дефицита предложения и роста цен поставщики мощностей ЦОД перестали принимать во внимание только ценовые факторы. Вместо этого на первый план выходит кредитоспособность партнёра, прозрачность спроса со стороны конечных потребителей, уверенность в обеспечении долгосрочной нагрузки и устойчивости бухгалтерского баланса в многолетней перспективе. По словам экспертов, минимальным условием для участия в сделках стал кредитный рейтинг инвестиционного класса.

Согласно исследованиям Datacenter Hawk, средние ставки на размещение оборудования в ЦОД с 2021 года существенно выросли на фоне роста спроса. Крупномасштабные проекты сегодня обходятся в $140–$155/кВт в зависимости от срока действия договора, плотности размещения, а также профиля рисков. Но деньги — не гарантия сделки. Так, сообщается что один из операторов отказал неооблачному провайдеру, который был готов подписать 15-летний контракт по цене до $160/кВт, чтобы получить 2 МВт сразу и до 12 МВт в течение полутора лет. При этом провайдер был готов заранее оплатить счета за первые полгода использования мощностей и вложиться в постройку инфраструктуры СЖО.

 Источник изображения: Artturi Jalli/unsplash.com

Источник изображения: Artturi Jalli/unsplash.com

Сильнее всего страдают неооблачные провайдеры, фактически перепродающие доступ к ИИ-инфраструктуре в виде облачных ресурсов. Сегмент GPU-as-a-Service (GPUaaS) быстро развивается вместе с ИИ-рынком, при этом компании вроде CoreWeave, Lambda Labs и Crusoe выступают «агрегаторами» ИИ-ускорителей для предоставления клиентам по запросу. По данным ABI Research, к 2030 году соответствующий рынок может составить $250 млрд. По данным Datacenter Hawk, доступность электроэнергии для них стала важнейшим фактором при выборе площадки.

Но девелоперы в последнее время предпочитают взаимодействовать с гиперскейлерами, а не неооблаками. Как минимум, операторы ЦОД требуют от неооблачных компаний более надёжных финансовых гарантий, от аккредитивов (letters of credit) до гарантий поддержки со стороны материнских компаний — или просто отказывают им в сделках, поскольку обеспокоены их долгосрочной устойчивостью. В отличие от крупных облачных провайдеров, неооблачные решения зависят от многих переменных, включая доступность ИИ-ускорителей, договоры с поставщиками и клиентами и др.

При этом структура затрат на развёртывание ИИ-систем высокой плотности становится всё сложнее. Всё более востребованная инфраструктура СЖО добавляет $1,5–$1,6 млн/МВт к первоначальным капиталовложениям. Это приблизительно на 20–25 % больше, чем для традиционного воздушного охлаждения. Речь идёт о крупных капитальных затратах, не включенных в ежемесячную плату, а сроки внедрения составляют 6–9 мес. Чаще всего провайдеры перекладывают расходы на клиентов в обмен на незначительное повышение тарифов. В любом случае, для многомегаваттных проектов приходится вкладывать миллионы долларов ещё до начала развёртывания ИИ-оборудования.

 Источник изображения: Jakub Żerdzicki/unsplash.com

Источник изображения: Jakub Żerdzicki/unsplash.com

При этом колокейшн-провайдеры неохотно начинают строительство новых мощностей без заключения соглашений об аренде, а неооблачные компании не рискуют заключать контракты без гарантий предоставления им ИИ-ускорителей и договоров с клиентами. Фактически каждая из сторон ждёт, когда партнёр сделает первый шаг. В результате возникает трёхсторонняя зависимость, способная на месяцы затормозить заключение потенциально перспективных сделок или вообще привести к их срыву.

Проблему усугубляют новые масштабы внедрения ИИ. Если раньше проекты на 4–10 МВт считались крупными, то теперь это «отправная точка», всё чаще речь идёт о 50+ МВт, а иногда о 100+ МВт. Причём в большинстве регионов удовлетворить потребность в 50 МВт в разумные сроки в одном месте просто невозможно. Клиенты вынуждены распределять рабочую нагрузку между несколькими площадками и операторами, что затрудняет как заключение контрактов, так и финансирование.

По мере роста рынка растут и капитальные затраты, и сроки развёртывания — поэтому предпочтение поставщики ЦОД отдают стабильности, а не потенциальной выгоде. Таким образом, успех неооблачных компаний в краткосрочной перспективе будет определяться не соответствием продукта рынку, а способностью привлекать солидный капитал и качественно реализовать проекты. Одним из главных умений будет и способность грамотно организовать логистику — и так продлится пару лет, пока не выявятся победители.

На днях сообщалось, что объём мирового рынка неооблаков достигнет $400 млрд к 2031 году. При этом структура рынка довольно запутанная. Гиперскейлеры сами нередко являются клиентами неооблаков. Например, Google открыто поддерживает и финансово страхует Fluidstack, тогда как CoreWeave до IPO скрывала фактическую зависомость от Microsft и NVIDIA. В то же время и сами гиперскейлеры используют весьма сложные схемы для привлечения средств на развитие ИИ-инфраструктуры.

Постоянный URL: http://servernews.ru/1139550
06.04.2026 [12:40], Сергей Карасёв

Объём мирового рынка неооблаков достигнет $400 млрд к 2031 году

Исследование, проведённое компанией Synergy Research Group, говорит о том, что мировой рынок неооблаков демонстрирует беспрецедентные темпы роста. В IV квартале 2025 года его объём достиг $9 млрд, что на 223 % больше по сравнению с аналогичным периодом предыдущего года.

Аналитики отмечают, что неооблачные платформы становятся отдельной и быстрорастущей категорией облачной инфраструктуры, специально ориентированной на высокопроизводительные вычисления для задач ИИ и машинного обучения. Это, в частности, сервисы GPUaaS (GPU как услуга), решения для генеративного ИИ и пр. Среди ключевых игроков сектора названы CoreWeave, Crusoe, Core Scientific, Lambda, Nebius и Nscale.

 Источник изображения: Synergy Research Group

Источник изображения: Synergy Research Group

По мере роста спроса на инфраструктуру ИИ неооблачные системы набирают обороты. Авторы исследования отмечают, что одним из наиболее сильных конкурентов традиционным гиперскейлерам, таким как AWS, Microsoft Azure и Google Cloud, является компания CoreWeave. Вместе с тем OpenAI и Anthropic закладывают основу для всё более важного направления рынка — платформоориентированных поставщиков, предлагающих облачный доступ к ИИ-моделям и соответствующим средам разработки. В результате, конкурентная обстановка на рынке облаков начинает меняться.

«Мы наблюдаем не просто появление нового класса поставщиков облачных услуг, а более глубокую структурную перестройку в самой архитектуре вычислений», — говорит Джереми Дьюк (Jeremy Duke), основатель и главный аналитик Synergy Research Group.

Спрос на вычислительные ресурсы для ИИ продолжает стремительно расти. По оценкам, в 2025 году в целом объём мирового рынка неооблаков превысил $25 млрд. Аналитики Synergy Research Group прогнозируют, что в дальнейшем среднегодовой темп роста в сложных процентах (CAGR) составит 58 %. Если эти ожидания оправдаются, к 2031 году выручка поставщиков таких услуг приблизится к $400 млрд.

Постоянный URL: http://servernews.ru/1139478
05.04.2026 [13:02], Владимир Мироненко

Microsoft инвестирует в развитие ИИ-инфраструктуры Японии $10 млрд

Microsoft объявила о планах инвестировать в проекты в Японии $10 млрд (около ¥1,6 трлн) в период с 2026 по 2029 год. Инвестиции будут направлены на расширение собственной инфраструктуры Microsoft в стране, сотрудничество с национальными партнёрами для расширения возможностей ИИ-инфраструктуры в Японии, углубление государственно-частного партнёрства в области кибербезопасности с национальными учреждениями Японии, а также подготовку более миллиона инженеров, разработчиков и рабочих в наиболее стратегически важных отраслях Японии к 2030 году.

Объявление было сделано во время визита вице-председателя и президента Microsoft Брэда Смита (Brad Smith) в Токио, где у него прошла встреча с премьер-министром Японии Санаэ Такаичи (Sanae Takaichi). До этого, в 2024 году Microsoft объявила об инвестициях в размере $2,9 млрд в облачную и ИИ-инфраструктуру в Японии в течение двух лет, об открытии первой лаборатории Microsoft Research Asia в Токио и о намерении обучить более трёх миллионов человек по всей Японии. Microsoft отметила, что перевыполнила свои обязательства, поскольку за последние два года помогла более чем 3,4 млн человек в Японии развить навыки в области ИИ.

Согласно новым планам, Microsoft обязуется в сотрудничестве с Fujitsu, Hitachi, NEC, NTT Data и SoftBank обучить 1 млн инженеров и разработчиков в Японии к 2030 году. Обучение охватывает Microsoft Azure, Microsoft Foundry, GitHub, GitHub Copilot и Microsoft 365 Copilot в онлайн-формате и в виде практических занятий. Пять компаний представляют значительную долю потенциала японских предприятий в сфере технологий. Работая вместе, они укрепят кадровый резерв, который будет способствовать долгосрочному росту Японии по мере масштабирования внедрения ИИ, отметила компания.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Администрация Такаичи определила науку и технологии как национальный приоритет и выделила ¥60 трлн ($38 млрд) на расширение научно-технической базы Японии в течение пяти лет, включая текущие инициативы в области применения ИИ в науке.

Microsoft объявила о сотрудничестве с Sakura Internet и SoftBank с целью удовлетворения потребности местных компаний в ИИ-инфраструктуре, в рамках которого местные провайдеры будут предлагать вычислительные услуги на базе GPU через Azure, при этом данные будут храниться в Японии в соответствии с требованиями к конфиденциальности и суверенитету данных. Акции Sakura Internet подскочили на 20 % на фоне этой новости, показав самый большой внутридневной рост с сентября. Акции SoftBank, телеком-подразделения инвестиционной группы SoftBank Group, выросли на 0,5 %, сообщил Bloomberg.

В рамках сотрудничества Microsoft запустит программу грантов на исследования в размере $1 млн, чтобы дать возможность исследователям в Японии проводить крупномасштабный анализ и моделирование с использованием ИИ. Наряду с этим, стипендиальная программа поможет воспитать следующее поколение исследователей, предоставляя практические навыки в области ИИ и цифровой трансформации, а также способствуя установлению связей с мировым научным сообществом.

Правительство Японии выделяет около ¥1,23 трлн ($7,7 млрд) на поддержку разработки передовых чипов и ИИ в этом финансовом году. Япония стремится использовать своё лидерство в промышленной робототехнике, чтобы к 2040 году завоевать более 30 % мирового рынка так называемого физического ИИ, отметил ресурс.

Раннее на этой неделе компания объявила о планах инвестировать в течение следующих нескольких лет более $1 млрд в инфраструктуру и эксплуатацию ЦОД для облачных вычислений и ИИ в Таиланде, а также $5,5 млрд в Сингапуре в период с 2025 по 2029 год.

Постоянный URL: http://servernews.ru/1139452

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;