Материалы по тегу: облако

13.04.2026 [09:23], Руслан Авдеев

Не рассчитали: переход вузов Миннесоты на Workday обошёлся вдвое дороже планируемого и привёл к ошибкам в начислении зарплат

Внедрение платформы управления персоналом и финансами Workday в системе университетов и колледжей Миннесоты MnSCU (Minnesota State Colleges and Universities) вместо упрощения работы привело лишь к проблемам, сообщает The Register. Выборочный аудит выявил ошибки в расчёте заработной платы преподавателям и другим сотрудникам, а также задержки с выплатами.

MnSCU объединяет 54 кампуса, 270 тыс. студентов, 14,2 тыс. преподавателей и других сотрудников. В 2019 году начался процесс закупки ПО для замены устаревшей ERP-системы Integrated Statewide Record System (ISRS). Новое ПО объединяет модули учёта финансов, расчёта зарплат, управления кадрами и студентами. На практике стало ясно, что использовать единую систему для всех задач, похоже, не удастся. По словам аудиторов OLA, в MnSCU знали о проблемах с начислением заработной платы ещё до внедрения платформы Workday, но после её внедрения проблемы усугубились.

Сейчас образовательная система штата вынужденно используют комбинацию Workday, устаревшей бухгалтерской системы для начисления зарплат и HR-платформу SEMA4. Согласно отчёту Office of the Legislative Auditor (OLA), выборочная проверка данных о 202 преподавателях и сотрудниках показала, что 19 из них неверно начислена зарплата. После дополнительной проверки выявлено ещё 38 пострадавших преподавателей. Попутно были выявлены и задержки с выплатами.

Первоначально бюджет программы перехода на новое ПО составлял $151,1 млн. После заключения контракта с Workday в 2020 году он до $242,7 млн. Планировалось, что системы управления персоналом и начисления заработной платы заработают в июле 2023 года, а «студенческая» составляющая — осенью 2026 года. К ноябрю 2024 года бюджет проекта вырос до $290,4 млн, а сроки реализации обеих подсистем сдвинулись на июль 2024 года и осень 2029 года соответственно.

 Источник изображения: Kenny Eliason/unspalsh.com

Источник изображения: Kenny Eliason/unspalsh.com

С трудностями при реализации проектов Workday столкнулись и другие. Так, в 2024 году Айова расторгла договор на поставку финансового ПО Workday из-за «проблем в реализацией». В 2021 году Мэн обвинил Workday в безответственности при неудачной замене HR-системы стоимостью $54,6 млн. Теперь штат использует гибрид системы Workday со сторонним ПО. В Вашингтонском университете проект перехода на Workday растянулся на семь лет и обошёлся в $266 млн, что вызвало массовые протесты студентов, на плечи которых фактически легла повышенная финансовая нагрузка.

Workday в комментарии The Register отметила, что сотрудничала с «сотнями учреждений по всему миру» для внедрения своих облачных сервисов. Как и любой крупный технологический проект, переход от устаревших систем к современным централизованным решениям — сложный процесс. В подобных долгосрочных проектах в ходе внедрения часто изменяется объём работ, что может повлиять на стоимость и сроки. Кроме того, решение непредвиденных задач в проектах подобного масштаба — обычное дело. В декабре 2024 года Workday заявила, что более 90 % внедрений решений компании проходят успешно, а с учётом масштаба внедрений статистика для отрасли просто «беспрецедентная».

Между тем цена ошибок хорошо известна в Великобритании. Внедрение ERP-системы Oracle в течение многих лет фактически превратило в банкрота Бирмингем, раздув бюджет проекта до неприличных значений в сотни миллионов фунтов — запуск системы всё ещё откладывается. Кроме того, Почта Великобритании и Fujitsu перекладывают друг на друга вину за провальное внедрение ПО Horizon, в результате сбоев в котором пострадали сотни людей, а некоторые из них даже понесли уголовную ответственность.

Постоянный URL: http://servernews.ru/1139872
11.04.2026 [20:56], Владимир Мироненко

К 20-летию облака AWS в Amazon S3 появился файловый доступ

AWS представила новый сервис Amazon S3 Files, который «напрямую соединяет любые вычислительные ресурсы AWS с вашими данными в Amazon S3». Компания отметила, что благодаря новому сервису «Amazon S3 становится первым и единственным облачным объектным хранилищем, обеспечивающим полнофункциональный высокопроизводительный файловый доступ к вашим данным». Хранилище обеспечивает полную семантику ФС (NFS 4.1+) и низкую задержку, при этом ваши данные никогда не покидают S3, подчеркнула компания. Новая функция появилась через 20 лет после запуска облака AWS — именно S3-хранилище стало первым публичным облачным сервисом. Он заработал в марте 2006 года.

Объектные хранилища традиционно не используются в HPC-задачах, поскольку обычно требуется POSIX-доступ на чтение и запись отдельных файлов, а не изменение целых объектов и семантика GET/PUT/DELTE. Amazon S3 отдаёт приоритет надёжности и низкой стоимости, в то время как HPC-нагрузкам обычно необходим очень быстрый доступ с низкой задержкой, а цена и надёжность являются второстепенными факторами, пишет HPCwire. S3 Files на базе EFS обеспечивает семантику ФС, такую как согласованность данных при чтении после записи, блокировка файлов и права POSIX в сочетании с масштабируемостью, надёжностью и экономичностью S3. S3 Files уже доступен в 34 регионах AWS.

S3 Files интеллектуально преобразует ФС-операции в эффективные S3-запросы. Файловые приложения работают с данными S3 без изменений в коде, ИИ-агенты сохраняют данные и совместно используют их в разных конвейерах, а инструменты и приложения могут работать с файлами в S3 напрямую из любого инстанса, контейнера и функции. S3 Files использует многоуровневое кеширование данных (и метаданных) для снижения задержки доступа (менее 1 мс) и обеспечивает совокупную пропускную способность чтения до нескольких Тбайт/с. Размер файла по умолчанию для автоматического чтения из традиционного S3 составляет 125 Кбайт. Файлы меньшего размера могут оказаться в высокопроизводительном хранилище и стать доступными через NFS, если служба хранения сочтёт это необходимым; пользователи могут изменить этот параметр.

 Источник изображения: AWS

Источник изображения: AWS

Хотя, возможно, S3 Files, не будет таким же быстрым, как Lustre (который также предлагает AWS), это всё равно довольно быстрый файловый доступ. Поставщики файловых хранилищ, такие как NetApp и Qumulo, уже предоставляют комбинированные сервисы файлового и объектного хранения в AWS. Теперь они столкнутся с усилением конкуренции, отметил ресурс Blocks & Files. Например, есть Amazon FSx for NetApp ONTAP, Dell PowerScale for AWS, VAST AI OS и Cloud Native Qumulo (CNQ). Так, CNQ тоже предлагает более 1 Тбайт/с и 1 млн IOPS при использовании стандартных клиентов NFS.

Аналитики рассматривают нововведение как стратегический шаг AWS по позиционированию S3 как основного слоя хранения данных для ИИ-агентов и современных приложений, выходящий за рамки традиционного использования ИИ в озерах данных и пакетной аналитике, пишет InfoWorld. Ранее предприятиям, разрабатывающим и развёртывающим агентные системы и другие современные ИИ-приложения, обычно приходилось либо формировать отдельную СХД с файловым доступом, либо создавать слой трансляции для работы с S3-хранилищем, отмечает Pareekh Consulting. S3 Files упростит архитектуру хранения, объединив озёра данных, файловые системы и промежуточные уровни хранения в рамках Amazon S3.

Постоянный URL: http://servernews.ru/1139826
10.04.2026 [23:09], Владимир Мироненко

Intel поставит Google несколько поколений Xeon и IPU

Intel и Google объявили об углублении многолетнего партнёрства в области инфраструктуры ИИ и облачных вычислений, охватывающего как развёртывание процессоров, так и совместную разработку специализированных чипов инфраструктуры (IPU). За два дня до этого компания стала партнёром по производству микрочипов для мегапроекта Tesla Terafab. В итоге акции Intel за неделю выросли на треть.

Intel и Google отметили, что по мере ускорения внедрения ИИ-инфраструктура становится всё более сложной и гетерогенной, что приводит к увеличению зависимости от CPU для оркестрации, обработки данных и повышения производительности на системном уровне. В рамках сотрудничества с Intel компания Google планирует использовать несколько поколений процессоров Intel Xeon для улучшения производительности, энергоэффективности и TCO в своих инстансах. Intel уже делает кастомные Xeon для AWS.

Стороны подчеркнули, что одних только ускорителей недостаточно для удовлетворения потребностей современной ИИ-инфраструктуры. «ИИ меняет подход к построению и масштабированию инфраструктуры. Масштабирование ИИ требует большего, чем просто ускорители — оно требует сбалансированных систем. CPU и IPU играют центральную роль в обеспечении производительности, эффективности и гибкости, необходимых для современных рабочих нагрузок ИИ», — сообщил генеральный директор Intel Лип-Бу Тан (Lip-Bu Tan).

Как отметил ресурс The Next Web, Intel потратила последние два года на переориентацию с рынка универсальных вычислений, где она когда-то доминировала, на процессоры и специализированные инфраструктурные чипы, которые играют структурную роль в развёртывании ИИ и которые постоянно недооценивали в рамках концепций, ориентированных на GPU. Одновременно компания развивает бизнес по производству кастомных чипов для ИИ-рынка.

 Источник изображения: Intel

Источник изображения: Intel

Амин Вахдат (Amin Vahdat), старший вице-президент и главный технолог Google по инфраструктуре ИИ отметил: «Процессоры и инфраструктурное ускорение остаются краеугольным камнем систем ИИ — от организации обучения до инференса и развёртывания. Intel является надёжным партнёром уже почти два десятилетия, и её план развития Xeon даёт нам уверенность в том, что мы сможем и дальше удовлетворять растущие требования к производительности и эффективности наших рабочих нагрузок».

Что важно, партнёрство охватывает несколько поколений Intel Xeon, а не текущий цикл обновления оборудования Google. Партнёрство также включает расширенную совместную разработку IPU (DPU) — специализированных программируемых ускорителей на базе ASIC, предназначенных для разгрузки сетевых функций, функций хранения, функций безопасности и т.п., которые на масштабах гиперскейлера позволяют существенно сэкономить и упростить управление инфраструктурой. Ранее компании совместно разработали свой первый IPU Mount Evans.

Момент для анонса партнёрства выбран подходящий. Рабочие нагрузки ИИ смещаются от обучения на ускорителях, что позволить себе могут немногие, к масштабируемому инференсу, который является распределённым, чувствительным к задержкам, непрерывным и требовательным к ресурсам CPU для оркестрации, работы с данными и управления системой в целом. По-видимому, собственные процессоры Google Axion пока не слишком годятся на эту роль. Впрочем, для внешних заказчиков компания точно так же предлагает инстансы с чипами NVIDIA, хотя её собственные TPU пользуются огромным спросом.

Впрочем, расширение сотрудничество можно объяснить и более прозаично — дефицит серверных процессоров на рынке усиливается, так что заранее договориться о поставках с крупным игроком, да ещё имеющим собственное производство на территории США, всегда выгодно.

Постоянный URL: http://servernews.ru/1139785
10.04.2026 [15:05], Руслан Авдеев

Девять из десяти: CoreWeave заключила с Meta✴ сделку на $21 млрд и тут же подписала контракт с Anthropic

Неооблачный провайдер CoreWeave заключил с Meta очередной крупный договор о предоставлении вычислительных мощностей для ИИ. В рамках сделки стоимостью $21 млрд Meta получит в своё распоряжение облачные ИИ-мощности до декабря 2032 года. Мощности для Meta развернут в нескольких локациях, в том числе на безе NVIDIA Vera Rubin. Дополнительно CoreWeave рассчитывает привлечь $4,25 млрд за счёт продажи облигаций для финансирования текущего строительства.

Договор опирается на уже существующее соглашение стоимостью $14,2 млрд, заключенное компаниями в сентябре 2025 года, которое предусматривало предоставление облачных сервисов до декабря 2031 года. Именно под эту сделку привлекли кредит с отложенным предоставлением средств (DDL) для покупки ИИ-серверов и сопутствующей инфраструктурой. К марту 2026 года контракт вырос с $14,2 млрд до $19,2 млрд.

Новый контракт — уже второе соглашение о предоставлении ИИ-инфрастурктуры, подписанное Meta в течение месяца, стоимостью более $20 млрд. В марте Meta заключила сделку объёмом $27 млрд с неооблачной компании Nebius, которая тоже предоставит платформу Vera Rubin. Что касается сделки с Anthropic, то деталей пока мало. Подписано многолетнее соглашение о предоставлении ИИ-мощностей для развития семейства моделей Claude, которые будут развёрнуты поэтапно, начиная с 2026 года. CoreWeave отметила, что теперь девять из десяти лидирующих разработчиков ИИ-моделей пользуются её услугами.

 Источник изображения: Adeolu Eletu/unspalsh.com

Источник изображения: Adeolu Eletu/unspalsh.com

Из привлекаемых $4,25 млрд часть приходится на облигации с погашением $1,25 млрд в 2031 году и конвертируемые, с погашением $3 млрд в 2032 году. Оба вида облигаций доступны институциональным покупателям в рамках частного размещения, без выпуска на открытый рынок. Неооблачная компания активно привлекает финансирование и из других источников. В 2026 году она уже получила $1 млрд от Morgan Stanley, упомянутый кредит на ИИ-ускорители и $2 млрд инвестиций от NVIDIA.

В сентябре 2025 года CoreWeave расширила соглашение с OpenAI на $6,5 млрд, доведя общую сумму контрактов до $22,4 млрд. В августе NVIDIA объявила о намерении выкупить все нераспроданные вычислительные мощности CoreWeave до 2032 года на сумму $6,3 млрд. Microsoft же и так была якорным заказчиком компании, хотя действовала в интересах OpenAI.

Постоянный URL: http://servernews.ru/1139798
10.04.2026 [14:04], Руслан Авдеев

Wasabi купит у Seagate сервис облачного хранения Lyve Cloud

Американская Wasabi Technologies, специализирующаяся на «горячих» облачных хранилищах, купит у Seagate облачное хранилище Lyve Cloud. Это позволит Wasabi укрепить позиции на рынке объектных S3-хранилищ. Сделка обусловлена тем, что клиенты ищут альтернативы традиционным облачным гиперскейлерам, сообщает Silicon Angle.

Финансовые условия сделки пока не разглашаются, но уже известно, что Seagate получит долю в капитале Wasabi. Последняя объявила о планах со временем интегрировать Lyve Cloud в основной бизнес Wasabi. Покупка стала свидетельством стратегических изменений как для продавца, так и для покупателя. Оператор облачных хранилищ Wasabi получит в своё распоряжение большую клиентскую базу и дополнительные возможности для масштабирования, а Seagate сможет сосредоточиться на основном бизнесе по выпуску накопителей и СХД, сохранив потенциал роста благодаря получению доли в капитале Wasabi. Кроме того, благодаря инвестициям Seagate у Wasabi появился новый партнёр, поэтому в компании ожидают, что сделка поможет перейти от конкуренции с Seagate к партнёрству.

Платформа корпоративного хранения данных Lyve Cloud работает с 2021 года и стремится обеспечить «предсказуемое» ценообразование, безопасность и соответствие отраслевым нормативам. В своё время Seagate построила этот бизнес в ответ на растущий запрос на облачные хранилища с контролируемым ценообразованием, особенно для крупных данных — резервного копирования, аналитики и видео. Компании-клиенты, оперирующие петабайтами данных, всё чаще обращают внимание на возможность «пересмотреть» цены в облаках, особенно схемы оплаты за выгрузку, а также сложные механизмы ценообразования. Провайдеры вроде Wasabi стремятся привлечь их фиксированными ценами и упрощённой тарификацией.

 Источник изображения: Wasabi

Источник изображения: Wasabi

Ожидается, что сделка укрепит позиции Wasabi на рынке резервного копирования и восстановления данных. Обе компании продолжат взаимодействие с компаниями, отвечающими за решения в сфере безопасности, включая Veeam Software, Rubrik и Commvault Systems. Одной из целей сделки называется упрощение операций для клиентов, использующих хранилища нескольких поставщиков одновременно.

Инициатива Lyve Cloud — часть более обширного плана Seagate, пытавшейся создать экосистему, связанную со своим оборудованием для хранения данных, в т.ч. патнёрство с поставщиками управляемых сервисов и решений для резервного копирования. С продажей этого бизнеса Seagate фактически отказывается от прямой конкуренции с облачными хранилищами, при этом она сохраняет косвенное участие в бизнесе благодаря доле в капитале. По имеющимся данным, клиенты Lyve Cloud перейдут на платформу Wasabi, управляющей глобальной сетью облачных хранилищ. Акцент делается на совместимость с Amazon S3.

По данным Datacenter Dynamics, в начале года Wasabi привлекла $70 млн в раунде акционерного финансирования, доведя капитализацию до $1,8 млрд. Раунд возглавила L2 Point Management, участие также приняли Everpure (ранее Pure Storage) и действующие инвесторы, включая Fidelity Management & Research Company. На тот момент Wasabi заявляла, что финансирование будет использовано на поддержку расширения ИИ-инфраструктуры, масштабирования глобального присутствия и развития продуктового портфолио. В ноябре 2025 года Wasabi представила новый класс облачных хранилищ, оптимизированный для работы с ИИ-моделями и большими объёмами данных, а также запустила новый облачный регион в Сан-Хосе (Калифорния).

Постоянный URL: http://servernews.ru/1139772
10.04.2026 [13:53], Руслан Авдеев

Bridge Data Centres выгнала из своих ЦОД сингапурское ИИ-неооблако Megaspeed, подозреваемое в нарушении антикитайских санкций США

Подконтрольный американской инвесткомпании Bain Capital оператор ЦОД Bridge Data Centres (BDC) отказал в размещении на своём объекте в Малайзии облачному провайдеру Megaspeed из Юго-Восточной Азии, которого США подозревают в незаконном предоставлении чипов NVIDIA Китаю, сообщает Bloomberg.

Как сообщают знакомые с ситуацией источники, компанию Megaspeed International на объекте в Малайзии заменит облачный провайдер Zenlayer. Об этом свидетельствует служебная записка, направленная Bridge Data Centres своим кредиторам в феврале. Причина замены не называется, но источники сообщают, что оператор ЦОД пошёл на разрыв отношений с Megaspeed после того, как США инициировали расследование относительно структуры собственности компании, желая выяснить, не занималась ли она организацией доступа к передовым ИИ-чипам NVIDIA для Китая в нарушение американских экспортных ограничений.

Для Megaspeed одним из ключевых вопросов является судьба ИИ-серверов на основе ускорителей NVIDIA, обнаруженных на объектах Bridge Data Centres прошлой осенью. Сингапурская Megaspeed является неооблачным ИИ-провайдером, объект в Малайзии был её крупнейшим активом. Megaspeed была сформирована в 2023 году путём отделения от китайской игровой компании.

NVIDIA отказалась сообщать, известно ли ей об инциденте с участием BDC и посещали ли её представители объекты Megaspeed в последние месяцы в этом регионе. В 2025 году производитель проводил выборочные проверки Megaspeed в Юго-Восточнйо Азии. В декабре сообщалось, что компания намерена снова проверить бизнес «в ближайшем будущем». BDC объявила, что все 68,4 МВт мощности ЦОД, зарезервированные для Megaspeed, передадут облачному провайдеру Zenlayer из Лос-Анджелеса. Он специализируется на обучении ИИ-моделей.

 Источник изображения: Hongwei FAN/unspalsh.com

Источник изображения: Hongwei FAN/unspalsh.com

BDC считается одним из крупнейших операторов ЦОД в Азии, куда, по прогнозам экспертов, к 2030 году инвестируют к 2030 году около $800 млрд. Кредиты — ключевое средство финансирования масштабирования BDC, поэтому компания должна демонстрировать кредиторам стабильный приток средств от арендаторов.

Чтобы развиваться дальше, Bridge Data Centres нужны миллиарды долларов. Минувшей зимой она начала привлекать дополнительный капитал. В марте оператор ЦОД вёл переговоры о привлечении $6 млрд для выхода на рынок Таиланда, тогда же компания намеревалась удвоить существующий кредит для расширения в Малайзии до $5 млрд.

По данным Datacenter Dynamics, Megaspeed отрицает участие в любом нелегальном трафике чипов и сдаче в аренду вычислительных мощностей киатйским структурам. По словам её представителей, компания неоднократно проходила проверки со стороны американских и малайзийских властей, а также NVIDIA. Ранее она подчёркивала, что информация СМИ вводит в заблуждение, а сама компания действует строго в рамках всех правил экспортного контроля, в соответствии с самыми высокими «юридическими и этическими стандартами».

Ещё несколько лет назад сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, а позже появилась информация, что Alibaba и ByteDance начали тренировать передовые ИИ-модели в ЦОД Юго-Восточной Азии. Тем не менее, в начале 2026 года в США принят «Закон о безопасности удалённого доступа» (Remote Access Security Act), расширяющий действие «Закона о реформе экспортного контроля». Это позволяет федеральным властям США «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Другими словами, китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР.

Постоянный URL: http://servernews.ru/1139790
10.04.2026 [08:57], Сергей Карасёв

Cloud.ru сформировал неооблако для работы с ИИ

Российский провайдер облачных сервисов Cloud.ru объявил о выделении решений для работы с ИИ в отдельное бизнес-направление. Речь идёт о платформе в формате неооблака (Neocloud), в основу которой положены ускорители на основе GPU.

Отмечается, что при формировании неооблака компания Cloud.ru полагалась на свой опыт в создании ИИ-инфраструктуры и работе с различными типами GPU. По модели GPUaaS (GPU-as-a-Service) провайдер предоставляет доступ к тысячам современных ИИ-ускорителей в публичном облаке. Кроме того, допускается гибридное развёртывание с использованием частной инфраструктуры.

Неооблако предназначено для практического внедрения ИИ в бизнес-процессы. Клиентам предлагается единая управляемая среда, объединяющая инфраструктуру, данные и инструменты. Она обеспечивает полный цикл работы с большими языковыми моделями (LLM) — от разработки и обучения до инференса и эксплуатации. При этом допускается масштабирование ресурсов в соответствии с выполняемыми задачами: могут использоваться как отдельные GPU, так и целые кластеры распределённых вычислений. Инфраструктура может быть адаптирована под разные этапы жизненного цикла ИИ-моделей.

 Источник изображения: Cloud.ru

Источник изображения: Cloud.ru

«В условиях ограниченного доступа к GPU и высокой стоимости оборудования компании сталкиваются с ключевым ограничением — невозможностью гибко управлять вычислительными ресурсами. Преимущество формата Neocloud — эффективное использование графических ускорителей под разные типы нагрузок, от дообучения моделей до инференса», — говорит Cloud.ru.

В рамках неооблака предоставляются различные GPUaaS-сервисы: это, в частности, выделенные серверы и виртуализированные ресурсы под управлением Kubernetes, высокопроизводительные кластеры и пр. Для распределённого обучения используются собственная платформа Evolution Distributed Train, а также стандартные инструменты управления вычислениями. Реализованы функции проактивного мониторинга, автоматической замены отказавших узлов, перезапуска задач обучения и управления очередями. По заявлениям Cloud.ru, благодаря эффективному распределению ресурсов между задачами разного масштаба обеспечивается доступность инфраструктуры на уровне 98 %, тогда как оптимизация затрат достигает 80 %.

«Сегодня бизнесу нужна не просто возможность получить доступ к GPU, а среда, в которой можно работать с ИИ на практике — от экспериментов до масштабирования решений. По сути, облако становится базой для реализации ИИ-стратегии, позволяя закрыть весь цикл работы с моделями и не инвестировать в избыточные мощности», — подчёркивает компания.

Постоянный URL: http://servernews.ru/1139767
09.04.2026 [18:57], Руслан Авдеев

У Cloud.ru уже 29 тыс. серверов и 56 МВт мощностей в девяти ЦОД

Провайдер облачных сервисов и ИИ-решений Cloud.ru отчитался об итогах 2025 года. Выручка компании за 2025 год увеличилась на 50 % год к году, составив 76,5 млрд руб. Показатель EBITDA вырос на 71 % — до 58,0 млрд руб., а чистая прибыль — на 86 % до 14,7 млрд. Для сравнения, в 2024 году чистая прибыль была на уровне 7,9 млрд. По оценкам iKS-Consulting, Cloud.ru является лидером российского рынка облаков.

Особую роль сыграли инфраструктура и сервисы, необходимые для проектов с ИИ. Впервые их доля в общей выручке перевалила за половину и составила 54 % (41,0 млрд руб.). В 2024 году аналогичный показатель составил 47 % — 23,7 млрд руб. Основными потребителями ИИ-сервисов и соответствующей инфраструктуры стали IT-бизнесы (29 %), ретейл (12 %), финансы (10 %) и девелопмент (8 %).

По результатам 2025 года выручка от «базовых» облачных сервисов выросла на 31 %, до 35,5 млрд руб. (против 27,2 млрд руб. в 2024 году). Показатель значительно выше, чем средние темпы роста российского облачного рынка. По словам компании, спрос на ИИ-сервисы стал дополнительным драйвером роста облачного рынка, но выросло и использование базовых облачных сервисов. Утверждается, что компания успешно реализовала накопленную экспертизу в управлении инфраструктурой и созданию новых сервисов, предложив клиентам «востребованные продукты по доступной цене».

 Источник изображения: Razvan Chisu/unspalsh.com

Источник изображения: Razvan Chisu/unspalsh.com

Сообщается, что в феврале Cloud.ru получила кредитный рейтинг ruAA+ от рейтингового агентства АКРА со стабильным прогнозом. В числе прочего отмечаются сильные операционные показатели, низкая долговая нагрузка и высокий уровень рентабельности. Ключевой фактор роста по оценке АКРА — развитие ИИ-направления. Инфраструктура компании включает стойки общей мощностью 56,1 МВт, размещённых в девяти ЦОД. Всего на компанию приходится 43 тыс. единиц IT-оборудования, в том числе 29 тыс. серверов. В 2024–2025 гг. инвестиции в оборудование и разработку ПО составили 53,5 млрд. руб. Компания рассматривает возможность постройки собственного дата-центра.

Постоянный URL: http://servernews.ru/1139724
09.04.2026 [11:24], Сергей Карасёв

Uber перенесёт рабочие нагрузки на чипы AWS Graviton и Trainium нового поколения

Компания Uber сообщила о расширении использования облачной платформы Amazon Web Services (AWS). Оператор сервисов для вызова такси и частных водителей, а также доставки еды и грузов перенесёт определённые нагрузки на чипы AWS Graviton и Trainium нового поколения. Компания уже использует Arm-процессоры Ampere в облаке Oracle.

В частности, Uber будет использовать изделия Graviton4, насчитывающие до 96 ядер, для поддержания работы своих зон обслуживания поездок (Trip Serving Zones). Соответствующая инфраструктура функционирует в режиме реального времени: каждый раз, когда пользователь заказывает поездку или доставку, система рассчитывает оптимальный маршрут, выбирает подходящего водителя и определяет время. В часы пик и при проведении крупных мероприятий создаётся огромная вычислительная нагрузка: требуются анализ миллионов возможных сценариев поездок и обработка данных о местоположении пользователей и водителей. Ожидается, что применение Graviton4 позволит сократить задержки и оптимизировать затраты, а также обеспечит необходимую масштабируемость в периоды всплеска запросов без ущерба для надёжности, доступности или безопасности.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, Uber начнёт применять ускорители Trainium3 для обучения некоторых своих ИИ-моделей, которые лежат в основе приложений вызова такси и доставки. Эти изделия оснащены 144 Гбайт памяти HBM3E, а производительность на операциях FP8 достигает 2,52 Пфлопс. ИИ-модели Uber, как отмечается, анализируют данные миллиардов поездок для выбора водителя или курьера, оценки времени прибытия и генерации рекомендаций для пользователей. Обучение ИИ в таком масштабе требует колоссальных вычислительных возможностей: решения Trainium3, как подчёркивается, способны предоставить необходимые ресурсы.

«Uber — одно из самых требовательных приложений в мире, работающих в режиме реального времени. Мы помогаем Uber обеспечивать надёжность, на которую рассчитывают сотни миллионов людей, а также внедрять ИИ-функции, определяющие будущее сервисов совместных поездок и доставки по запросу», — говорит Рич Гераффо (Rich Geraffo), вице-президент и управляющий директор AWS в Северной Америке.

Постоянный URL: http://servernews.ru/1139689
07.04.2026 [15:52], Руслан Авдеев

Лучше синица в руке: операторы ЦОД всё чаще отказывают неооблакам, предпочитая большой выгоде финансовую устойчивость

Несмотря на отличные условия, предлагаемые многими неооблачными провайдерами операторам ЦОД, последние нередко отказывают в заключении сделок. Дело в том, что перспективы прибыли сводятся на нет высокими рисками, сообщает Datacenter Knowledge. Изменения происходят на фоне исторически низкого уровня свободных площадей в Северной Америке, там спрос продолжает превышать новые предложения.

Срывы перспективных сделок свидетельствуют о глубинных изменениях в принципах распределения мощностей. После двух лет дефицита предложения и роста цен поставщики мощностей ЦОД перестали принимать во внимание только ценовые факторы. Вместо этого на первый план выходит кредитоспособность партнёра, прозрачность спроса со стороны конечных потребителей, уверенность в обеспечении долгосрочной нагрузки и устойчивости бухгалтерского баланса в многолетней перспективе. По словам экспертов, минимальным условием для участия в сделках стал кредитный рейтинг инвестиционного класса.

Согласно исследованиям Datacenter Hawk, средние ставки на размещение оборудования в ЦОД с 2021 года существенно выросли на фоне роста спроса. Крупномасштабные проекты сегодня обходятся в $140–$155/кВт в зависимости от срока действия договора, плотности размещения, а также профиля рисков. Но деньги — не гарантия сделки. Так, сообщается что один из операторов отказал неооблачному провайдеру, который был готов подписать 15-летний контракт по цене до $160/кВт, чтобы получить 2 МВт сразу и до 12 МВт в течение полутора лет. При этом провайдер был готов заранее оплатить счета за первые полгода использования мощностей и вложиться в постройку инфраструктуры СЖО.

 Источник изображения: Artturi Jalli/unsplash.com

Источник изображения: Artturi Jalli/unsplash.com

Сильнее всего страдают неооблачные провайдеры, фактически перепродающие доступ к ИИ-инфраструктуре в виде облачных ресурсов. Сегмент GPU-as-a-Service (GPUaaS) быстро развивается вместе с ИИ-рынком, при этом компании вроде CoreWeave, Lambda Labs и Crusoe выступают «агрегаторами» ИИ-ускорителей для предоставления клиентам по запросу. По данным ABI Research, к 2030 году соответствующий рынок может составить $250 млрд. По данным Datacenter Hawk, доступность электроэнергии для них стала важнейшим фактором при выборе площадки.

Но девелоперы в последнее время предпочитают взаимодействовать с гиперскейлерами, а не неооблаками. Как минимум, операторы ЦОД требуют от неооблачных компаний более надёжных финансовых гарантий, от аккредитивов (letters of credit) до гарантий поддержки со стороны материнских компаний — или просто отказывают им в сделках, поскольку обеспокоены их долгосрочной устойчивостью. В отличие от крупных облачных провайдеров, неооблачные решения зависят от многих переменных, включая доступность ИИ-ускорителей, договоры с поставщиками и клиентами и др.

При этом структура затрат на развёртывание ИИ-систем высокой плотности становится всё сложнее. Всё более востребованная инфраструктура СЖО добавляет $1,5–$1,6 млн/МВт к первоначальным капиталовложениям. Это приблизительно на 20–25 % больше, чем для традиционного воздушного охлаждения. Речь идёт о крупных капитальных затратах, не включенных в ежемесячную плату, а сроки внедрения составляют 6–9 мес. Чаще всего провайдеры перекладывают расходы на клиентов в обмен на незначительное повышение тарифов. В любом случае, для многомегаваттных проектов приходится вкладывать миллионы долларов ещё до начала развёртывания ИИ-оборудования.

 Источник изображения: Jakub Żerdzicki/unsplash.com

Источник изображения: Jakub Żerdzicki/unsplash.com

При этом колокейшн-провайдеры неохотно начинают строительство новых мощностей без заключения соглашений об аренде, а неооблачные компании не рискуют заключать контракты без гарантий предоставления им ИИ-ускорителей и договоров с клиентами. Фактически каждая из сторон ждёт, когда партнёр сделает первый шаг. В результате возникает трёхсторонняя зависимость, способная на месяцы затормозить заключение потенциально перспективных сделок или вообще привести к их срыву.

Проблему усугубляют новые масштабы внедрения ИИ. Если раньше проекты на 4–10 МВт считались крупными, то теперь это «отправная точка», всё чаще речь идёт о 50+ МВт, а иногда о 100+ МВт. Причём в большинстве регионов удовлетворить потребность в 50 МВт в разумные сроки в одном месте просто невозможно. Клиенты вынуждены распределять рабочую нагрузку между несколькими площадками и операторами, что затрудняет как заключение контрактов, так и финансирование.

По мере роста рынка растут и капитальные затраты, и сроки развёртывания — поэтому предпочтение поставщики ЦОД отдают стабильности, а не потенциальной выгоде. Таким образом, успех неооблачных компаний в краткосрочной перспективе будет определяться не соответствием продукта рынку, а способностью привлекать солидный капитал и качественно реализовать проекты. Одним из главных умений будет и способность грамотно организовать логистику — и так продлится пару лет, пока не выявятся победители.

На днях сообщалось, что объём мирового рынка неооблаков достигнет $400 млрд к 2031 году. При этом структура рынка довольно запутанная. Гиперскейлеры сами нередко являются клиентами неооблаков. Например, Google открыто поддерживает и финансово страхует Fluidstack, тогда как CoreWeave до IPO скрывала фактическую зависомость от Microsft и NVIDIA. В то же время и сами гиперскейлеры используют весьма сложные схемы для привлечения средств на развитие ИИ-инфраструктуры.

Постоянный URL: http://servernews.ru/1139550

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;