Материалы по тегу: облако
|
19.11.2025 [23:59], Владимир Мироненко
Скандал в NetApp: бывший техдиректор продал разработки конкуренту и скрылся в ИсландииNetApp подала в суд на своего бывшего старшего вице-президента и технического директора Йона Торгримура Стефанссона (Jón Thorgrímur Stefánsson), обвинив его в том, что он, работая в компании и продолжая получать зарплату, тайно развивал конкурирующий бизнес, который продал прямому конкуренту за неназванную сумму всего через несколько недель после того, как покинул NetAPP. Об этом сообщил The Register. В иске, поданном NetApp 6 ноября в Окружной суд США по Среднему округу Флориды, утверждается, что Стефанссон в последние месяцы работы в компании занимался кражей интеллектуальной собственности, пытался вербовать своих коллег, а в конечном итоге обманул NetApp, присвоив её разработки, чтобы продать VAST Data свой стартап в сентябре 2025 года. Благодаря своей позиции он имел «широкий доступ» к конфиденциальным материалам компании, от фирменных инноваций до стратегических деловых отношений. Стефанссон проработал в NetApp восемь лет. Согласно иску, он «принимал непосредственное участие в разработке и интеграции облачных продуктов хранения NetApp с основными гиперскейлерами», такими как AWS, Google Cloud и Microsoft Azure, и отвечал за весь облачный портфель продукт компании. Как и все сотрудники, имеющие доступ к конфиденциальной информации, Стефанссон подписал с NetApp «Соглашение о конфиденциальной информации, изобретениях и неразглашении» (PIIA), которое запрещает раскрытие или ненадлежащее использование конфиденциальной и служебной информации NetApp во время и после окончания трудовых отношений. В рамках соглашения Стефанссон обязался не участвовать в конфликтующих коммерческих проектах, не переманивать сотрудников или партнёров NetApp в течение как минимум года после увольнения, не рекламировать свои изобретения сотрудникам и деловым партнерам NetApp, а также передать NetApp все изобретения, разработанные им во время работы на компанию. Соглашение также обязывает подписавшего уведомлять о любых изобретениях, созданных в течение шести месяцев после окончания трудовых отношений. В иске утверждается, что каждое из этих обязательств было нарушено. Стефанссон покинул NetApp 27 июня и в течение недели создал новую компанию Red Stapler, которая была официально зарегистрирована 3 июля 2025 года. Компания работала в скрытом режиме. Стефанссон занял пост гендиректора, к нему присоединились пять бывших сотрудников и один действующий сотрудник NetApp — Эйрикур Свейнн Храфнссон (Eiríkur Sveinn Hrafnsson), который покинул NetApp лишь 31 августа 2025 года и стал вторым по величине акционером Red Stapler. А уже 9 сентября, VAST Data, один из прямых конкурентов NetApp, приобрела стартап и назначила Стефанссона генеральным директором по облачным решениям. По словам VAST Data, решения Red Stapler позволят её продуктам «легко интегрироваться в публичные облачные среды». NetApp «не верит, что Red Stapler разработала собственную облачную платформу управления и доставки данных менее чем за десять недель» с момента основания, и утверждает, что приобретённые VAST продукты фактически были её собственными технологиями. Компания сообщила, что потратила годы и десятки миллионов долларов на разработку своего Service Delivery Engine — слоя оркестрации, связывающего облака гиперскейлеров и хранилища NetApp. SDE позволяет конечным пользователям управлять всеми элементами своего хранилища данных из отдельного интерфейса, интегрируясь с любой публичной облачной платформой, пишет Forbes. Ровно это, по мнению NetApp, и предоставляет решение Red Stapler. Даже если предположить, что Стефанссон и его команда каким-то образом самостоятельно разработали технологию Red Stapler в кратчайшие сроки, соглашение PIIA всё равно требовало от него уведомить NetApp об изобретении, но он этого не сделал. В судебных документах NetApp приведены доказательства её обвинений. Во-первых, приводится текстовое сообщение бывшего сотрудника NetApp, ныне входящего в совет директоров VAST, указывающее на то, что Стефанссон согласился присоединиться к VAST в январе 2025 года, за несколько месяцев до своего ухода. Во-вторых, компания обнаружила переписку в Slack, где Стефанссон обсуждал переманивание сотрудников NetApp перед своим уходом. В частности, Стефанссон якобы спрашивал Храфнссона, есть ли у него «данные о зарплатах всех», кого они хотели бы нанять в Red Stapler. В-третьих, компания указывает на учётную запись redstapler-is на GitHub, которая, была создана не позднее 16 июня 2025 года, т.е. за 11 дней до официального ухода Стефанссона из NetApp. Это, как утверждает NetApp, свидетельствует о том, что проектирование и разработка велись, когда Стефанссон всё ещё работал в NetApp. По словам NetApp, в совокупности эти документы показывают, что Стефанссон «разрабатывал технологии и/или исходный код, а также занимался инновациями от имени другой организации», работая в компании. Когда NetApp узнала о сделке VAST в конце октября, она направила Стефанссону письменное предупреждение о нарушении прав интеллектуальной собственности (cease-and-desist letter), в котором подчёркивалось прямое дублирование его работы в NetApp и позиции гендиректора по облачным решениям VAST. В письме также подчёркивалась невозможность разработки платформы Red Stapler без использования конфиденциальной информации NetApp в столь короткие сроки. Стефанссон не ответил на письмо, после чего NetApp отправила ему второе послание, которое тоже осталось без ответа. Более того, через несколько дней после первого письма Стефанссон выставил свой дом в Орландо (Orlando) на продажу и затем покинул США, переехав, по всей видимости, в Исландию. После этого NetApp обратилась в суд, который вынес временный судебный запрет Стефанссону использовать материалы, являющиеся собственностью NetApp, участвовать в любой работе, связанной с продуктами или ПО, разработанными им в период работы в Исландии, привлекать деловых партнёров NetApp, а также уничтожать или распоряжаться документами, имеющими отношение к делу. Срок действия временного запрета истекает 26 ноября. NetApp заявила, что намерена добиваться бессрочного судебного запрета, остающегося в силе до конца судебного разбирательства. Следует также отметить, что VAST не упоминается в иске и не обвиняется NetApp в каких-либо правонарушениях. Пока речь идёт лишь о предполагаемых действиях покинувшего компанию ключевого руководителя, который случайно оказался в VAST Data, чтобы помочь в разработке конкурирующего продукта.
18.11.2025 [17:07], Руслан Авдеев
Евросоюз рассматривает необходимость ограничения возможностей американских облачных гигантовЕвросоюз рассматривает возможность ужесточения контроля за деятельностью облачных гигантов AWS, Microsoft Azure и Google Cloud, передаёт Bloomberg. Анитимонополные регуляторы намерены принять решение, следует ли ввести дополнительные ограничения для кого-либо из этих гиперскейлеров в соответствии с действующим в ЕС законом Digital Markets Act (DMA), сообщает издание со ссылкой на источники, «знакомые с ситуацией». План расследования разработан после ряда крупных сбоев в облачном секторе — они привели к хаосу в работе глобальных служб и стали дополнительным свидетельством того, что не стоит опираться лишь на нескольких крупных игроков. Речь о крупных сбоях AWS и Microsoft Azure. Пока облачные гиперскейлеры не подпадали под действие DMA, поскольку большая часть их деятельности связана с корпоративными контрактами, что затрудняет подсчёт индивидуальных пользователей их сервисов. Именно их количество может послужить для ЕС одним из главных оснований для введения дополнительного надзора за облачными сервисами из США.
Источник изображения: Jon Del Rivero/unspalsh.com В рамках расследования регуляторы оценят, стоит ли заставлять ведущих операторов брать на себя новые обязательства, включая повышение уровня совместимости с конкурирующим ПО (что особенно актуально для Microsoft) и упрощение переноса данных пользователей от одного облачного провайдера к другому. Кроме того, не исключены запреты на обязательную продажу пакетов услуг или ПО без возможности купить их по отдельности, а также ограничения на стимулирование подобных «пакетных» продаж. Еврокомиссия и представители гиперскейлеров ситуацию пока не комментируют. Закон DMA, принятый ЕС в 2023 году, призван ограничить деятельность крупнейших IT-гигантов, устанавливая ряд правил и запретов. Пока они не применялись против крупных облачных провайдеров, контролирующих значительную долю рынка. Если облачные сервисы в итоге будут признаны подпадающими под правила DMA, штрафы за их нарушения могут быть весьма чувствительными даже для гиперскейлеров. Например, Apple и Meta✴ уже почувствовали жёсткость закона на себе, заплатив штрафы €500 млн ($579 млн) и €200 млн ($231 млн) соответственно.
15.11.2025 [16:14], Владимир Мироненко
Broadcom упростила сертификацию оборудования для VCF для ускорения внедрения современных частных облаковBroadcom объявила о значительном обновлении VMware Cloud Foundation (VCF) 9.0 с целью предоставления компаниям более широкого выбора в области оборудования, сетевых решений и open source ПО с открытым исходным кодом. По словам компании, VCF представляет собой частную облачную платформу, открытую и адаптируемую ко всем уровням инфраструктуры. Изменения формируют открытую, гибкую экосистему, которая позволяет клиентам создавать, подключать, защищать и развивать современные частные облака в предпочитаемых ЦОД, периферийных локациях и хостинговых средах. VCF 9.0 теперь сочетает в себе эффективность облачной операционной модели с локальным управлением, расширяя совместимость с решениями разных провайдеров, возможности использования ИИ и преимущества в совокупной стоимости владения, отметил ресурс StorageReview.com. «Создавая открытую экосистему VCF, мы даём компаниям возможность создавать современные частные облака, соответствующие их стратегическим потребностям, гарантируя, что они смогут использовать технологии, необходимые для их уникальных сред», — заявил Пол Тернер (Paul Turner), директор по продуктам подразделения VMware Cloud Foundation компании Broadcom. Обновление включает расширение компанией программы открытой сертификации оборудования, чтобы расширить возможности OEM- и ODM-партнёров. В частности, программа VCF AI ReadyNodes (готовые к работе с VCF ИИ-узлы) призвана упростить процесс сертификации ИИ-узлов, позволяя заказчикам внедрять CPU, GPU и ускорители следующего поколения по мере их появления. VCF AI ReadyNodes будет использоваться для сертификации серверов, прошедших предварительную квалификацию для обучения ИИ-моделей и инференса. Сертифицированные согласно VCF AI ReadyNodes узлы представляют собой предварительно настроенное оборудование с ПО VMware с предсказуемой производительностью, простым управлением и гибкой виртуализацией со сквозным доступом к GPU, а также включают сетевые функции для минимизации задержки и масштабирования пропускной способности. Такие узлы снижают риски проблем при интеграции и сокращают время выхода продукта на рынок, предлагая предварительно проверенные ПАК для обучения и инференса. Они поддерживают плавное обновление через SDDC Manager, обеспечивая синхронизацию обновлений драйверов GPU, прошивок сетевых карт и VMware ESXi для поддержания стабильности в производственных ИИ-средах. Supermicro станет одним из первых OEM-партнёров, сертифицировавших свои серверы в рамках AI ReadyNode. Broadcom также расширила программу VCF ReadyNode, предоставив ODM-партнёрам возможность самостоятельно сертифицировать готовые узлы в рамках программы Broadcom Technology Alliance (TAP). Все сертифицированные системы будут проверены на полную совместимость с VMware Cloud Foundation с последовательным управлением жизненным циклом VCF. Это расширяет возможности поиска поставщиков и сокращает время выполнения заказов. Для узлов для периферийных вычислений компания предлагает вариант VCF Edge, ориентированный на надёжные и компактные серверы для промышленных, оборонных, розничных и др. нужд. Broadcom также сообщила о новой стратегии, направленной на унификацию сетевых инфраструктур и упрощение сетевых операций в современном частном облаке с помощью стандартизированных сетей с EVPN и BGP. Клиенты получат преимущества от защиты на уровне VPC, согласованных сетевых операций, маршрутизации и видимости во всех доменах VCF Networking (NSX) и сетевых решениях сторонних производителей, обеспечивающих унифицированные операции с помощью комплексной автоматизации. Этот подход согласует VCF со стратегией Cisco Nexus One Fabric, обеспечивая более согласованные и надёжные результаты работы для совместных клиентов Cisco и VMware. Cisco Nexus One Fabric расширяет возможности VCF, предоставляя современную, масштабируемую и автоматизированную сетевую архитектуру на основе VXLAN EVPN. VCF Networking (NSX) также теперь поддерживает популярную открытую NOS SONiC. SONiC обеспечивает клиентам снижение затрат за счёт использования стандартного коммутационного оборудования разных производителей, снижая как капитальные, так и эксплуатационные расходы. Кроме того, Broadcom продолжает участвовать в сообществе Kubernetes, являясь одним из пяти крупнейших участников CNCF (Cloud Native Computing Foundation) и работая над проектами Antrea, Cluster API, ContainerD, Contour, etcd, Harbor и т.д. Broadcom объявила, что VMware vSphere Kubernetes Service (VKS) был сертифицирован CNCF как платформа, соответствующая требованиям Kubernetes AI Conformant Platform. Как сообщает The Register, эта недавно запущенная программа соответствия призвана дать клиентам уверенность в том, что контейнерная платформа может надёжно выполнять реальные рабочие нагрузки ИИ. Программа определяет минимальный набор возможностей и конфигураций, необходимых для запуска широко распространенных фреймворков ИИ и машинного обучения в инфраструктуре Kubernetes.
14.11.2025 [12:56], Руслан Авдеев
Китайская INF Tech обошла санкции США на доступ к ИИ-чипам NVIDIA Blackwell через индонезийское облакоКитайской ИИ-компании INF Tech удалось получить доступ к 2,3 тыс. ускорителей NVIDIA Blackwell благодаря соглашению с индонезийским бизнесом. Несмотря на запрет США на поставки передовых ИИ-чипов в Китай, доступ к вычислительным ресурсам всё же удалось получить, причём с соблюдением буквы американских законов, сообщает The Wall Street Journal. В целом «операция» проводится через партнёров в разных странах и с использованием всевозможных лазеек, но технически американские экспортные законы не нарушаются. Сами чипы находятся в ЦОД, спрятавшемся между частной школой и жилым комплексом в Джакарте — они легально куплены индонезийским телеком-провайдером Indosat Ooredoo Hutchison, которая потратила около $100 млн на 32 стоечных суперускорителя с NVIDIA GB200 NVL72 у компании Aivres из Кремниевой долины, занимающейся выпуском серверов. Все они теперь будут использоваться шанхайской INF Tech. История началась с продажи NVIDIA чипов компании Aivres, которая не является обычным спекулянтом-перепродавцом, а на треть принадлежит китайской Inspur, в 2023 году попавшей в чёрные списки Минторга США, якобы за причастность к суперкомпьютерным проектам китайских военных. Inspur является одним из крупнейших в мире поставщиков серверов. Чёрный список американских властей запрещает NVIDIA напрямую иметь дела с Inspur или подразделений компании, тоже занесённых в чёрные списки, но Aivres, будучи компанией американской, под ограничения не попадает. При этом особого секрета в том, что она наряду с Betapex и KAYTUS Singapore Pte прямо связана с Inspur, нет. Об этом, в частности, прямо говорится в иске HPE.
Источник изображения: David Kristianto/unsplash.com Другими словами, NVIDIA с чистой совестью продала ускорители в полном соответствии с законами, а Aivres закрыла сделку с Indosat в середине 2024 года. Сделка состоялась только после того, как Indosat нашла под чипы конкретного покупателя — INF Tech. ИИ-стартап основан в Китае в 2021 году, а его основатель Ци Юань (Qi Yuan) — профессор Фуданьского университета, бывший высокопоставленный учёный в структуре Alibaba, получивший докторскую степень в MIT и к тому же являющийся гражданином США. По некоторым данным, в обсуждении облачного контракта принимали участие и другие сотрудники Фуданьского университета. Серверы уже доставлены в ЦОД в Индонезии. Они будут использоваться для обучения ИИ-моделей в области финансов и здравоохранения, в частности, фармацевтики. Законов, запрещающих китайским компаниям арендовать доступ к облачным вычислениям за рубежом, не существует. По словам знакомых с тематикой юристов, оборудование запрещено использовать только для военной разведки или создания вооружений. Впрочем, многие американские чиновники всё равно недовольны. Утверждается, что «коммерческие» китайские проекты легко перепрофилировать для военных задач с учётом тесного сотрудничества гражданских и военных структур в КНР. Именно поэтому прошлая администрация США готовила закон, ограничивавший экспорт ИИ-технологий в страны вроде Индонезии, не относящиеся к числу верных сторонников США. В случае принятия этого закона американские компании стали бы обязаны раскрывать информацию о том, кто и почему покупает чипы и не распространяются ли на конечного пользователя ограничения. Новая администрация показала, что не желает иметь с этим законом ничего общего. В результате проверки рисков фактически возложили на NVIDIA. В INF Tech заявляют, что не связаны с военными исследованиями и действуют в соответствии с американскими законами. Теперь компания намерена развивать бизнес за пределами Китая, заключая соглашения с операторами ЦОД в Сингапуре, Малайзии и Таиланде для создания собственной ИИ-инфраструктуры. В Indosat подтвердили, что работают с многонациональными компаниями и каждый клиент, как американский, так и китайский, проходит одинаковый процесс одобрения. Также Indosat подчеркнула, что INF Tech не имеет физического доступа к оборудованию в Джакарте и только использует инфраструктуру для эксплуатации ИИ-продуктов, оптимизированных для Индонезии и Юго-Восточной Азии. По словам главы NVIDIA Дженсена Хуанга (Jensen Huang), доля компании на китайском рынке ИИ-решений упала с 95 % до нуля из-за экспортных ограничений и давно критикует власти США за недальновидность. Впрочем, китайский бизнес и ранее прибегал к использованию американских облаков или контрабандным ускорителям. Представитель NVIDIA не так давно заявлял, что ограничения на поставки уже стоили налогоплательщикам десятков миллиардов долларов, помешали инновациям и заставили уступить долю рынка зарубежным конкурентам.
13.11.2025 [11:00], Сергей Карасёв
«Группа Астра» представила семейство ПАК XPlatform для построения ИТ-инфраструктуры «под ключ»
astra linux
hardware
ии
облако
резервное копирование
сделано в россии
сервер
субд
схд
частное облако
«Группа Астра» анонсировала серию отечественных программно-аппаратных комплексов (ПАК) XPlatform, которые, как утверждается, предназначены для быстрого развертывания устойчивой, высокопроизводительной и безопасной ИТ-инфраструктуры «под ключ». В семейство вошли устройства разного класса — XTime, XCloud, XConnect, XGenAI и XData для решения определённых задач. Все компоненты систем XPlatform спроектированы для бесшовной интеграции, имеют необходимые сертификаты регуляторов, внесены в реестры Минцифры и Минпромторга. Каждый продукт поставляется как полностью подготовленный комплекс, прошедший заводское тестирование и проверку совместимости. Использование ПАК позволяет сократить издержки на интеграцию и отладку, а также ускорить развёртывание: на ввод в эксплуатацию требуются считаные дни или даже часы вместо недель или месяцев как в случае разрозненных решений. Система XTime предназначена для резервного копирования и централизованного хранения бэкапов виртуальных машин, баз данных и файловых хранилищ. Возможно архивирование регламентированных данных с длительным сроком хранения (соблюдение политики аудита). Поддерживаются распределённые филиальные контуры. В состав XTime входят сервер с RAID-контроллерами и дисковые полки. Программная составляющая включает софт Termidesk Connect и BRO Software. В свою очередь, XCloud служит для построения частного, гибридного или публичного облака, в котором можно гибко объединять IT-ресурсы, управлять доступом большого числа пользователей и масштабировать инфраструктуру под растущие нагрузки. Обеспечиваются быстрое развёртывание сложных информационных и геоинформационных систем, контроль и учёт потребления вычислительных ресурсов. Платформа объединяет серверы, СХД (SDS-архитектура) и коммутаторы, а также стек различного ПО. ПАК XConnect обеспечивает доставку приложений. Этот аппаратно-программный контроллер балансирует трафик, распределяет запросы между серверами и гарантирует устойчивость пользовательских сервисов. Обеспечивается возможность построения распределённой инфраструктуры для организаций с разветвлённой филиальной сетью. Разработчик говорит о высокой доступности системы даже при значительном росте количества пользователей. Аппаратная часть включает высокопроизводительные системы карт, SSL-ускорение и резервирование критичных компонентов. Применяется ПО Termidesk Connect. Решение XGenAI предназначено для создания и развёртывания классических и генеративных ИИ-моделей, включая обработку естественного языка, предиктивную аналитику и компьютерное зрение в локальных контурах. Используются сервер с ускорителями на основе GPU и софт «Тессеракт». Наконец, XData — это машина баз данных, которая, по заявлениям производителя, обеспечивает высокую доступность, масштабируемость и балансировку нагрузки для критически важных корпоративных СУБД. Задействована программная платформа Tantor. В числе потенциальных заказчиков ПАК XPlatform названы государственные и регулируемые организации, банки и прочие финансовые учреждения, промышленные предприятия и корпорации с филиальной структурой, а также любые другие компании, работающие с высоконагруженными приложениями и «чувствительными» данными. «С XPlatform мы предлагаем клиентам не просто набор технологий, а законченные программно-аппаратные комплексы, которые сокращают путь от идеи до промышленной эксплуатации. Единый стек, предсказуемая производительность, соответствие регуляторным требованиям и единое окно поддержки — это та комбинация, что позволяет бизнесу быстро и безопасно решать самые разнообразные задачи», — говорит Антон Шмаков, технический директор «Группы Астра».
12.11.2025 [14:38], Сергей Карасёв
Квартальная выручка CoreWeave подскочила более чем в два раза, а объём законтрактованных мощностей вырос до 2,9 ГВтПровайдер облачных услуг для ИИ-задач CoreWeave отчитался о работе в III квартале 2025 года. Выручка компании за трёхмесячный период достигла $1,36 млрд: это на 134 % больше по сравнению с показателем годичной давности, когда было получено $583,94 млн. Отмечается, что CoreWeave стремительно наращивает продажи. Так, в I четверти 2025-го выручка подскочила на 420 % в годовом исчислении — до $971,63 млн. Во II квартале зафиксирован рост на 207 % с итоговым результатом в $1,2 млрд. Операционный доход за отчётный период составил $51,85 млн против $117,12 млн годом ранее. В III квартале 2025-го CoreWeave понесла чистые убытки в размере $110,12 млн, или $0,22 в пересчёте на одну ценную бумагу. Для сравнения: годом ранее компания потеряла $359,81 млн, или $1,82 на акцию. Скорректированный показатель EBITDA (прибыль до вычета процентов, налогов и амортизационных отчислений) составил $838,12 млн против $378,76 млн в III четверти 2024 года.
Источник изображения: CoreWeave CoreWeave заявляет о диверсификации своей клиентской базы. Финансовый директор компании Нитин Агравал (Nitin Agrawal) сообщил, что на сегодняшний день вклад крупнейшего заказчика в общую выручку не превышает 35 %. Это существенно меньше по сравнению со II кварталом 2025 года, когда показатель находился на уровне 50 %. А в 2024-м около 62 % от суммарной выручки CoreWeave обеспечила Microsoft. Вторым по величине заказчиком оказалась NVIDIA (15 %), которая к тому же обязалась выкупить у CoreWeave все нераспроданные ИИ-мощности. Ранее Microsoft скупала мощности в интересах OpenAI. Теперь OpenAI напрямую закупает мощности у CoreWeave, хотя Microsoft тоже от них отказываться не будет. Кроме того, среди новых крупных заказчиков CoreWeave есть IBM и Meta✴. По словам Агравала, более 60 % портфеля заказов компании приходится на «клиентов инвестиционного уровня». CoreWeave также продолжает расширять инфраструктуру дата-центров. В течение III квартала добавлены 120 МВт мощностей, благодаря чему общий показатель достиг 590 МВт. Компания завершила квартал с законтрактованными мощностями в 2,9 ГВт. На территории США в течение июля–сентября введены в эксплуатацию восемь дополнительных ЦОД. Однако один из крупных проектов по созданию дата-центров был отложен из-за отставания от графика неназванного стороннего застройщика. В результате капитальные затраты за отчётный период составили $1,9 млрд, а не $2,9–$3,4 млрд, как предполагалось ранее.
11.11.2025 [21:00], Владимир Мироненко
iKS-Consulting: российский рынок облачных сервисов вырастет в 2025 году до 416,5 млрд рублейКомпания iKS-Consulting опубликовала отчёт, посвящённый результатам исследования «Российский рынок облачный инфраструктурных сервисов 2025», целью которого была оценка текущего состояния и динамики развития отечественного рынка облачных услуг, а также анализ конкурентной ситуации и позиций ведущих игроков рынка. В ближайшие пять лет облачный рынок в России будет расти высокими темпами и к 2030 году достигнет 1,2 трлн руб. при среднегодовых темпах роста в 24,4 %, прогнозируют в iKS-Consulting. В отчёте указаны результаты анализа рынка сегмента IaaS и PaaS в публичных и гибридных облаках. Ранее рассматриваемый в едином отчёте по облачным услугам сегмент SaaS (аренда ПО и приложений) был выделен в отдельное исследование. Исследование было проведено в августе-ноябре 2025 года. Как указано в отчёте, в 2025 году на российском рынке облачных услуг сохраняются тренды, сложившиеся в предыдущие годы, включая активный рост и трансформацию, обусловленные импортозамещением, развитием ИИ и повышением требований к безопасности. В основе роста рынка лежит расширение областей цифровизации и рост уровня проникновения аутсорсинга в ИТ-инфраструктуру. Также продолжающаяся цифровая трансформация экономики сопровождается внедрением ИИ-технологий в различные бизнес-процессы.
Источник изображений: iKS-Consulting Рынок облачных услуг (IaaS, PaaS и SaaS) в России в 2015-2025 гг., млрд руб. Уход из России западных гиперскейлеров ускорил переход на российские облачные решения и вызвал высокий спрос на услуги по миграции с зарубежных облачных платформ на отечественные решения, что потребовало аудита инфраструктуры и переноса данных. Также спрос на высокотехнологичные платформы потребовал активного развития отечественных разработок в области IaaS, PaaS и SaaS-платформ, в первую очередь, для госсектора, сферы финансов и для критически важной инфраструктуры. Начавшийся в 2022 году процесс перехода в облака российских провайдеров продолжается в текущем. В настоящее время, как следует из результатов опроса участников рынка, вопросы поставок облачными провайдерами решены, хотя сроки и условия поставки стали менее комфортными для покупателей. Также отмечен значительный рост роли государственного заказчика (B2G) на российском ИТ-рынке, что обусловлено централизованной политикой по миграции органов власти на единую облачную инфраструктуру и развитием цифровых госуслуг. Некоторые компании начинают активно развивать собственную ИТ-инфраструктуру: строят частные облака, как полностью на собственной инфраструктуре, так и с использованием предложений облачных провайдеров. По мнению исследователей iKS-Consulting, этот тренд сохранится в ближайшие годы, сдерживая развитие сегмента публичных облаков. Неопределённость экономической перспективы делает аренду облака более предпочтительным вариантом, чем инвестиции в собственную инфраструктуру (on-premise). В пользу этого выбора свидетельствует и фактор высокой цикличности спроса на ресурсы при обучении и использовании больших языковых моделей (LLM), утверждают исследователи. По оценкам iKS-Consulting, объём российского рынка облачных сервисов, включая IaaS, PaaS и SaaS, в 2024 году увеличился в годичном исчислении на 32,8 % до 322,3 млрд руб. Предполагается, что в 2025 году рынок составит 416,5 млрд руб. или $4,84 млрд (рост год к году на 29,2 и 37,5 % соответственно). В числе факторов роста рынка в 2024–2025 гг. исследователи назвали:
Крупнейшими игроками рынка IaaS в 2024 года были компании Cloud.ru, ГК «РТК-ЦОД», Selectel, MWS и Yandex Cloud с 66 % всей выручки от услуг IaaS в публичных и гибридных облаках. Вышедшая в лидеры Cloud.ru значительно увеличила долю рынка за счёт предоставления услуг, связанных с ИИ, а также услуг в публичных и гибридных облаках. Сместившаяся на второе место ГК «РТК-ЦОД» имеет собственную сеть дата-центров, являясь крупнейшим игроком на рынке коммерческих ЦОД и предлагая услуги колокации в Москве, Санкт-Петербурге и многих других городах РФ. На рынке PaaS, составившем в 2024 году 33 млрд руб., лидируют Cloud.ru с долей рынка 45,53 % и Yandex.Cloud (23,65 %). Драйвером роста Cloud.ru является доступ к сервисам для создания и работы с ИИ-моделями, облачные сервисы для реализации отраслевых сценариев и разработки. В свою очередь Yandex.Cloud предлагает платформы для баз данных и услуги по управлению кластерами Kubernetes. Обе компании также лидируют в сегменте синтеза и распознавания речи и изображений. Согласно прогнозу iKS-Consulting, в 2025 году по совокупной выручке от услуг IaaS и PaaS первые два места останутся за лидерами сегмента IaaS — Cloud.ru и «РТК-ЦОД». Третье место у Yandex Cloud благодаря высоким темпам роста в обоих сегментах рынка. Замыкают пятёрку Selectel и МWS. Суммарно на первую пятёрку приходится около 70 % рынка.
11.11.2025 [15:14], Руслан Авдеев
Облака и ЦОД Northern Data будут проданы Rumble для создания экосистемы Freedom-First с упором на свободу слова и приватность, а майнинговые мощности достанутся Elektron EnergyНемецкая IT-компания Northern Data Group будет продана видеоплатформе и облачному провайдеру Rumble Inc. Последняя купит 100 % акций Northern Data. Сделка предусматривает покупку всего бизнеса, включая облачные и ИИ-подразделения, и будет закрыта во II половине 2026 года, сообщает Datacenter Dynamics. В Rumble сообщают, что намерены расширить облачный бизнес за счёт активов Northern Data, получив одни из крупнейших массивов ИИ-ускорителей в Европе наряду с ЦОД. Это поможет компании построить собственную экосистему Freedom-First. Экосистема Freedom-First, в отличие от классических гиперскейлеров, якобы предполагает поддержку свободы слова, приватности, независимости и надёжности. В будущем планируется расширить портфолио сервисов, предложив Rumble Wallet, ИИ-ботов и агентов и др. Основанная в 2022 году Rumble включает видеоплатформу, а также облачный сервис Rumble Cloud. Последний распоряжается ЦОД в несколкьих американских штатах. В рамках сделки каждый совладелец Northern Data получит по 2,0281 акций Rumble класса A в обмен на каждую акцию Northern Data. Также среди акционеров распределят $200 млн. На сегодня крупным акционером Northern и Rumble является криптомайнинговая компания Tether. Она, наряду с другими инвесторами, и приняла решение о продаже. В минувшие выходные Northern Data объявила о продаже доли в Lancium, задействованной в проекте Stargate, за $30 млн. Кроме того, упомянуто соглашение с Tether об аренде ИИ-ускорителей на сумму до $150 млн в течение двух лет. Параллельно Northern Data избавится от подразделения, ответственное за майнинг криптовалют, чтобы полностью сосредоточиться на облачных сервисах и ЦОД, сообщает Datacenter Dynamics. Первоначальный платёж за майнинговый бизнес Peak Mining должен был составить $50 млн. Имя покупателя не называлось, но в августе появилась информация, что майнинговое подразделение продадут Elektron Energy за $350 млн. Ещё $150 млн будет выплачено, если прибыль подразделения после сделки достигнет заданных показателей. Вырученные средства пойдёт на расширение облачных и ИИ-сервисов.
Источник изображения: Kanchanara/unsplash.com Northern Data была основана в Германии в 2009 году под именем Northern Bitcoin AG. Бизнес позиционировал себя как «зелёного» майнера биткоинов. В 2020 году компанию переименовали в Northern Data Group и переориентировали на HPC-проекты в целом. Летом 2023 года компания запустила три бернда: Taiga Cloud, Ardent Data Centers и Peak Mining. Облаку Taiga Cloud досталось более 22 тыс. ИИ-ускорителей. Что касается Ardent Data Centers, то восемь ЦОД по всему миру к 2027 году совокупно достигнут мощности порядка 250 МВт. Ardent управляет дата-центрами в Будене (Boden) в Швеция, а также в Норвегии — в Лефдале (Lefdal) на мощностях Lefdal Mine и Кристиансанне (Kristiansand) на мощностях Bulk. В США летом 2025 года компания открыла дата-центр в Питтсбурге (Пенсильвания). Также планируется масштабное строительство в Мейсвилле (Maysville, Джорджия). Также упоминаются мощности для размещения оборудования в Великобритании и Португалии. Дополнительно упомянуто о площадке мощностью 6 МВт в Амстердаме (Нидерланды). В мае Northern Data сообщала о получении от компаний, «зарегистрированных на бирже в США», заявлений о заинтересованности в обсуждении о слиянии с подразделениями Taiga Cloud и Ardent или их приобретении. В августе компания Rumble Inc. объявила, что заинтересована в рассмотрении покупке, в качестве средства оплаты предлагая свои акции взамен активов. Положение Northern Data на рынке не вполне стабильно. Если в июле 2024 года сообщалось, что компания рассматривает вывод на IPO подразделений ЦОД и ИИ, то в сентябре 2025 года появилась информация о том, что европейских офисах компании прошли обыски и аресты. Сообщалось, что компанию подозревают в неуплате €100 млн налогов от деятельности, связанной с криптомайнингом.
10.11.2025 [15:00], Владимир Мироненко
Фирменные ИИ-ускорители Amazon всё ещё не могут конкурировать с чипами NVIDIA, считают некоторые стартапыНекоторые стартапы считают, что ИИ-чипы Trainium и Inferenetia собственной разработки Amazon менее конкурентоспособны, чем ускорители NVIDIA, сообщил ресурс Business Insider со ссылкой на внутреннюю документацию AWS. Согласно июльскому «конфиденциальному» внутреннему документу Amazon, ИИ-стартап Cohere обнаружил, что чипы Amazon Trainium 1 и 2 «уступают по производительности» ускорителям NVIDIA H100. Стартап отметил, что доступ к Trainium2 был «крайне ограничен», а в работе наблюдались частые перебои. Amazon и её подразделение Annapurna Labs всё еще изучают возникшие у Cohere «проблемы с производительностью», но прогресс в решении этих проблем был «ограниченным», отмечено в официальном документе. Также в нём упоминается стартап Stability AI, разработавший, в том числе, ИИ-генератор изображений Stable Diffusion, который высказывал схожие претензии. В частности, говорится, что чипы Amazon Trainium2 уступают NVIDIA H100 по задержке, что делает их «менее конкурентоспособными» с точки зрения скорости и стоимости. Ставка Amazon на чипы собственной разработки является частью её усилий по обеспечению конкурентоспособности в ИИ-гонке. Её прибыльность основана в том числе на использовании собственных процессоров Graviton вместо дорогостоящих чипов Intel. И сейчас Amazon тоже стремится задействовать собственные чипы для обработки ИИ-нагрузок. Если некоторые клиенты AWS не захотят использовать Trainium и будут настаивать на том, чтобы AWS запускала свои облачные ИИ-системы с использованием чипов NVIDIA, которые гораздо дороже её собственных решений, это отразится на её прибыли от облачных вычислений, отметил Business Insider. Рынок стартапов давно является важным для AWS, поэтому их претензии имеют большое значение для компании. Представитель Amazon заявил, что компания «благодарна» клиентам за отзывы, которые помогают сделать её чипы «еще лучше и более широко используемыми». Он добавил, что кейс с Cohere «не является актуальным», отметив, что её чипы Trainium и Inferentia «достигли отличных результатов» с такими клиентами, как Ricoh, Datadog и Metagenomi. «Мы очень довольны ростом и внедрением Trainium2, который на данном этапе в основном используется небольшим числом очень крупных клиентов, таких как Anthropic», — написал представитель в электронном письме ресурсу Business Insider. AWS утверждает, что ее собственные ИИ-ускорители предлагают на 30-40 % лучшие ценовые характеристики, чем нынешнее поколение GPU. Компания обладает «невероятными талантами» в области проектирования чипов и работает над новыми поколениями ускорителей. «Мы рассчитываем привлечь больше клиентов, начиная с Trainium 3, превью которого ожидается позже в этом году», — сказал представитель Amazon. Генеральный директор Amazon Энди Джасси (Andy Jassy) заявил во время отчёта о доходах компании, что чипы Trainium2 «полностью распределены по подписке» и теперь являются «многомиллиардным» бизнесом, который последовательно увеличивается на 150 % от квартала к кварталу. Жалобы клиентов Amazon на её чипы поступали и раньше. Согласно июльскому документу, стартап Typhoon обнаружил, что устаревшие ускорители NVIDIA A100 в три раза экономичнее для определённых рабочих нагрузок, чем чипы Inferentia2 от AWS, ориентированные на инференс. В свою очередь, исследовательская группа AI Singapore установила, что серверы AWS G6, оснащённые ускорителями NVIDIA, более экономичны по сравнению с Inferentia2 при различных вариантах использования. В прошлом году клиенты облака Amazon также отмечали «проблемы при внедрении» её пользовательских ИИ-чипов, которые создают «проблемные области», что ведёт к снижению их использования. Эти проблемы нашли отражение в доле рынка Amazon. По данным исследовательской компании Omdia, NVIDIA доминирует на рынке ИИ-чипов с долей более 78 %. За ней следуют Google и AMD, владеющие по чуть более 4 %. AWS занимает лишь шестое место с 2 % рынка. Наглядно иллюстрирует проблемы Amazon в этом отношении соглашение AWS и OpenAI стоимостью $38 млрд. Сделка предполагает использование облачных ИИ-серверов на базе ускорителей NVIDIA, без упоминания чипов Trainium. Ускорители NVIDIA не только обеспечивают высокую производительность, но подкрепляются широко распространённой платформой CUDA. Это качество особенно ценно при разработке крупных проектов в области ИИ с высоким уровнем риска, когда надёжность и имеющийся опыт могут сыграть решающую роль. В июльском документе сотрудники Amazon отметили, что технические ограничения и другие проблемы, связанные со сравнением пользовательских ИИ-чипов компании и ускорителей NVIDIA, стали «критическим препятствием» для клиентов, задумывающихся о переходе на чипы AWS. До публикации отчёта о доходах Amazon на прошлой неделе аналитики Bank of America соблюдали осторожность в оценке прогресса Tranium. В аналитической заметке, опубликованной в конце октября, они предупредили, что инвесторы «скептически» относятся к возможностям Trainium, и что «неясно», проявится ли высокий спрос на них «за пределами Anthropic». Недавно AWS запустила проект Project Rainier — ИИ-кластер из полумиллиона чипов Trainium2, которые будут использоваться для обучения LLM следующего поколения Anthropic. Ожидается, что к концу года Anthropic получит более 1 млн чипов Trainium2, но решение по этому вопросу ещё не принято. Если реализация проекта будет успешной, это станет огромным подспорьем для Amazon. Вместе с тем в прошлом месяце Anthropic подписала многомиллиардный контракт на использование Google TPU, отметив, что продолжит использовать Trainium. Хотя Anthropic публично признала сложность использования архитектур с разными чипами, представитель Amazon сообщил Business Insider, что Anthropic продолжает расширять использование Trainium и подчеркнул стремление компании предлагать клиентам широкий спектр аппаратных опций в рамках своих облачных сервисов. В ходе общения с аналитиками на прошлой неделе Джасси подчеркнул, что AWS сосредоточена на предоставлении «нескольких вариантов чипов». Он отметил, что цель состоит не в том, чтобы заменить чипы NVIDIA, а в том, чтобы предоставить клиентам больше выбора. Этой стратегии AWS придерживается и в других областях облачных вычислений, сказал он. «В истории AWS никогда не было случая, чтобы какой-то один игрок в течение длительного периода времени владел всем сегментом рынка, а затем мог удовлетворить потребности всех во всех аспектах», — сказал Джасси. В долгосрочной перспективе не слишком удачные продажи собственных ускорителей не лучшим образом скажутся на AWS. Компания понимает, что её решения могут быть менее производительны и удобны, поэтому и предлагает их по меньшей цене, чем ускорители NVIDIA. Однако стоимость их производства сравнима со стоимостью производства чипов такого же класса, и со временем она будет только расти. Проще говоря, Amazon меньше зарабатывает на своих чипах, а в худшем случае может терять на них деньги.
10.11.2025 [12:05], Сергей Карасёв
Фабрика токенов: Nebius, бывшая Yandex NV, запустила платформу Token Factory для инференса на базе открытых ИИ-моделейКомпания Nebius (бывшая материнская структура «Яндекса») представила платформу Nebius Token Factory для инференса: она позволяет разворачивать и оптимизировать открытые и кастомизированные ИИ-модели в больших масштабах с высоким уровнем надёжности и необходимым контролем. Nebius отмечает, что применение закрытых ИИ-моделей может создавать трудности при масштабировании. С другой стороны, открытые и кастомизированные модели позволяют устранить эти ограничения, но управление ими и обеспечение безопасности остаются технически сложными и ресурсоёмкими задачами для большинства команд. Платформа Nebius Token Factory призвана решить существующие проблемы: она сочетает гибкость открытых моделей с управляемостью, производительностью и экономичностью, которые необходимы организациям для реализации масштабных проектов в сфере ИИ. Nebius Token Factory базируется на комплексной ИИ-инфраструктуре Nebius. Новая платформа объединяет высокопроизводительный инференс, пост-обучение и управление доступом. Обеспечивается поддержка более 40 open source моделей, включая новейшие версии Deep Seek, Llama, OpenAI и Qwen. Среди ключевых преимуществ Nebius Token Factory заявлены соответствие требованиям корпоративной безопасности (HIPAA, ISO 27001 и ISO 27799), предсказуемая задержка (менее 1 с), автоматическое масштабирование пропускной способности и доступность на уровне 99,9 %. Инференс выполняется в дата-центрах на территории Европы и США без сохранения данных на серверах Nebius. Задействована облачная экосистема Nebius AI Cloud 3.0 Aether, что, как утверждается, обеспечивает безопасность корпоративного уровня, проактивный мониторинг и стабильную производительность. Отмечается, что Nebius Token Factory может применяться для решения широкого спектра ИИ-задач: от интеллектуальных чат-ботов, помощников по написанию программного кода и генерации с дополненной выборкой (RAG) до высокопроизводительного поиска, анализа документов и автоматизированной поддержки клиентов. Интегрированные инструменты тонкой настройки и дистилляции позволяют компаниям адаптировать большие открытые модели к собственным данным. При этом достигается сокращение затрат на инференс до 70 %. Оптимизированные модели затем можно быстро разворачивать без ручной настройки инфраструктуры. |
|


