Материалы по тегу:

26.11.2025 [00:54], Владимир Мироненко

Планы Meta✴ использовать ИИ-ускорители Google TPU ударили по акциям NVIDIA

Во вторник рынок ценных бумаг компаний в сфере ИИ пришёл в движение после появления в понедельник публикации ресурса The Information о том, что Meta ведёт переговоры с Google об использовании ИИ-ускорителей TPU в её ЦОД в 2027 году. По данным источника ресурса, стороны также обсуждают возможность аренды этих чипов в Google Cloud уже в следующем году, что являются частью более масштабной стратегии Google по привлечению клиентов к использованию TPU в её облаке.

Этот шаг ознаменует собой отход от текущей стратегии Google, нацеленной на использование TPU только в собственных ЦОД, что приведёт к обострению конкуренции на многомиллиардном рынке ИИ-ускорителей, отметило агентство Reuters. В Google Cloud предположили, что эта стратегия может помочь компании получить до 10 % годовой выручки NVIDIA, т.е. миллиарды долларов, говорится в публикации The Information.

Заключение сделки станет сигналом о растущем спросе на чипы Google и потенциальной возможности бросить в будущем вызов доминированию NVIDIA на рынке, тем более что Google ранее договорилась о поставке Anthropic до 1 млн чипов TPU, пишет Bloomberg. О таком развитии событий аналитики говорили ещё в прошлом году, а уже в этом году появились слухи, что Google готова предложить свои чипы другим провайдерам. Впрочем, Anthropic получила и полмиллиона фирменных ускорителей AWS Trainium.

 Источник изображения: Google

Источник изображения: Google

Новость о переговорах вызвала падение во вторник акций NVIDIA на 4,3 %. Акции Alphabet, материнской компании Google, выросли на 4,2 % после более чем 6 % роста в понедельник. Акции Broadcom, участвующей в разработке TPU, выросли более чем на 2 % на премаркете во вторник после роста на 11 % накануне, сообщил CNBC. «Google Cloud испытывает растущий спрос как на наши собственные TPU, так и на GPU NVIDIA; мы намерены поддерживать обе платформы, как и делали это много лет», — заявил представитель Google телеканалу CNBC.

Акции AMD, ранее считавшейся наиболее реальным конкурентом NVIDIA на рынке GPU, во вторник упали на 7,5 %. Акции разработчика чипов Arm упали на 4,2 %. Акции компаний в Азии, связанных с Alphabet, выросли в начале торгов во вторник. В Южной Корее акции IsuPetasys Co., которая поставляет многослойные платы для Alphabet, подскочили на 18 %, установив новый рекорд роста в течение дня. На Тайване акции MediaTek выросли почти на 5 %.

В последние месяцы Google набрала обороты, сумев привлечь Berkshire Hathaway, принадлежащую Уоррену Баффету (Warren Buffett), в качестве инвестора, превратив облачное подразделение в двигатель роста и получив высокие первые отзывы о своей новейшей модели Gemini 3. Предоставление чипов NVIDIA в аренду клиентам является крупным источником дохода для ее облачного подразделения, пишет Reuters.

Чтобы справиться с доминированием NVIDIA, компании потребуется преодолеть почти двадцатилетнюю историю NVIDIA CUDA, которая затрудняет вытеснение её экосистемы. Более 4 млн разработчиков по всему миру используют CUDA для создания ИИ-приложений и других программ. Кроме того, Google должно хватать TPU на всех клиентов. Следует учесть и то, что Meta разрабатывает собственные ИИ-ускорители MTIA.

Постоянный URL: http://servernews.ru/1132948
25.11.2025 [17:23], Сергей Карасёв

JBOG-массив OpenYard HG402 допускает установку восьми GPU

Российский разработчик и производитель серверного оборудования OpenYard анонсировал JBOG-массив HG402, предназначенный для решения ресурсоёмких вычислительных задач, связанных в том числе с машинным обучением и приложениями ИИ.

Новинка выполнена в форм-факторе 4OU в соответствии со стандартом OpenRack v2.2. Доступны восемь слотов для установки карт с интерфейсом PCIe 4.0 x16. Производитель говорит о совместимости с такими картами, как NVIDIA GeForce RTX 4080 и RTX 5090 (с собственными радиаторами OpenYard), а также NVIDIA A100 и H100. Для подключения массивов к хосту используются кабели MCIO (PCIe 4.0). При этом один хост может задействовать до четырёх GPU. Таким образом, ресурсы массива могут использоваться одновременно двумя серверами.

 Источник изображения: OpenYard

Источник изображения: OpenYard

Среди преимуществ решения OpenYard HG402 разработчик называет возможность применения ускорителей потребительского уровня для инференса, оптимизированное охлаждение, а также управление через систему OYBMC. Обеспечивается быстрая замена GPU и вентиляторов; при этом для обслуживания массива не требуются инструменты.

Ранее компания OpenYard представила GPU-сервер HN203I, построенный на аппаратной платформе Intel. Устройство допускает установку двух процессоров Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP), до 8 Тбайт оперативной памяти DDR5, десяти SFF-накопителей (NVMe) с возможностью горячей замены и четырёх LFF-устройств с интерфейсом SATA/SAS. Есть восемь слотов PCIe 5.0 x16 MCIO и три слота PCIe 5.0 x4 MCIO, а также разъём OCP 3.0 (PCIe 5.0 x16).

Постоянный URL: http://servernews.ru/1132923
25.11.2025 [16:24], Руслан Авдеев

Нехватка ИИ-мощностей и проблемы с производительностью вынудили многих клиентов AWS обратиться к конкурентам

Летом 2025 года облачный бизнес Amazon (AWS) с трудом справлялся с растущим спросом на ИИ и упустил часть доходов. Сервис Bedrock занимает ключевое место в развитии ИИ-проектов компании. Однако летом Bedrock столкнулся с нехваткой мощностей, из-за чего некоторые клиенты ушли к конкурентам, в том числе к Google, сообщает Business Insider. Это привело к потерям десятков миллионов долларов и отложенной выручки.

Например, проект Fortnite стоимостью $10 млн достался Google Cloud после того, как AWS не смогла выделить ей необходимые квоты (лимит на токены или вызовы API). Согласно внутреннему документу AWS, попавшему в распоряжение журналистов, нефтетрейдер Vitol также перенёс проекты из AWS, а некоторые крупные клиенты, включая Atlassian и GovTech Singapore, летом были вынуждены ожидать увеличения квот, что привело к «отсроченным продажам» минимум на $52,6 млн. Более того, задержки с одобрением выделения мощностей и отказ в обработке нерегулярных, вынудили Stripe, Robinhood и Vanguard отказаться от переноса нагрузок в Bedrock.

Подчёркивается, что проблемы Bedrock потенциально ведут к потерям выручки и проблемам с клиентами. Это объясняет, почему облачные компании стремятся построить как можно больше ИИ ЦОД. Высокий спрос хорош только тогда, когда можно его удовлетворить и удержать клиентов от перехода к конкурентам. Бывшие и действующие сотрудники AWS отмечают, что проблемы с вычислительными мощностями были одними из наиболее значимых для компании в сентябре. AWS и раньше испытывала проблемы с нехваткой мощностей даже для собственных нужд, но сейчас ситуация обострилась.

 Источник изображения: LARAM/unsplash.com

Источник изображения: LARAM/unsplash.com

Тем временем в Amazon утверждают, что Bedrock быстро растёт, а AWS стремительно наращивает мощности для удовлетворения спроса, за 12 месяцев добавив 3,8 ГВт. Это больше, чем смогу получить любой другой облачный провайдер. AWS удвоила мощность с 2022 года и намерена сделать то же самое к 2027 году. Компания и далее намерена быть «очень агрессивной» в деле масштабирования вычислительных мощностей, причём AWS может монетизировать новые мощности «практически незамедлительно», а Bedrock имеет не меньший потенциал роста, чем EC2.

Частично проблемы с Bedrock могут быть связаны с тем, что компания отдаёт предпочтение крупным клиентам. В октябре заявлялось, что большинство задач Bedrock выполняется с помощью «доморощенных» ИИ-чипов Trainium, но в основном нагрузки приходятся на нескольких очень крупных клиентов, которые, по-видимому, готовы вкладываться в развитие инструментов на не самой популярной платформе. Ожидается, что компании среднего размера в ближайшие месяцы тоже начнут использовать Trainium нового поколения. Впрочем, последние иногда всё ещё не могут конкурировать с чипами NVIDIA.

Впрочем, помешала Bedrock не только нехватка мощностей. Так, Figma, Intercom и Wealthsimple предпочли использовать LLM Claude в Google Cloud или на платформе самой Anthropic из-за недостатка функций и высокой задержки в Bedrock. Британская госслужба Government Digital Service рассматривала переход в Microsoft Azure только потому, что Claude 3.7 Sonnet работала медленнее на платформе Bedrock. Thomson Reuters также выбрала Google Cloud для своего ИИ-продукта CoCounsel, поскольку сервис AWS оказался на 15–30 % медленнее и не имел ключевых правительственных сертификатов.

 Источник изображения: Vitaly Gariev/unspalsh.com

Источник изображения: Vitaly Gariev/unspalsh.com

В документе AWS отмечается, что платформа Bedrock уступает Google. Для моделей Gemini квоты в пять-шесть раз выше, а Gemini Pro побеждает Claude в Bedrock во многих бенчмарках. Хуже того, Gemini Flash обеспечивает сравнимое качество при кратно меньших затратах. Некоторые стартапы буквально «сбежали» по этой причине. TainAI перенесла 40 % задач на Gemini Flash, отказавшись от Claude в Bedrock и экономя тем самым $85 тыс./день, а Hotel Planner намеревалась перейти в Google Cloud или к OpenAI. Всё это было ещё до запуска Gemini 3.

Ещё более важная проблема, согласно документу, заключается в том, что у AWS нет целостного видения ИИ-инференса, хотя это ключевой сервис Bedrock. Это сыграло на руку не только гиперскейлерам, но и компаниями поменьше. Без чёткой стратегии AWS рискует упустить одну из самых привлекательных возможностей на рынке ИИ. Но этим проблемы не ограничиваются. Октябрьский сбой AWS продемонстрировал зависимость мировой Сети от лидера облачного рынка, так что многие задумались о переносе хотя бы части нагрузок на другие платформы, а Евросоюз рассматривает необходимость ограничения возможностей американских облачных гигантов.

В последние недели инвесторы обеспокоены расходами на ИИ, опасаясь возникновения очередного пузыря на рынке IT. В этом контексте дефицит мощностей для Amazon играет двоякую роль. Это свидетельствует, что спрос со стороны клиентов до сих пор высок. С другой стороны, дефицит — ещё одна причина тратить больше денег в развитие инфраструктуры, что повышает риск возникновения пузыря. Amazon утверждает, что намерена выделить $125 млрд на капитальные затраты в текущем году, и ещё больше — в 2026-м.

Постоянный URL: http://servernews.ru/1132903
25.11.2025 [14:40], Руслан Авдеев

«Миссия Генезис» — США бросят силы на развитие ИИ для научных открытий

В понедельник президент США подписал указ о выполнении «Миссии Генезис» (Genesis Mission). Речь идёт о федеральной программе стимулирования инноваций с использование ИИ-технологий. Это последний из шагов нынешней администрации по продвижению и внедрению ИИ, сообщает Bloomberg. По словам представителя Белого дома, усилия направлены на оптимизацию координации исследований, проводимых правительственными ведомствами. Также предусмотрена более эффективная интеграция ИИ-инструментов для обеспечения всё новых научных прорывов.

Сообщается, что для выполнения миссии будут задействовать вычислительные ресурсы национальных лабораторий Министерства энергетики для доступа к федеральным наборам данных и проведения большего количества экспериментов с применением ИИ-технологий. Предполагается, что подобные усилия могут помочь быстрее совершать научные открытия. Как сообщают источники в администрации президента, развитию суперкомпьютерных ресурсов в лабораториях министерства будут способствовать договоры с частными компаниями, включая NVIDIA, Dell, HPE и AMD.

Новая инициатива, как ожидается, ускорит научные открытия в сфере материаловедения, здравоохранения и энергетики. Также в Белом доме подчёркивают необходимость инноваций для развития производства и снижения цен — это ещё один из приоритетов администрации. Заявляется, что благодаря ИИ Америка находится «на пороге научной революции».

 Источник изображения: CDC/unspalsh.com

Источник изображения: CDC/unspalsh.com

Тем не менее, внедрение новых технологий может увеличить нагрузку на энергосети США. В Министерстве энергетики, наоборот, подчёркивают, что Genesis поможет противостоять росту цен на электричество, одна из конечных целей программы в энергетическом секторе — получить больше энергии и сделать сеть более эффективной, а также обратить вспять рост цен, вызвавший недовольство американских граждан. Предполагается, что сначала цены стабилизируются, а потом начнут снижаться.

Ранее в ноябре об инициативе уже говорили в Белом доме. Подчёркивалось, что в администрации Трампа гонку ИИ-технологий считают столь же важной, как, в своё время, Манхэттенский проект (создание атомной бомбы). Миссию даже назвали крупнейшей мобилизацией федеральных научных ресурсов со времён программы «Аполлон», в рамках которой людей отправляли на Луну.

Текущая администрация сделала развитие ИИ одним из главных приоритетов, стремясь одержать победу в гонке с Китаем и другими странами за первенство в этой сфере. Ряд указов предусматривает смягчение налогового бремени, чтобы упростить бизнесу создание ИИ-инфраструктуры и ЦОД, а союзникам — получить ключевое оборудование и программное обеспечение. Кроме того, обещана более жёсткая борьба с правительствами штатов — готовится указ, позволяющий подавать на штаты в суд за регулирование сферы ИИ — он считает его неконституционным.

В июле сообщалось, что Министерство энергетики США выделило бизнесу свои земли для ускоренного строительства ЦОД и электростанций в соответствии с программой AI Action Plan, направленной на сохранение мирового лидерства в сфере ИИ.

Постоянный URL: http://servernews.ru/1132917
25.11.2025 [14:05], Владимир Мироненко

AWS потратит $50 млрд на расширение облачных мощностей для правительства США: +1,3 ГВт на ИИ и HPC

Amazon объявила о планах инвестировать до $50 млрд в расширение инфраструктуры ИИ и HPC для правительства США. Компания начнёт реализацию проектов в 2026 году и планирует добавить почти 1,3 ГВт вычислительной мощности в регионах AWS Top Secret, AWS Secret и AWS GovCloud (US) на всех уровнях секретности путём строительства новых ЦОД.

Федеральные агентства получат расширенный доступ к комплексным ИИ-сервисам AWS, включая SageMaker, Bedrock, Nova и Anthropic Claude. Также в их распоряжение будут предоставлены ведущие модели класса open-weight foundation, ИИ-ускорители Trainium и ИИ-инфраструктура NVIDIA, что позволит им разрабатывать индивидуальные решения в области ИИ, оптимизировать большие наборы данных и повышать производительность труда, сообщила Amazon. Ранее AWS, Google, Oracle, Microsoft, xAI и др. IT-гиганты предоставили госслужбам США существенные скидки на облачные услуги в рамках программы OneGov.

Это позволит государственным агентствам ускорить обработку информации и принятие решений. Интеграция ИИ с моделированием и имитацией позволит им решать за считанные часы самые сложные задачи, на которые раньше уходили недели или месяцы, а также «автоматически обнаруживать угрозы и разрабатывать планы реагирования», обрабатывая спутниковые снимки, данные датчиков и исторические закономерности в «беспрецедентном масштабе».

 Источник изображения: Amazon.com

Источник изображения: Amazon.com

«Наши инвестиции в специализированную правительственную инфраструктуру ИИ и облачные технологии коренным образом изменят подход федеральных агентств к использованию суперкомпьютинга, — заявил генеральный директор AWS Мэтт Гарман. — Мы предоставляем агентствам расширенный доступ к передовым возможностям ИИ, которые позволят им ускорить выполнение критически важных задач — от кибербезопасности до разработки лекарств. Эти инвестиции устраняют технологические барьеры, сдерживавшие развитие правительства, и укрепляют лидирующие позиции Америки в эпоху ИИ».

Компания отметила, что этот шаг подчёркивает позицию AWS как лидера в области государственных облачных вычислений, поддерживающего более 11 тыс. государственных учреждений. AWS уже давно предоставляет правительству США выделенные облачные регионы. В 2011 году она запустила AWS GovCloud (US-West), AWS Top Secret-East — изолированное облако для секретных рабочих нагрузок — в 2014 году, AWS Secret Region — в 2017 году, с 2018 года добавила второй регион GovCloud (US-East), AWS Top Secret-West, а в октябре 2025 года — AWS Secret-West. Компания не раскрывает точное местоположение ЦОД и регионов.

Как пишет Data Center Dynamics, другие страны также доверяют AWS свою самую секретную информацию. В Великобритании в 2021 году сообщили, что три британских разведывательных агентства использовали AWS для хранения совершенно секретных данных. В 2024 году AWS получила контракт стоимостью $1,3 млрд правительства Австралии на строительство ЦОД для совершенно секретной информации — спецслужбы получат возможность работы без использования открытого интернета.

Постоянный URL: http://servernews.ru/1132897
25.11.2025 [13:42], Андрей Крупин

Yandex B2B Tech открыла доступ к Alice AI LLM — самому мощному семейству нейросетей «Яндекса»

Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») сообщила о доступности пользователям облачной платформы Yandex Cloud нового семейства генеративных моделей — Alice AI LLM.

Alice AI LLM является флагманской ИИ-разработкой компании «Яндекс». Модель построена на архитектуре MoE (Mixture of Experts) с технологией тренировки на основе обучения с подкреплением (Online RL). Нейросеть понимает около 20 языков (в том числе японский) и может быть использована для решения сложных задач: поиска по базам знаний и генерации результатов на основе найденной информации (RAG-сценарий), анализа документов, построения отчётов и аналитики, извлечения информации и автоматизации заполнения полей, форм и баз CRM, а также для создания «человеко-ориентированных» ИИ-ассистентов.

 Источник изображения: пресс-служба «Яндекса» / company.yandex.ru

Источник изображения: пресс-служба «Яндекса» / company.yandex.ru

Alice AI LLM доступна через OpenAI-совместимые Completions API и Responses API, а также собственный API генерации текста в форматах REST и gRPC. Модель поддерживает интеграцию с популярными open source-библиотеками LangChain, AutoGPT и LlamaIndex.

В Yandex B2B Tech подчёркивают, что стоимость использования Alice AI значительно ниже, чем у опенсорсных нейросетей, благодаря оптимизированному под русский язык разделению текста на токены. В один токен в Alice AI помещаются примерно 4–5 символов на кириллице, а в опенсорсных моделях — примерно 2–3 символа. Таким образом, конечная стоимость использования Alice AI в 1,5–2 раза ниже открытых моделей с той же тарификацией. Кроме того, запросы пользователя к нейросети и ответы модели тарифицируются по-разному: токены «на вход» нейросети стоят в четыре раза дешевле, чем «на выход», что позволяет использовать модель более экономно.

Постоянный URL: http://servernews.ru/1132916
25.11.2025 [12:16], Руслан Авдеев

Российские магистральные ВОЛС близки к предельному возрасту эксплуатации

Уже в 2025 году на направлении запад–восток в Российской Федерации 50–70 % доступной инфраструктуры ВОЛС выйдет за пределы гарантийных сроков эксплуатации. Соответствующую информацию привёл представитель телеком-группы «Атлас» со ссылкой на данные аналитиков J’son & Partners Consulting, сообщают «Ведомости».

Предел «комфортной» эксплуатации ВОЛС составляет 70 % загрузки линии из-за необходимости сохранения резервов на случай обрывов на других кабелях. При этом, например, загрузка цифровых магистралей от Москвы до Улан-Удэ уже составляет 60-70 %.

Как считает J’son & Partners, в 2020–2030 гг. в России необходимо заменить более 400 тыс. км оптоволокна, эксплуатируемого уже более 20 лет. На конец 2020 года протяжённость ВОЛС крупнейших операторов составляла порядка 700 тыс. км. А ведь есть ещё крупные ведомственные сети. Пик прокладки магистрального оптоволокна пришёлся на начало 2000-х гг., при этом стандартный срок службы ВОЛС составляет 20–25 лет.

Так, «Ростелеком» запустил линию Москва–Хабаровск в 1999 году, «Транстелеком» — ВОЛС запад–восток на 45 тыс. км в 2001 гоу, в 2007–2009 гг. начали прокладывать ВОЛС в регионах федеральные операторы МТС, «Мегафон» и «Билайн», пишет издание. По оценкам экспертов, замена может обойтись в сотни миллиардов рублей. А пересечение сложных препятствий, например, крупных рек очень дорого.

 Источник изображения: Umberto/unsplash.com

Источник изображения: Umberto/unsplash.com

В РФ оптоволокно выпускает только компания «Оптиковолоконные системы» (ОВС), а кабель производят «Инкаб», «Еврокабель», «Москабель», «Сарансккабель-оптика» и др., всего более десятка компаний. При этом российское оптоволокно теснит китайская продукция, заместившая предложения американской Corning. Доля ОВС на рынке России уменьшилась с 30 % в 2021 году до 25 % в 2024-м, а китайские поставщики нарастили долю с 6 % до 75 %. Некоторые эксперты винят в этом демпинг с китайской стороны и поддержку со стороны правительства КНР. При этом, с 2022 года потребление оптоволокна в России постоянно сокращается.

По информации «Ведомостей», диагностику и мониторинг своих магистральных сетей с точечной заменой регулярно проводят «Мегафон» и «Билайн». В «Билайне» утверждают, что занимаются и модернизацией инфраструктуры. МТС компенсирует нехватку пропускной способности ВОЛС «переходом на более высокие канальные скорости, использует дополнительные волокна на существующих трассах и новых маршрутах». Компания разделяет маршруты пропуска зарубежного трафика через восток и запад и строит региональные ЦОД.

В июне сообщалось, что российские IT-компании заинтересовались арендой тёмного оптоволокна. Месяцем позже появилась новость, что «Россети» намерены построить единую оптическую линию связи за 80 млрд рублей. Также нельзя не отметить интерес к теме компании «Атлас», тесно связанной с «Ростелекомом» — она отвечает за строительство трансъевразийской ВОЛС TEA NEXT, которая призвана соединить западные и восточные рубежи России с посадочными станциями в крупнейших городах страны и выходами на границах с Монголией, Китаем и др.

Постоянный URL: http://servernews.ru/1132896
25.11.2025 [11:24], Сергей Карасёв

Стартап Kneron представил чип KL1140 для работы с ИИ-моделями на периферии

Американский стартап Kneron, по сообщению ресурса SiliconANGLE, разработал ИИ-чип KL1140, предназначенный для запуска больших языковых моделей (LLM) на периферийных устройствах. Утверждается, что изделие обеспечивает ряд существенных преимуществ перед облачными развёртываниями.

Kneron, основанная в 2015 году, базируется в Сан-Диего (Калифорния, США). Стартап проектирует чипы для всевозможного оборудования с ИИ-функциями: это могут быть роботы, подключённые автомобили и пр. Ранее Kneron представила решение KL730, которое объединяет четырёхъядерный CPU на архитектуре Arm и акселератор для задач инференса. В 2023 году компания привлекла на развитие $49 млн от Foxconn and HH-CTBC Partnership (Foxconn Co-GP Fund), Alltek, Horizons Ventures, Liteon Technology Corp, Adata и Palpilot. В общей сложности на сегодняшний день Kneron получила более $200 млн от различных инвесторов.

 Источник изображения: Kneron

Источник изображения: Kneron

Характеристики нового чипа KL1140 полностью пока не раскрываются. Kneron заявляет, что это первый нейронный процессор, способный полноценно работать с сетями-трансформерами на периферии. Связка из четырёх чипов KL1140, как утверждается, обеспечивает производительность на уровне GPU при работе с ИИ-моделями, насчитывающими до 120 млрд параметров. При этом энергопотребление сокращается на 50–66 %. Суммарные затраты на оборудование могут быть снижены в 10 раз по сравнению с существующими облачными решениями. Среди других преимуществ запуска LLM на периферийных устройствах названы уменьшение задержки, отсутствие необходимости отправки конфиденциальных данных на внешние серверы и возможность использования даже без подключения к интернету.

Чип KL1140 ориентирован на такие задачи, как обработка естественного языка в реальном времени, голосовые интерфейсы, системы машинного зрения, интеллектуальные платформы видеонаблюдения и др. Разработчики могут применять изделие для безопасного локального развёртывания приложений ИИ без необходимости использования облачных ресурсов.

Постоянный URL: http://servernews.ru/1132890
24.11.2025 [22:25], Владимир Мироненко

Внедрение облачных технологий увеличивает прибыль компаний, показало исследование Yandex B2B Tech и «Яков и Партнёры»

Согласно совместному исследованию консалтинговой компании «Яков и Партнёры» и Yandex B2B Tech «Облачные технологии: тренды и перспективы развития», российские компании продолжают наращивать масштабы использования облачных сервисов, получая от внедрения облачных решений заметный финансовый эффект. В основу исследования легли результаты опроса руководителей 200 крупных российских компаний из 17 отраслей.

По оценкам экспертов, большей частью высоким уровнем внедрения ИИ могут похвастать компании с высоким уровнем использования облаков — таких 30 %. При низком уровне использования облаков уровень внедрения ИИ составляет не более 2 %.

Около половины компаний оценивают эффект от внедрения облачных решений как превышающий 3 % их EBITDA, что значительно больше затрат на облако. В цифровых отраслях финансовый эффект ещё выше: более 5 % EBITDA у компаний в сфере ИТ и технологий электронной коммерции, а также телекоме и медиа. У 73 % респондентов эффект превысил затраты, у 2 % — он оказался выше 25 %, но 23 % опрошенных всё ещё не могут его оценить.

 Источник изображений: Yandex B2B Tech / «Яков и Партнёры»

Источник изображений: Yandex B2B Tech / «Яков и Партнёры»

При этом главный результат внедрения компании видят не в прямой экономии, а в улучшение масштабируемости, повышении доступности данных и надёжности инфраструктуры. В этих условиях около половины компаний тратят на облачные решения более 5 % от годового ИТ-бюджета, а свыше 30 % планируют увеличить расходы в будущем.

Большинство участников опроса (94 %) планируют и дальше использовать облачные технологии, причем 44 % намерены масштабировать существующие решения, 28 % — применять технологии в новых сценариях, 26 % — использовать облачные технологии в тех же объёмах.

Половина компаний планирует увеличить количество провайдеров облачных услуг. При этом ключевым критерием при выборе компании называют качество платформы и сопутствующих сервисов, превышающим по значимости цену и модель ценообразования. Согласно опросу, компании быстро переходят к гибридной модели: более 70 % используют одновременно публичное облако и on-premise инфраструктуру. Проникновение решений PaaS и SaaS составляет 65–66 %, при этом свыше половины компаний (52 %) комбинируют IaaS-, PaaS- и SaaS.

Компании активно используют PaaS для ускорения разработки, анализа данных и внедрения AI-технологий, в большинстве случаев — несколько типов. Наиболее востребованы решения для хранения и обработки данных (78 % респондентов), инструменты для разработчиков (76 %), сервисы в области ML и ИИ (65 %), оркестрация, управление контейнерными кластерами (40 %) и инструменты аналитики и визуализации данных (27 %).

Отмечено, что аналитические платформы ускоряют подготовку отчётов более чем в два раза, автоматизация консультаций снижает нагрузку на клиентскую поддержку на 20 %, а генеративные сервисы для создания карточек товаров увеличивают скорость публикации в десятки раз.

В исследовании отмечено, что глобальный рынок публичных облаков увеличился с 2020 по 2024 гг. почти втрое, до почти $600 млрд, и, согласно прогнозу, достигнет $1,26 трлн в 2028 году. По словам «Яков и Партнёры», на публичные облака приходится больше 60 % мирового рынка ПО, и при позитивном сценарии к 2030 году доля может составить порядка 80 %. При этом в России этот рынок всё ещё является недостаточно зрелым, занимая около 35 % рынка ПО. Вместе с тем прогнозируемые темпы его роста будут превышать мировые, и в течение следующих пяти лет рынок вырастет приблизительно в три раза, практически сравнявшись с on-premise.

Согласно прогнозу экспертов, в 2030 году российский рынок облаков по основным типам решений достигнет рекордных 1,24 трлн руб. Основными драйверами его роста являются цифровизация отраслей и спрос на гибкие решения. Рынок включает в себя все облачные решения ПО, а также потребление частных облаков и внутригрупповое потребление решений облачных провайдеров. На внешнее потребление приходится около 70 %.

Постоянный URL: http://servernews.ru/1132876
24.11.2025 [18:08], Андрей Крупин

Российская служба каталогов ALD Pro дополнилась ИИ-помощником для системных администраторов

«Группа Астра» представила новую разработку — ИИ-ассистент для службы каталогов ALD Pro.

Программный комплекс ALD Pro предназначен для автоматизации и централизованного управления рабочими станциями, иерархией подразделений и групповыми политиками, а также прикладными сервисами для IT-инфраструктур организаций различного масштаба. Продукт может использоваться в качестве замены Microsoft Active Directory и учитывает интересы администраторов и пользователей компаний, переходящих на отечественный софт. ALD Pro включён в дорожную карту «Новое общесистемное программное обеспечение»; решению присвоен статус «особо важного продукта» в рамках программы Минцифры России. Система соответствует требованиям ФСТЭК по 2-му уровню доверия и может использоваться в организациях, предъявляющих высокие требования к безопасности корпоративного ПО.

 Архитектура платформы ALD Pro (источник изображений: astra.ru)

Архитектура платформы ALD Pro (источник изображений: astra.ru)

Встроенный в ALD Pro интеллектуальный ассистент избавляет системных администраторов от необходимости вручную искать информацию: теперь точный ответ на любой вопрос по работе со службой каталогов можно получить буквально за несколько секунд. Для формулировки запроса не требуется знание специальных команд или терминов. ИИ-помощник обеспечивает мгновенный доступ к знаниям, минимизируя простои в работе, и автоматизирует рутинный поиск, высвобождая время сотрудников для более важных задач. Кроме того, ассистент значительно ускоряет адаптацию новых сотрудников, предоставляя им встроенную экспертную поддержку и сокращая время на обучение.

«На кейсе ALD Pro мы доказали, что локально размещённые большие языковые модели, настроенные под конкретные задачи, демонстрируют свыше 70 % качественных ответов и значительно снижают нагрузку на техническую поддержку. ИИ-помощник — незаменимый инструмент для компаний на этапе импортозамещения, позволяющий им быстро адаптироваться к изменениям. Внедрение таких решений позволяет ускорить онбординг сотрудников и повысить общую продуктивность команд на 30–40 %», — отмечает «Группа Астра».

Постоянный URL: http://servernews.ru/1132867

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus