Материалы по тегу: ии

09.04.2026 [18:57], Руслан Авдеев

У Cloud.ru уже 29 тыс. серверов и 56 МВт мощностей в девяти ЦОД

Провайдер облачных сервисов и ИИ-решений Cloud.ru отчитался об итогах 2025 года. Выручка компании за 2025 год увеличилась на 50 % год к году, составив 76,5 млрд руб. Показатель EBITDA вырос на 71 % — до 58,0 млрд руб., а чистая прибыль — на 86 % до 14,7 млрд. Для сравнения, в 2024 году чистая прибыль была на уровне 7,9 млрд. По оценкам iKS-Consulting, Cloud.ru является лидером российского рынка облаков.

Особую роль сыграли инфраструктура и сервисы, необходимые для проектов с ИИ. Впервые их доля в общей выручке перевалила за половину и составила 54 % (41,0 млрд руб.). В 2024 году аналогичный показатель составил 47 % — 23,7 млрд руб. Основными потребителями ИИ-сервисов и соответствующей инфраструктуры стали IT-бизнесы (29 %), ретейл (12 %), финансы (10 %) и девелопмент (8 %).

По результатам 2025 года выручка от «базовых» облачных сервисов выросла на 31 %, до 35,5 млрд руб. (против 27,2 млрд руб. в 2024 году). Показатель значительно выше, чем средние темпы роста российского облачного рынка. По словам компании, спрос на ИИ-сервисы стал дополнительным драйвером роста облачного рынка, но выросло и использование базовых облачных сервисов. Утверждается, что компания успешно реализовала накопленную экспертизу в управлении инфраструктурой и созданию новых сервисов, предложив клиентам «востребованные продукты по доступной цене».

 Источник изображения: Razvan Chisu/unspalsh.com

Источник изображения: Razvan Chisu/unspalsh.com

Сообщается, что в феврале Cloud.ru получила кредитный рейтинг ruAA+ от рейтингового агентства АКРА со стабильным прогнозом. В числе прочего отмечаются сильные операционные показатели, низкая долговая нагрузка и высокий уровень рентабельности. Ключевой фактор роста по оценке АКРА — развитие ИИ-направления. Инфраструктура компании включает стойки общей мощностью 56 МВт, размещённых в девяти ЦОД. Всего на компанию приходится 43 тыс. единиц IT-оборудования, в том числе 29 тыс. серверов.

Постоянный URL: http://servernews.ru/1139724
09.04.2026 [18:05], Владимир Мироненко

OpenAI приостановила проект Stargate в Великобритании из-за дорогой электроэнергию и неподходящих законов

OpenAI приостановила проект Stargate в Великобритании, анонсированный в сентябре в партнёрстве с неооблаком Nscale и NVIDIA, поскольку нормативно-правовая среда страны и высокая стоимость электроэнергии не способствуют его реализации. Компания не отказывается от проекта Stargate UK целом, но ждёт, когда появятся «подходящие условия, которые позволят осуществить долгосрочные инвестиции в инфраструктуру», — заявил представитель OpenAI ресурсу CNBC.

CNBC отметил, что цены на промышленную энергию в Великобритании — одни из самых высоких в мире, что наряду со сложностями с получением разрешения на подключение к национальной электросети является ключевым препятствием для развития ИИ-инфраструктуры в стране. К тому же местные законодатели стремятся разработать новые правила по поводу использования защищённого авторским правом контента в ИИ-моделях. Впрочем, по словам источника, непосредственно знакомого с ситуацией, OpenAI и Nscale всё ещё ведут переговоры о будущем проекте.

В июле 2025 года OpenAI подписала меморандум о взаимопонимании (MOU) с правительством Великобритании, планируя разместить вычислительные мощности в нескольких локациях. Первый ЦОД компания хотела развернуть на территории бизнес-парка Cobalt Park в английском Ньюкасле (Newcastle), который относится к Зоне развития ИИ (AI Growth Zone). OpenAI намеревалась развернуть 8 тыс. ИИ-ускорителей в начале 2026 года, а затем увеличить их количество до 31 тыс. Этих мощностей было бы достаточно для использования ИИ-моделей OpenAI в работе критически важных государственных сервисов, в регулируемых отраслях, например, финансовой, и партнёрства в сфере национальной безопасности.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

В марте сообщалось, что Великобритания собиралась отложить изменения в своих правилах авторского права, которые упростили бы использование медиаконтента ИИ-компаниями, из-за возражений создателей контента. В опубликованном правительством докладе об авторском праве и ИИ было отмечено, что большинство респондентов, участвовавших в публичных консультациях, «отклонили первоначальное предпочтительное предложение: широкое исключение с возможностью отказа». «Многие отклики поступили от представителей креативных индустрий, которые опасались, что такой подход позволит генеративному ИИ учиться на их работах без компенсации и конкурировать с ними», — говорится в докладе.

Несмотря на приостановку проекта, представитель OpenAI заявил об огромном потенциале для будущего ИИ в Великобритании. «В Лондоне находится наш крупнейший международный исследовательский центр, и мы поддерживаем стремление правительства стать лидером в области ИИ», — сообщил он, добавив, что компания продолжает расширять своё присутствие в стране, а также выполнять обязательства в рамках меморандума о взаимопонимании с правительством. Примечательно, что ранее OpenAI наняла бывшего канцлера британского Казначейства для глобального расширения проекта Stargate.

Постоянный URL: http://servernews.ru/1139728
09.04.2026 [15:25], Руслан Авдеев

Synergy Research: более половины всех мощностей ЦОД в мире приходится на гиперскейлеров, а к 2031 году они займут ⅔ рынка

Согласно прогнозам Synergy Research Group, на долю операторов ЦОД из числа гиперскейлеров уже сегодня приходится около половины всех мощностей дата-центров в мире, а к 2031 году баланс окончательно изменится в пользу техногигантов.

Согласно результатам исследования Synergy Research, на долю крупных облачных провайдеров сейчас приходится 48 % мировых мощностей ЦОД, из них 60 % — собственные дата-центры, самостоятельно построенные или находящиеся в собственности гиперскейлеров. На колокейшн-ЦОД, не связанные с гиперскейлерами, приходится всего 20 % мощности, а ещё 32 % — на корпоративные объекты, расположенные на собственных территориях бизнесов различного профиля. При этом ещё в 2018 году на собственные дата-центры компаний приходилось 56 % мировой мощности ЦОД, но ситуация продолжает меняться в пользу гиперскейлеров.

Мощность в целом будет расти, чему, как ожидается, будет способствовать трёхкратное увеличение мощностей гиперскейлеров. Synergy прогнозирует, что к 2031 году на долю гиперскейлеров будет приходиться уже 67 % всех мощностей ЦОД в мире, при этом доля корпоративных площадок сократится до 19 %. Хотя доля колокейшн-объектов будет уменьшаться, их совокупная мощность, наоборот, будет расти ежегодно двухзначными темпами в процентах. Благодаря развитию рынка ИИ и размещению ИИ-ускорителей ёмкость корпоративных ЦОД тоже начнёт расти после периода стагнации, хотя их доля будет падать в среднем на пару процентов ежегодно.

 Источник изображения: Synergy Research Group

Источник изображения: Synergy Research Group

По словам Synergy Research, облачные сервисы и цифровые потребительские сервисы многие годы меняли модель использования дата-центров, а в последние три года ключевым драйвером, ускорившим изменения, стал искусственный интеллект. Хотя имеются региональные различия в использовании ЦОД, общемировой тренд — увеличение доли мощностей, контролируемых крупным игроками, включая AWS, Microsoft, Google и др. В ближайшие три года их мощности должны удвоиться, всего техногиганты планируют построить в указанный период почти 800 новых дата-центров. Кроме того, гиперскейлеры усиливают контроль и над интернет-каналами.

Как заявляется в докладе JLL, к 2030 году на ЦОД будет потрачено в мире $3 трлн — это крупнейший инвестиционный «суперцикл» в истории, 2025–2030 гг. появятся ЦОД общей мощностью около 97 ГВт. Впрочем, согласно анализу DC Byte, существуют немалые риски для этого рынка. Аналитики назвали отмечают, что всё больше проектов не доходят до стадии строительства, правительства всё больше влияют на реализацию проектов, а капитал всё активнее расходуется на ранних стадиях реализации — это повышает риски для инвесторов.

Постоянный URL: http://servernews.ru/1139702
09.04.2026 [14:00], Владимир Мироненко

SambaNova и Intel готовят гетерогенное решение для агентного ИИ — конкурента продуктам NVIDIA

SambaNova в рамках следующего этапа сотрудничества с Intel анонсировала гетерогенное аппаратное решение, которое объединяет GPU, процессоры Intel Xeon 6 и RDU SambaNova для инференса для «самых требовательных» приложений агентного ИИ. Новинка вместе с полным ИИ-стеком станет доступна во II половине 2026 года. Компании также планируют развернуть облачную ИИ-платформу.

В данном решении GPU отвечают за высокопараллельную фазу предварительного заполнения, эффективно преобразуя длинные запросы в KV-кеши, а RDU SambaNova обеспечивают высокопроизводительное декодирование с низкой задержкой. Xeon функционируют как хост-процессор для управления системой, координации задач агентного ИИ, распределения рабочей нагрузки, обработку API и т.д. Xeon также отвечает за компиляцию и запуск кода, он же проверяет результаты.

 Источник изображений: Sambanova

Источник изображений: Sambanova

По результатам измерений SambaNova, Xeon 6 обеспечивает более чем на 50 % более быстрое время компиляции LLVM по сравнению с серверными процессорами на базе Arm и до 70 % более высокую производительность векторных баз данных по сравнению с доступными решениями на базе x86. Это ускоряет создание агентов, позволяя разработчикам быстрее переходить от идеи к реализации, говорят компании.

Как отметил ресурс Data Center Dynamics, это объявление было сделано спустя месяц после того, как SambaNova представила чип SN50 для рабочих нагрузок агентного ИИ, который, по утверждению компании, в пять раз быстрее конкурентов и втрое выгоднее с точки зрения TCO. Тогда же SambaNova также объявила о «многолетнем стратегическом сотрудничестве» с Intel для предоставления «высокопроизводительных и экономически эффективных решений для ИИ-инференса для компаний, занимающихся разработкой ИИ, поставщиков моделей, предприятий и государственных организаций по всему миру».

Ранее Intel анонсировала похожую гибридную систему на базе собственных ускорителей Habana Gaudi3 и NVIDIA B200. Такого же подхода с распределением этапов инференса по разным чипам придерживается и NVIDIA в кластерах Vera Rubin, дополненных LPU Groq (вместо Rubin CPX). Основное различие между подходом Intel с SambaNova и подходом NVIDIA в том, что первый ориентируется на «более безопасный» вариант, поскольку не требует сложной базовой инфраструктуры для дезагрегированного инференса. Для заказчиков, ищущих более модульное решение стоечного масштаба, ориентированное на разделение «предварительное заполнение + декодирование», вариант Intel + SambaNova может быть более привлекательным.

Постоянный URL: http://servernews.ru/1139707
09.04.2026 [11:38], Сергей Карасёв

Цены на 30-Тбайт SSD для ЦОД за год взлетели в шесть раз — теперь они в 22,6 раз дороже HDD

Компания VDURA, специализирующаяся на программно-определяемых СХД для задач ИИ и HPC, обнародовала свежие данные Flash Volatility Index, говорящие о том, что цены на SSD корпоративного класса продолжают стремительно расти. Связано это с высоким спросом на накопители со стороны гиперскейлеров и операторов облачных платформ.

По оценкам, стоимость SSD вместимостью 30 Тбайт на базе чипов TLC NAND подскочила на 472 % в период со II квартала 2025 года по первую четверть 2026-го — с $3062 до $17 500. Иными словами, зафиксирован 5,7-кратный рост. Вместе с тем цена на SSD с чипами QLC NAND за тот же период увеличилась с $2450 до $15 121, то есть, в 6,2 раза.

Подчеркивается, что только за три недели марта — с 4 по 23 число — стоимость SSD корпоративного класса увеличившись почти на четверть. В результате, разница в цене между SSD типа QLC на 30 Тбайт и HDD аналогичной ёмкости взлетела с 4,9 раза во II квартале 2025 года до 22,6 раза в I четверти 2026-го.

 Источник изображения: VDURA

Источник изображения: VDURA

Наблюдающаяся ситуация приводит к фундаментальным изменениям экономики систем хранения типа All-Flash. В частности, VDURA с применением собственного инструмента Storage Economics Optimizer Tool проанализировала стоимость владения платформой хранения суммарным объёмом 25 Пбайт, способной обеспечивать устойчивую производительность на уровне 1000 Гбайт/с.

По ценам II квартала 2025 года такая система, выполненная исключительно на базе SSD, потребовала бы вложений в размере $9,69 млн на протяжении трёхлетнего периода. Ко II четверти 2026-го соответствующие прогнозируемые затраты выросли до $48,17 млн, то есть, примерно в пять раз. Вместе с тем развёртывание и поддержание гибридной архитектуры SSD+HDD той же вместимости с сопоставимой производительностью обойдётся в $11,37 млн. Для смягчения проблемы резкого роста стоимости SSD компания VDURA предлагает программу Flash Relief Program.

Постоянный URL: http://servernews.ru/1139683
09.04.2026 [11:24], Сергей Карасёв

Uber перенесёт рабочие нагрузки на чипы AWS Graviton и Trainium нового поколения

Компания Uber сообщила о расширении использования облачной платформы Amazon Web Services (AWS). Оператор сервисов для вызова такси и частных водителей, а также доставки еды и грузов перенесёт определённые нагрузки на чипы AWS Graviton и Trainium нового поколения. Компания уже использует Arm-процессоры Ampere в облаке Oracle.

В частности, Uber будет использовать изделия Graviton4, насчитывающие до 96 ядер, для поддержания работы своих зон обслуживания поездок (Trip Serving Zones). Соответствующая инфраструктура функционирует в режиме реального времени: каждый раз, когда пользователь заказывает поездку или доставку, система рассчитывает оптимальный маршрут, выбирает подходящего водителя и определяет время. В часы пик и при проведении крупных мероприятий создаётся огромная вычислительная нагрузка: требуются анализ миллионов возможных сценариев поездок и обработка данных о местоположении пользователей и водителей. Ожидается, что применение Graviton4 позволит сократить задержки и оптимизировать затраты, а также обеспечит необходимую масштабируемость в периоды всплеска запросов без ущерба для надёжности, доступности или безопасности.

 Источник изображения: AWS

Источник изображения: AWS

Кроме того, Uber начнёт применять ускорители Trainium3 для обучения некоторых своих ИИ-моделей, которые лежат в основе приложений вызова такси и доставки. Эти изделия оснащены 144 Гбайт памяти HBM3E, а производительность на операциях FP8 достигает 2,52 Пфлопс. ИИ-модели Uber, как отмечается, анализируют данные миллиардов поездок для выбора водителя или курьера, оценки времени прибытия и генерации рекомендаций для пользователей. Обучение ИИ в таком масштабе требует колоссальных вычислительных возможностей: решения Trainium3, как подчёркивается, способны предоставить необходимые ресурсы.

«Uber — одно из самых требовательных приложений в мире, работающих в режиме реального времени. Мы помогаем Uber обеспечивать надёжность, на которую рассчитывают сотни миллионов людей, а также внедрять ИИ-функции, определяющие будущее сервисов совместных поездок и доставки по запросу», — говорит Рич Гераффо (Rich Geraffo), вице-президент и управляющий директор AWS в Северной Америке.

Постоянный URL: http://servernews.ru/1139689
08.04.2026 [23:43], Владимир Мироненко

Supermicro начала внутреннее расследование обстоятельств контрабанды подсанкционного ИИ-оборудования в Китай

Supermicro заявила о проведении независимого расследование в связи с предъявлением в марте обвинений в контрабанде её оборудования в Китай трём лицам, связанным с компанией — соучредителю Supermicro И-Шьян Лиау (Yih-Shyan Liaw) и внешнему подрядчику Тин-Вэй Суню (Ting-Wei Sun), которые не признали вину, и генеральному директору тайваньского офиса Supermicro Руэй-Цанг Чанг (Ruei-Tsang Chang), которого правоохранительные органы не могут найти.

19 марта 2026 года Supermicro была проинформирована об обвинениях в связи с предполагаемым сговором с целью нарушения правил экспортного контроля США. Компания отметила, что незамедлительно приняла меры, и эти лица больше не имеют с ней никаких связей, добавив, что сама она не фигурирует в обвинительном заключении и не обвиняется в каких-либо правонарушениях. Сроки проведения расследования пока не установлены. Компания предоставит обновлённую информацию после завершения расследования и не намерена давать дальнейшие комментарии до этого времени.

Расследованием занимаются два независимых члена совета директоров компании: Скотт Энджел (Scott Angel), ведущий независимый директор, и Талли Лю (Tally Liu), председатель аудиторского комитета. По данным Supermicro, Скотт Энджел почти четыре десятилетия проработал в Deloitte, а Талли Лю имеет 25-летний стаж работы в качестве сертифицированного бухгалтера и ранее занимал руководящие должности в сфере внутреннего аудита. Для помощи привлекли юридическую фирму Munger, Tolles & Olson LLP (MTO) и консалтинговую компанию AlixPartners, которые будут работать в тесной координации с аудитором Supermicro, компанией BDO USA.

 Источник изображения: Michael Pohl / Unsplash

Источник изображения: Michael Pohl / Unsplash

Параллельно Supermicro начала внутреннюю проверку выполнения своей «Глобальной программы соблюдения торговых правил». Внутреннюю проверку возглавляет Итай Ху (Yitai Hu), главный юрисконсульт и старший вице-президент. ДеАнна Луна (DeAnna Luna), недавно назначенная исполняющей обязанности главного специалиста по соблюдению нормативных требований, теперь подчиняется главному юрисконсульту. Сообщается, что результаты проверки будут доведены до совета директоров.

«Supermicro стремится защищать передовые американские технологии и интеллектуальную собственность, — заявил Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. — Наша внутренняя проверка и расследование независимых директоров проводятся в соответствии с нашим обязательством обеспечивать обращение с нашими технологиями на самом высоком уровне этического и правового контроля».

Между тем, как сообщает The Register, группа американских законодателей хочет ввести дополнительные ограничения на экспорт оборудования для производства чипов, чтобы ограничить возможности Китая в сфере ИИ. Предлагаемый Закон о многостороннем согласовании контроля за технологиями в сфере аппаратного обеспечения (The Multilateral Alignment of Technology Controls on Hardware Act, MATCH) направлен на «укрепление национальной безопасности США путём устранения критических пробелов в экспортном контроле за оборудованием для производства полупроводников», к которому отнесены, например, DUV-литографы и установки криогенного травления.

Постоянный URL: http://servernews.ru/1139672
08.04.2026 [22:38], Владимир Мироненко

Alibaba и China Telecom запустили ИИ-кластер на базе 10 тыс. ИИ-ускорителей Zhenwu

Alibaba объявила о развёртывании в сотрудничестве с мобильным оператором China Telecom вычислительного ИИ-кластера из 10 тыс. ИИ-ускорителей Zhenwu, разработанных подразделением Alibaba T-Head. По словам Alibaba Cloud, передовые вычислительные мощности Китая «переходят от высокопроизводительных прорывов к крупномасштабному промышленному внедрению».

ИИ-кластер размещён в дата-центре оператора China Telecom в Шаогуане (Shaoguan, провинция Гуандун). Как отметило облачное подразделение Alibaba, этот «полностью отечественный» кластер стал первым проектом такого масштаба на базе чипов Zhenwu в районе Большого залива (Greater Bay Area, GBA) — одном из ключевых стратегических регионов в планах национального развития Китая.

По данным Alibaba Cloud, новый кластер обеспечивает сверхнизкую задержку в 4 мс и позволяет 10 тыс. чипам работать как единая система, способная обучать ИИ-модели с сотнями миллиардов параметров. China Telecom и Alibaba заявили, что вычислительный ИИ-кластер может использоваться в различных отраслях, от здравоохранения до разработки передовых материалов. Также сообщается, что в дальнейшем он будет расширен до 100 тыс. чипов.

 Источник изображения: www.alibabagroup.com

Источник изображения: www.alibabagroup.com

Запуск ИИ-кластера на базе чипов Zhenwu является ещё одним свидетельством того, что Китай удваивает усилия по развитию собственной инфраструктуры для ускорения быстро развивающихся ИИ-технологий и удовлетворения растущего спроса на фоне обострения конкуренции в области ИИ с американскими соперниками, включая Meta, Microsoft и xAI, пишет South China Morning Post.

Объявление Alibaba о создании ИИ-кластера последовало за запуском в конце прошлого месяца первого в стране интеллектуального вычислительного кластера на базе 10 тыс. чипов Huawei Ascend 910C общей ИИ-производительностью 11 Эфлопс в Шэньчжэне (Shenzhen, провинция Гуандун). В прошлом году компания запустила ИИ-кластер с производительностью 3 Эфлопс. По данным Shenzhen Special Zone Daily, почти 50 организаций подписали рамочные соглашения на использование вычислительных мощностей нового кластера, в результате чего общий уровень бронирования по обоим кластерам достиг 92 %.

Постоянный URL: http://servernews.ru/1139671
08.04.2026 [17:29], Владимир Мироненко

Интерконнект UALink дорос до версии 2.0, хотя до сих пор не воплотился в «железе» — до NVLink ещё далеко

Консорциум UALink, созданный в 2024 году для разработки открытого интерконнекта для масштабируемого ИИ следующего поколения, который может стать альтернативой NVLink и NVSwitch от NVIDIA, объявил о ратификации следующей версии спецификации UALink 2.0, которая включает три основных дополнения — внутрисетевые вычисления (In-Network Compute), определение чиплетов (Chiplet Definition) и управляемость (Manageability).

Как указано в пресс-релизе, «новые спецификации поддерживают развёртывание решений UALink в средах с несколькими рабочими нагрузками, одновременно способствуя повышению эффективности технологии UALink, производительности для рабочих нагрузок ИИ и упрощению внедрения». Базовая скорость обмена данными (200G на линию) не изменилась. Более того, до сих пор нет и оборудования стандарта UALink 1.0, представленного год назад.

«Усовершенствования технологии UALink, представленные в этом релизе, позволят отрасли быстро и эффективно интегрировать решения UALink в свои архитектуры. Консорциум UALink по-прежнему привержен развитию инфраструктуры ИИ посредством открытых отраслевых стандартов, которые облегчают вывод на рынок приложений ИИ следующего поколения», — заявил Куртис Боуман (Kurtis Bowman), председатель совета директоров консорциума UALink.

 Источник изображения: UALink

Источник изображения: UALink

Консорциумом были представлены:

  • Общая спецификация UALink 2.0 (UALink Common Specification 2)
    • Снижает задержку, экономит полосу пропускания и повышает эффективность масштабирования для распределённого обучения и инференса для решений ИИ в сложных и многозадачных средах для систем UALink.
    • Добавляет поддержку внутрисетевых вычислений — метода, уменьшающего количество сообщений, которые необходимо отправлять между ускорителями для планирования работы. Меньший объём полосы пропускания, затрачиваемой на сообщения, означает больше полосы для данных, и более быструю работу для рабочих нагрузок ИИ.
  • Спецификация UALink 200G физического уровня и уровня передачи данных (DL/PL) 2.0 (UALink 200G Data Link and Physical Layers (DL/PL) Specification 2.0) — разделяет общую спецификацию UALink, создавая одно направление работы для протокола и транспортного уровня, и другое для технологий I/O. Как пояснил Боуман изданию The Register, это означает, что группа может разрабатывать решения для современных сетей 200G, сетей 400G, которые скоро станут доступны, а также всех будущих решений на физическом уровне. Разделение общей спецификации UALink позволяет UALink быстро развиваться по мере необходимости на новых физических уровнях и скоростях, не требуя изменений в других спецификациях.
  • Спецификация UALink Manageability Specification 1.0 стандартизирует управляемость систем и добавляет поддержку gRPC Network Management Interface, YANG, SAI и Redfish.
  • Спецификация UALink Chiplet Specification 1.0 описывает необходимую информацию для интеграции технологии UALink в SoC на основе чиплетов, включая интерфейсы, форм-факторы, управление потоком данных и управление чиплетами. Полностью соответствует спецификации UCIe 3.0 для упрощённой интеграции в существующие экосистемы чиплетов.

Боуман сообщил The Register, что чипы для спецификации 1.0 поступят в лаборатории во II половине 2026 года и появятся в продаже в 2027 году. К тому времени UALink выпустит спецификации версии 3.0 — задолго до дебюта чипов версии 2.0. Боуман признал, что версии 1.0 и 2.0 не будут полноценными конкурентами интерконнекту NVIDIA, но к версии 3.0, которая появится примерно через год, UALink достигнет паритета по производительности и темпам выпуска стандартов.

Консорциум UALink стремится создать альтернативу интерконнекту NVIDIA, которая будет работать с любым ускорителем и соответствовать его уровню производительности. Консорциум считает, что развивающиеся неооблачные платформы, специализирующиеся на размещении ИИ-систем, оценят возможность создания единого интерконнекта с поддержкой любых используемых ими GPU, отметил The Register.

Между тем NVIDIA не стоит на месте. В прошлом году она представила технологию NVIDIA NVLink Fusion, которая расширяет доступ к NVLink сторонним чипам. Компания уже заключила соглашения с Arm, AWS, Fujitsu, Intel, Marvell, MediaTek и SiFive. AMD же делает ставку на UALink.

Постоянный URL: http://servernews.ru/1139616
08.04.2026 [17:04], Владимир Мироненко

ВТБ заменит ИИ-ускорители NVIDIA на китайские решения

Банк ВТБ будет использовать GPU китайских производителей вместо ИИ-ускорителей NVIDIA для работы внутрибанковских сервисов на основе ИИ, сообщил «Ведомостям» зампред правления ВТБ Вадим Кулик. По его словам, GPU будут использоваться для работы с компьютерным зрением, обработки, анализа текста и распознаванием речи, а также для моделей генеративного ИИ банка. Топ-менеджер отметил, что в ходе тестирования китайские чипы показали стабильную производительную работу с существующими IT-системами банка. «Внедрение китайских GPU проходит без существенных доработок и с высокой производительностью. Это ускорит развитие ИИ-технологий, включая цифровых помощников и ИИ-агентов», — сообщил он.

Замена ускорителей NVIDIA на китайские GPU проводится в рамках совместной работы в центре компетенций ВТБ по ИИ в Китае. Центр представляет собой площадку для прикладных совместных исследований российских и китайских специалистов и быстрого тестирования устройств с ИИ без необходимости их поставки в Россию. Здесь и проходило тестирование GPU из КНР в марте. Зампред отметил, что Китай богат на технологии, но существуют сложности с их поиском, апробацией и доставкой в Россию в промышленных масштабах. «Центр создан для того, чтобы помочь компаниям из России и Китая совместно внедрять новейшие технологии. Сейчас мы сконцентрированы на поиске партнёров, заинтересованных в применении ИИ-технологий», — рассказал он.

 Источник изображения: John Lucas / Unsplash

Источник изображения: John Lucas / Unsplash

Согласно исследованию IT-холдинга Т1, совокупный рынок российских GPU в 2025 году вырос на 21 % до около 63 млрд руб. Доля NVIDIA на мировом рынке оценивается в исследовании в 80 %. По его оценкам, с учётом дополнительных затрат на серверные платформы, сетевое оборудование, ПО и обслуживание, капитальные вложения на замещение чипов NVIDIA могут составить порядка 2–5 млрд руб. Ранее «Ведомости» сообщали, что китайские серверы тестируют «Сбер» и Т-банк, а Альфа-банк тоже рассматривает возможность их использования. Среди поставщиков ИИ-ускорителей в Китае есть Huawei, Alibaba, MetaX, Moore Threads, Cambricon, Iluvatar, Biren, Sophgo и др.

Собеседник «Ведомостей» в одном из топ-20 банков России считает, что реальных альтернатив чипам NVIDIA для банковской сферы всё же нет, ни сейчас, ни в обозримом будущем. Даже самые сильные китайские GPU пока уступают решениям американской компании не только по «железу», но и по зрелости программной среды, под которую уже разработано множество банковских решений. Переход на альтернативные GPU потребует серьезных вложений в адаптацию и переработку программных продуктов, а проведенные испытания показывают, что такие решения пока заметно проигрывают по скорости обработки запросов и обучению классических ML-моделей, отметил собеседник издания.

Постоянный URL: http://servernews.ru/1139652

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;