Лента новостей

14.11.2025 [01:55], Владимир Мироненко

NVIDIA вновь впереди всех в новом раунде MLPerf Training v5.1

Консорциум MLCommons опубликовал результаты тестирования различных аппаратных решений в бенчмарке MLPerf Training v5.1. На этот раз был установлен новый рекорд по разнообразию представленных систем. Участники этого раунда тестирования представили 65 уникальных систем, оснащённых 12 различными аппаратными ускорителями и различными программными платформами. Почти половина заявок была для многоузловых систем, что на 86 % больше, чем в раунде MLPerf Training 4.1 год назад, причём они так же отличались разнообразием сетевых архитектур.

Раунд MLPerf Training v5.1 включает в себя результаты 20 компаний, подавших заявки: AMD, ASUS, Cisco, Dell, Giga Computing, HPE, Krai, Lambda, Lenovo, MangoBoost, MiTAC, Nebius, NVIDIA, Oracle, Quanta Cloud Technology (QCT), Supermicro, Supermicro + MangoBoost, Университет Флориды, Verda (DataCrunch), Wiwynn.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Также сообщается, что структура заявок свидетельствует о растущем внимании к тестам, ориентированным на задачи генеративного ИИ: количество заявок на тест Llama 2 70B LoRa увеличилось на 24 %, а на новый тест Llama 3.1 8B — на 15 % по сравнению с тестом, который он заменил (BERT).

NVIDIA объявила, что её чипы на архитектуре NVIDIA Blackwell заняли первые позиции во всех семи тестах MLPerf Training v5.1, обеспечив максимально быстрое обучение в работе с большими языковыми моделями (LLM), генерацией изображений, рекомендательными системами, компьютерным зрением и графическими нейронными сетями.

NVIDIA подчеркнула, что была единственной платформой, которая предоставила результаты по всем тестам — это, по словам компании, «подчёркивает широкие возможности программирования ускорителей NVIDIA, а также зрелость и универсальность программного стека CUDA».

Компания сообщила, что в этом раунде MLPerf Training дебютировала стоечная система GB300 NVL72, работающая на базе ускорителя NVIDIA Blackwell Ultra, показав рекордные результаты и доказав, что является наилучшим выбором для интенсивных рабочих ИИ-нагрузок. При предварительном обучении Llama 3.1 40B ускорители GB300 обеспечивают более чем вчетверо большую производительность по сравнению с H100 и почти вдвое — по сравнению с GB200. Аналогичным образом, при точной настройке Llama 2 70B восемь ускорителей GB300 обеспечили в пять раз большую производительность по сравнению с H100.

NVIDIA отметила, что этого удалось достичь благодаря архитектурным усовершенствованиям Blackwell Ultra, включая новые тензорные ядра, которые обеспечивают ИИ-производительность в формате NVFP4 в размере 15 Пфлопс, вдвое большую производительность в работе механизма внимания (attention-layer compute) и 279 Гбайт HBM3e, а также новые методы обучения, которые позволили повысить вычислительную производительность архитектуры NVFP4. В MLPerf также дебютировала 800G-платформа Quantum-X800 InfiniBand, объединяющая несколько систем GB300 NVL72, которая удвоила пропускную способность сети по сравнению с предыдущим поколением.

Но по словам компании, «ключом к выдающимся результатам в этом раунде было выполнение вычислений с использованием NVFP4 — впервые в истории MLPerf Training». NVIDIA обеспечила поддержку FP4 для обучения LLM на каждом уровне, что позволило удвоить скорость вычислений по сравнению с FP8. Ускоритель NVIDIA Blackwell может выполнять вычисления в формате FP4 (в т.ч. NVFP4 и др.) с удвоенной скоростью по сравнению с FP8, а Blackwell Ultra — с утроенной.

На сегодняшний день NVIDIA является единственной платформой, которая представила результаты MLPerf Training с вычислениями, выполненными с использованием FP4 при соблюдении строгих требований к точности в тесте. Эти результаты были получены с использованием 5120 ускорителей Blackwell GB200, которым потребовалось всего 10 мин. на бенчмарк Llama 3.1 405B, что является новым рекордом. Это в 2,7 раза быстрее, чем лучший результат с использованием архитектуры Blackwell, показанный в предыдущем раунде бенчмарка.

NVIDIA также установила рекорды производительности в двух новых тестах: Llama 3.1 8B и FLUX.1. Llama 3.1 8B — компактная, но обладающая высокой производительностью LLM — заменила модель BERT-large, добавив в линейку базовых моделей современную LLM малого размера. NVIDIA представила результаты с использованием до 512 ускорителей Blackwell Ultra, потратив 5,2 мин. на прохождение теста. FLUX.1 — современная модель генерации изображений — заменила Stable Diffusion v2, и только платформа NVIDIA представила результаты этого теста. NVIDIA представила результаты с использованием 1152 ускорителей Blackwell, установив рекорд — 12,5 мин. обучения.

Постоянный URL: https://servernews.ru/1132359
13.11.2025 [21:25], Владимир Мироненко

Baidu анонсировала суверенные ИИ-ускорители Kunlun M100 и M300 для инференса и обучения

Компания Baidu представила на технологической конференции Baidu World 2025 в Пекине два новых ИИ-ускорителя, разработанных её подразделением Kunlunxin Technology, — Kunlun M100 и Kunlun M300, пишет ресурс TrendForce. Также было объявлено о предстоящем выходе суперузлов Tianchi256 и Tianchi512. Компания сообщила о планах выпускать новые продукты ежегодно в течение следующих пяти лет, чтобы поддержать развитие ИИ-технологий в Китае и сохранить их независимость от зарубежных поставщиков. Кроме того, компания намерена активно развивать не только «железо», но и постоянно оптимизировать ПО для него.

Baidu сообщила, что ИИ-ускоритель Kunlun M100 оптимизирован для крупномасштабных сценариев инференса с упором на «максимальную экономичность», используя преимущества архитектуры собственной разработки, что значительно повышает производительность инференса MoE-моделей. Он выйдет в начале 2026 года.

 Источник изображений: Baidu

Источник изображений: Baidu

ИИ-ускоритель Kunlun M300 предназначен не только для инференса, но и обучения сверхбольших мультимодальных моделей с триллионами параметров с упором на «максимальную производительность». Старт поставок Kunlun M300 намечен на начало 2027 года. Также сообщается, что выпуск чипов Kunlun серии N запланирован на 2029 год.

Что касается суперускорителей для обработки массивных ИИ-нагрузок, то выход Baidu Tianchi 256 и 512 запланирован на следующий год. Tianchi256, включающий до 256 чипов Kunlun P800, как ожидается, выйдет в I половине 2026 года, а Tianchi512 — во II полугодии. Сообщается, что один Baidu Tianchi512 может завершить обучение модели с триллионом параметров. В дальнейшем компания намерена выпустить узлы Tianchi сначала с 1 тыс. ускорителей, а затем и с 4 тыс. В целом, компания планирует к 2030 году увеличить максимальный размер кластера с 30 тыс. ускорителей до 1 млн.

Облачное подразделение Baidu Intelligent Cloud Group, используя чипы Kunlun и вычислительную платформу ИИ Baige, предоставляет предприятиям высокопроизводительные масштабируемые вычислительные мощности для обработки ИИ-нагрузок и шесть лет подряд занимает первое место на китайском рынке облачных ИИ-решений.

Постоянный URL: https://servernews.ru/1132344
13.11.2025 [18:17], Руслан Авдеев

Google инвестирует €5,5 млрд в дата-центры в Германии

Google намерена вложить €5,5 млрд ($6,4 млрд) в вычислительные ресурсы и расширение работы на территории Германии. Средства будут потрачены в следующие четыре года, сообщает Bloomberg. IT-гигант сделал соответствующее заявление во вторник в Берлине в ходе встречи представителей компании с местными федеральными министрами. В числе целей для инвестиций — два дата-центра в районе Франкфурта, их мощность не уточняется.

Страны Европы стремятся в приоритетном порядке развивать отрасль ЦОД, поскольку опасаются дальнейшего технологического отставания в сфере ИИ от США и Китая. Еврокомиссия уже призвала создавать «гигафабрики» — дата-центры, способные обучать и обслуживать сложнейшие ИИ-модели. На прошлой неделе NVIDIA и Deutsche Telekom объявили о намерении строительства ИИ ЦОД стоимостью €1 млрд в Мюнхене, его открытие запланировано на начало 2026 года.

 Источник изображения: Roman Kraft/unsplash.com

Источник изображения: Roman Kraft/unsplash.com

Google подчеркнула, что будущие расходы в Германии — часть «постоянной верности Европе». Годами её приходилось отвечать на вызовы, создаваемые регуляторами региона, связанными с вопросами конфиденциальности, антимонопольного законодательства и авторских прав. Кроме того, компания боролась на этом рынке с Microsoft, безуспешно пытаясь привлечь к борьбе ассоциацию облачных провайдеров. В итоге она создала собственную организацию Open Cloud Coalition (OCC), которую Microsoft, в свою очередь, незамедлительно раскритиковала.

В сентябре Google объявила о готовности потратить £5 млрд ($6,8 млрд) в Великобритании в следующие два года. Планы в отношении Германии предполагают расширение трёх офисов Google. Alphabet — материнская структура, стоящая за Google, рассчитывает, что в 2025 году капитальные затраты компании в мировом масштабе составят $93 млрд.

Постоянный URL: https://servernews.ru/1132332
13.11.2025 [17:39], Руслан Авдеев

Меж болот и прерий: Meta✴ начала строительство юбилейного 30-го дата-центра за $1 млрд

Meta анонсировала строительство очередного ИИ ЦОД. Объект возведут в городе Бивер Дам (Beaver Dam, Висконсин). Это уже 30-й дата-центр компании по всему миру. Место выбрано благодаря лёгкому доступу к надёжной инфраструктуре и квалифицированной рабочей силе, сообщает Meta.

Инвестиции в ЦОД в Бивер Дам площадью около 65 тыс. м2 превысят $1 млрд, будет поддерживаться работа более 100 штатных сотрудников. Также Meta вложит около $200 млн в энергетическую инфраструктуру для покрытия расходов, связанных с дата-центром, включая обновление энергосетей, подстанций и ЛЭП. Дополнительно Meta выделит $15 млн для принадлежащего Alliant Energy фонда Hometown Care Energy Fund, который поможет покрыть расходы на электроэнергию нуждающимся семьям. Питание дата-центра будет осуществляться за счёт 100 % «чистой» и возобновляемой энергии, сам объект получит сертификат LEED Gold Certification.

Осенью 2026 года в рамках корпоративной программы Data Center Community Action Grants начнётся приём заявок на финансирование школ и местных организаций для внедрения технологий на пользу «общественного блага». Средства выделят на проекты, использующие технологии для развития сообщества, его устойчивости и на образование в сфере STEAM (наука, технология, инженерия, искусство и математика). Также местные малые бизнесы получат доступ к бесплатным программам обучения цифровым навыкам, помогающим использовать ИИ-инструменты, включая Meta AI.

 Источник изображений: ***

Источник изображений: Meta

Отдельное внимание уделено управлению водными и прочими ресурсами. Кампус Beaver Dam будет использовать технологии драйкулинга — это означает, что вода для охлаждения практически не потребуется. Также компания обещает восстановить 100 % воды в местных водных бассейнах, которые потребит ЦОД. Среди прочих мер называются сбор дождевой воды для дальнейшего использования, интеграция водосберегающих технологий на объектах ЦОД, а также благоустройство с использованием местной растительности для снижения потребностей в орошении.

Наконец, в партнёрстве с Ducks Unlimited и прочими организациями будут восстановлены 230 га болотных угодий и прерий, окружающих дата-центр, из них 70 га будут переданы Ducks Unlimited для развития экосистем. Это позволит превратить «деградировавшие» болотные угодья в полные жизни, экологически богатые места обитания с тысячами птиц, животных и растений.

Как сообщает Bloomberg, глава компании Марк Цукерберг (Mark Zuckerberg) неоднократно поддерживал агрессивные инвестиции в ИИ-инфраструктуру и постоянно говорит инвесторам о том, что лучше вложить в ИИ избыточные средства, чем недостаточные. До 2028 года компания инвестирует $600 млрд в США, значительная часть этих средств будет потрачена на чипы, дата-центры и оборудование. Meta строит гигаваттные ЦОД в некоторых других штатах, включая Огайо, Техас и Луизиану.

Постоянный URL: https://servernews.ru/1132328
13.11.2025 [16:32], Сергей Карасёв

1024 ядра, 6 ГГц и 48 Тбайт DDR5-17600: Tachyum обновила характеристики несуществующего процессора Prodigy

Словацкая компания Tachyum в очередной раз поделилась информацией о процессорах Prodigy с уникальной архитектурой, которые объединят возможности CPU, GPU и TPU. Эти изделия, как утверждается, позволят работать с ИИ-моделями, которые по количеству параметров будут на много порядков превосходить современные решения, но за несколько лет компания так и не представила ни одного работающего чипа.

Tachyum работает над Prodigy с 2019 года. При этом фактический выпуск процессоров многократно переносился: последовательно назывались 2021, 2022, 2023, 2024 и 2025 годы, но пока эти чипы существуют только на бумаге. Между тем компания заявляет о внесении улучшений в архитектуру Prodigy в соответствии с постоянно меняющимися требованиями в отношении аппаратных платформ для ИИ и НРС.

 Источник изображений: Tachyum

Источник изображений: Tachyum

Изначально предполагалось, что в состав Prodigy войдут до 192 ядер с тактовой частотой до 5 ГГц и выше. Говорилось о поддержке 16 каналов памяти DDR5-7200 с возможностью использования до 32 Тбайт ОЗУ в расчёте на процессорный разъём, а также 96 линий PCIe 5.0. Выпускать изделия компания намеревалась по 5-нм технологии.

Теперь Tachyum заявляет, что Prodigy будут производиться по 2-нм технологии. Каждый чиплет в составе процессоров объединит до 256 высокопроизводительных кастомизированных 64-бит ядер с частотой до 6 ГГц, что в сумме даст до 1024 ядер в конфигурации с четырьмя чиплетами. Упомянуты 24 контроллера памяти с поддержкой DDR5-17600 и 128 линий PCIe 7.0. Максимальный объём памяти достигает 48 Тбайт в расчёте на сокет. Показатель TDP — до 1600 Вт. Возможно формирование 8S-систем. Такими характеристиками будут обладать флагманские изделия серии Prodigy Ultimate.

Кроме того, готовятся чипы Prodigy Premium, имеющие до 512 ядер и до 16 каналов памяти DDR5-12800, а также «обычные» чипы Prodigy, содержащие до 128 ядер и до 8 каналов DDR5-9600. Первые могут применяться в 16S-системах, вторые — в односокетных. Кроме того, заявлена возможность запуска немодифицированных x86-приложений, а также Arm и RISC-V ПО.

В целом, утверждает Tachyum, решения Prodigy Ultimate обеспечат до 21,3 раза более высокую ИИ-производительность на уровне стойки по сравнению с NVIDIA Rubin Ultra NVL576. В свою очередь, Prodigy Premium якобы превзойдут по ИИ-быстродействию систему NVIDIA Vera Rubin NVL144 в 25,8 раза. Разработчик также заявляет, что Prodigy станет первым чипом с производительностью более 1000 Пфлопс на задачах инференса против 50 Пфлопс у NVIDIA Rubin на аналогичных операциях. Впрочем, в спецификациях Prodigy пока говорится от 400 Тфлопс в FP64-вычислениях и о 400 Пфлопс в ИИ-вычислениях неназванной точности.

Постоянный URL: https://servernews.ru/1132329
13.11.2025 [15:49], Андрей Крупин

«Ростелеком» приобретает долю в одном из старейших разработчиков российского Linux — «Базальт СПО»

«Ростелеком» объявил о приобретении доли в размере 5 % в компании «Базальт СПО», занимающейся разработкой системного программного обеспечения на базе Linux, в том числе по требованиям российского законодательства в области защиты информации. Владельцем доли стал фонд поддержки национальных IT-решений «Консоль», созданный при участии «Ростелекома» и Минцифры России.

В сообщении телекоммуникационного оператора подчёркивается, что до конца 2025 года доля фонда «Консоль» в «Базальт СПО» будет поэтапно доведена до 25 %, в том числе за счёт внесения денежного вклада в уставной капитал софтверного разработчика. Фактически «Базальт СПО» станет частью коммерческого IT-кластера «Ростелекома», включающего компанию «Базис», экосистему «Лукоморье» и облачного провайдера «Турбо Облако».

По словам «Ростелекома», сделка с «Базальт СПО» является важным шагом в стратегии компании, который формирует конкурентоспособный национальный стек цифровых технологий. Приобретение доли отечественного разработчика позволит телекоммуникационному гиганту усилить экосистему программных продуктов IT-кластера и обеспечит более активное участие в процессах замещения иностранного ПО на российском рынке.

 Источник изображения: пресс-служба компании «Ростелеком» / company.rt.ru

Источник изображения: пресс-служба компании «Ростелеком» / company.rt.ru

«Объединение технологий «Базальт СПО» с коммерческим IT-кластером «Ростелекома» позволит создавать IT-инфраструктуры нового поколения. Эти комплексные и масштабируемые решения смогут удовлетворить потребности самых разных клиентов: от государственных ведомств до частных компаний. Таким образом, мы не просто расширяем продуктовую линейку, а формируем целостные решения, что кардинально повысит конкурентоспособность «Ростелекома» и ускорит вывод на рынок готовых, безопасных IT-платформ», — говорится в сообщении телекоммуникационного оператора.

Постоянный URL: https://servernews.ru/1132334
13.11.2025 [12:12], Руслан Авдеев

Anthropic инвестирует $50 млрд в американскую ИИ-инфраструктуру

ИИ-стартап Anthropic объявил о намерении инвестировать $50 млрд в вычислительную инфраструктуру в США. Компания создаст ЦОД совместно с Fluidstack в Техасе, Нью-Йорке и других. местах. Объекты проектируются с учётом запросов Anthropic для обеспечения максимальной эффективности рабочих нагрузок. Fluidstack выбрана в качестве партнёра стартапа за «исключительную гибкость», позволяющую быстро получить гигаватты мощностей. Первые объекты должны ввести в эксплуатацию в 2026 году. ЦОД позволят создать 800 постоянных рабочих мест.

План поможет выполнению инициативы администрации Дональда Трампа в области ИИ (AI Action Plan) — она направлена на сохранение лидерства США в сфере искусственного интеллекта. В компании заявляют, что приближаются к созданию ИИ, способного ускорить научные открытия и решать сложные задачи невозможными ранее способами. Для этого необходима инфраструктура, способная поддерживать непрерывное развитие — новые площадки помогут создавать более эффективные ИИ-системы, способные обеспечить новые исследовательские прорывы и создавать рабочие места для американцев.

Anthropic с её ИИ-моделями Claude обслуживает более 300 тыс. корпоративных клиентов, а число клиентов, приносящих более $100 тыс. ежегодно, за последний год выросло почти в семь раз. Огромный масштаб инвестиций необходим для удовлетворения растущего спроса на Claude среди сотен тысяч компаний с сохранением передовых позиций в сфере исследований ИИ-технологий. В компании обещают отдавать приоритет «экономически эффективным» и «капиталоэффективным» подходам для достижения своих целей.

 Источник изображения: Invest Europe/unsplash.com

Источник изображения: Invest Europe/unsplash.com

По данным Datacenter Dynamics, в случае с техасским ЦОД, возможно, речь идёт о ранее анонсированном объекте Fluidstack и TeraWulf на 168 МВт в Абернати (Abernathy) или о совместном c Cipher Mining проекте на 244 МВт. В случае с Нью-Йоркским ЦОД, речь, возможно, идёт о кампусе Lake Mariner — совместном проекте Fluidstack и TeraWulf. Google, имеющая долю 14 % в Anthropic, поддержала оба проекта с участием TeraWulf. Ранее в этом году компания обеспечила гарантии по её кредитам, а также предоставила гарантии по арендным обязательствам Fluidstack на сумму $1,4 млрд для сделки с Cipher, получив в TeraWulf долю 5,4 %, а в бизнесе Fluidstack — 14 %.

В октябре Anthropic анонсировала сделку с Google Cloud объёмом более 1 ГВт, которая даст ей доступ к миллиону ускорителей Google TPU. Предстоит уточнить, идёт ли в новом анонсе Anthropic речь о том же самом контракте с участием Fluidstack в качестве посредника — или речь идёт о новой сделке. AWS тоже владеет долей в Anthropic. В октябре она запустила для Anthropic кластер Project Rainier на основе собственных ИИ-ускорителей Tranium2. На площадку потратят $11 млрд (при полной загрузке).

Стоимость вычислений Anthropic растёт, но The Information располагает информацией, что ИИ-стартап надеется использовать более эффективные модели, требующие меньших вычислительных мощностей в пересчёте на каждого пользователя. Это снизит затраты и позволит скорее добиться прибыльности бизнеса. По оценкам, $50 млрд инвестиций дадут компании доступ к примерно 5 ГВт ЦОД.

Постоянный URL: https://servernews.ru/1132309
13.11.2025 [11:00], Сергей Карасёв

«Группа Астра» представила семейство ПАК XPlatform для построения ИТ-инфраструктуры «под ключ»

«Группа Астра» анонсировала серию отечественных программно-аппаратных комплексов (ПАК) XPlatform, которые, как утверждается, предназначены для быстрого развертывания устойчивой, высокопроизводительной и безопасной ИТ-инфраструктуры «под ключ». В семейство вошли устройства разного класса — XTime, XCloud, XConnect, XGenAI и XData для решения определённых задач.

Все компоненты систем XPlatform спроектированы для бесшовной интеграции, имеют необходимые сертификаты регуляторов, внесены в реестры Минцифры и Минпромторга. Каждый продукт поставляется как полностью подготовленный комплекс, прошедший заводское тестирование и проверку совместимости. Использование ПАК позволяет сократить издержки на интеграцию и отладку, а также ускорить развёртывание: на ввод в эксплуатацию требуются считаные дни или даже часы вместо недель или месяцев как в случае разрозненных решений.

Система XTime предназначена для резервного копирования и централизованного хранения бэкапов виртуальных машин, баз данных и файловых хранилищ. Возможно архивирование регламентированных данных с длительным сроком хранения (соблюдение политики аудита). Поддерживаются распределённые филиальные контуры. В состав XTime входят сервер с RAID-контроллерами и дисковые полки. Программная составляющая включает софт Termidesk Connect и BRO Software.

 Источник изображений: «Группа Астра»

Источник изображений: «Группа Астра»

В свою очередь, XCloud служит для построения частного, гибридного или публичного облака, в котором можно гибко объединять IT-ресурсы, управлять доступом большого числа пользователей и масштабировать инфраструктуру под растущие нагрузки. Обеспечиваются быстрое развёртывание сложных информационных и геоинформационных систем, контроль и учёт потребления вычислительных ресурсов. Платформа объединяет серверы, СХД (SDS-архитектура) и коммутаторы, а также стек различного ПО.

ПАК XConnect обеспечивает доставку приложений. Этот аппаратно-программный контроллер балансирует трафик, распределяет запросы между серверами и гарантирует устойчивость пользовательских сервисов. Обеспечивается возможность построения распределённой инфраструктуры для организаций с разветвлённой филиальной сетью. Разработчик говорит о высокой доступности системы даже при значительном росте количества пользователей. Аппаратная часть включает высокопроизводительные системы карт, SSL-ускорение и резервирование критичных компонентов. Применяется ПО Termidesk Connect.

 Источник изображений: «Группа Астра»

Решение XGenAI предназначено для создания и развёртывания классических и генеративных ИИ-моделей, включая обработку естественного языка, предиктивную аналитику и компьютерное зрение в локальных контурах. Используются сервер с ускорителями на основе GPU и софт «Тессеракт».

Наконец, XData — это машина баз данных, которая, по заявлениям производителя, обеспечивает высокую доступность, масштабируемость и балансировку нагрузки для критически важных корпоративных СУБД. Задействована программная платформа Tantor.

 Источник изображений: «Группа Астра»

В числе потенциальных заказчиков ПАК XPlatform названы государственные и регулируемые организации, банки и прочие финансовые учреждения, промышленные предприятия и корпорации с филиальной структурой, а также любые другие компании, работающие с высоконагруженными приложениями и «чувствительными» данными.

«С XPlatform мы предлагаем клиентам не просто набор технологий, а законченные программно-аппаратные комплексы, которые сокращают путь от идеи до промышленной эксплуатации. Единый стек, предсказуемая производительность, соответствие регуляторным требованиям и единое окно поддержки — это та комбинация, что позволяет бизнесу быстро и безопасно решать самые разнообразные задачи», — говорит Антон Шмаков, технический директор «Группы Астра».

Постоянный URL: https://servernews.ru/1132301
12.11.2025 [23:23], Владимир Мироненко

От ИИ ЦОД до роботов: AMD анонсировала долгосрочную стратегию роста

AMD представила на мероприятии Financial Analyst Day 2025 план по достижению лидерства на рынке вычислительных технологий объёмом $1 трлн. Долгосрочная стратегия роста AMD построена на четырех столпах: лидерство в сфере ЦОД, повышение производительности ИИ, открытое ПО и расширение присутствия на рынках встраиваемых и полукастомных кремниевых решений.

AMD ожидает, что только её бизнес в сфере ЦОД будет приносить более $100 млрд годовой выручки, с увеличением совокупного среднегодового темпа роста (CAGR) до более чем 60 %, при этом CAGR дохода от ИИ-решений увеличится до более чем 80 %. Генеральный директор AMD Лиза Су (Lisa Su) заявила, что следующий этап будет основан на унифицированной вычислительной платформе AMD, объединяющей процессоры EPYC, ускорители Instinct, сетевые решения Pensando и ПО ROCm. Новый план развития AMD призван обеспечить ей конкуренцию с NVIDIA и Intel на корпоративных рынках и в борьбе за заказы гиперскейлеров.

 Источник изображений: AMD

Источник изображений: AMD

Ускорители серии Instinct MI350, уже развёрнутые Oracle (ещё 50 тыс. MI450 будут развёрнуты во II половине 2026 г.), являются самыми популярными ускорителями AMD на сегодняшний день. Следующей платформой станет серия MI450, которая будет запущена вместе со стоечной платформой Helios в III квартале 2026 года. Helios обеспечит пропускную способность интерконнекта 3,6 Тбайт/с на каждый ускоритель и до 72 ускорителей на стойку с совокупной пропускной способностью 260 Тбайт/с, соединённых между собой посредством UALink и Ultra Ethernet (UEC). Система поддерживает разделяемую память между ускорителями, что обеспечивает обучение крупномасштабных моделей с бесперебойным доступом к памяти и отказоустойчивой сетью с шестью плоскостями.

AMD характеризует Helios как свою первую ИИ-платформу стоечного масштаба — полностью интегрированную систему с открытой архитектурой, которая объединяет вычислительные мощности, ускорение, сетевые технологии и ПО в единую структуру. В отличие от традиционных серверных кластеров, Helios реализует всю стойку как единый высокопроизводительный вычислительный домен. Каждая стойка объединяет процессоры AMD EPYC Venice, CDNA5-ускорители Instinct MI450X (будет и вариант MI430X с полноценными FP64-блоками) и 400G/800G-карты Pensando Vulcano, связанные Infinity Fabric пятого поколения (PCIe 6.0, CXL 3.1, UCIe) и UALink.

Эта архитектура минимизирует накладные расходы на перемещение данных, увеличивает пропускную способность между ускорителями и обеспечивает эффективность класса экзафлопсных вычислений в компактном корпусе. Helios фактически представляет собой проект AMD для ИИ-фабрики будущего с возможностью модульного расширения, позволяя объединять сотни стоек в одну систему в ЦОД.

В 2027 году AMD планирует выпустить ускорители серии MI500 и процессоры EPYC Verano, продолжая тем самым ежегодный цикл совместной разработки процессоров, ускорителей и сетей. AMD заявила, что EPYC Venice, намеченные к выпуску в 2026 году, будут обладать лучшими в отрасли показателями плотности (1,3x по количеству потоков в сравнении с текущими решениями) и энергоэффективности (1,7x). Они пополнятся оптимизированными для ИИ наборами инструкций для обработки инференса и выполнения вычислений общего назначения. Указанные компоненты станут основой ИИ-фабрики, способной масштабироваться от одной стойки до глобально распределённых кластеров.

Исполнительный вице-президент AMD Форрест Норрод (Forrest Norrod) подчеркнул в своём выступлении, что производительность ИИ всё больше зависит от сети. Сетевые карты AMD Pensando Pollara и Vulcano для ИИ образуют связующую ткань архитектуры Helios. Сетевая карта Pollara 400 обеспечивает пропускную способность 400 Гбит/с, а готовящаяся к выходу сетевая карта Vulcano удвоит её до 800 Гбит/с, обеспечивая связь Ultra Ethernet между крупными кластерами ускорителей.

AMD представила четырёхуровневую архитектуру сети для масштабных ИИ-инфраструктур. Front-End часть обслуживает пользователей, хранилище и приложения. Она опирается на DPU Pensando и P4-движки, отвечающие за разгрузку сетевых функций, функции безопасности и шифрования, и работу с СХД. Вертикальное масштабирование в пределах стойки обеспечивает 3,6-Тбайт/с подключение на каждый GPU. Горизонтальное масштабирование реализуется благодаря UEC — внутренние тесты показали снижение затрат на коммутацию до 58 % по сравнению с традиционными сетями типа Fat-Tree. Наконец, Scale-Across (пространственное масштабирование) позволит объединить географически распределённые ЦОД в кластеры с интеллектуальным управлением трафиком и адаптивной балансировкой нагрузки.

AMD отметила, что открытый программный стек ROCm (Radeon open compute) по-прежнему лежит в основе её стратегии в области ИИ-платформ. По сравнению с прошлым годом число его загрузок выросло в десять раз и теперь на HuggingFace поддерживается более 2 млн моделей. ROCm интегрируется с ведущими фреймворками, включая PyTorch, TensorFlow, JAX, Triton, vLLM, ComfyUI и Ollama, и поддерживает проекты с открытым исходным кодом, такие как Unsloth.

AMD также расширила своё видение «физического ИИ», когда вычисления выходят за рамки облака и охватывают роботов, транспортные средства и промышленные системы. Подразделение встраиваемых систем, усиленное приобретением Xilinx в 2022 году, превратилось из бизнеса, ориентированного на FPGA, в многоплатформенный двигатель роста, охватывающий адаптивные системы на кристалле (SoC), встраиваемые x86-процессоры и заказные кремниевые решения. По словам компании, с 2022 года решения в этой области принесли более $50 млрд. AMD рассчитывает превысить 70 % доли рынка адаптивных вычислений.

Говоря о перспективах, компания отметила, что ЦОД остаются основным драйвером роста, но наряду с этим она будет диверсифицировать свою деятельность по всем сегментам. Финансовые цели AMD включают:

  • обеспечение более 35 % CAGR выручки и более 35 % операционной маржи;
  • CAGR в размере более 60 % для сегмента ЦОД;
  • CAGR в размере более 10 % в клиентских, игровых и встраиваемых системах;
  • достижение более 50 % доли рынка серверных процессоров и более 40 % доли клиентских процессоров;
  • ежегодное обновление платформ-ускорителей (Helios 2026 → Next-Gen 2027).
Постоянный URL: https://servernews.ru/1132275
12.11.2025 [21:06], Андрей Крупин

Российский корпоративный центр сертификации SafeTech CA получил масштабное обновление

Работающая в сфере кибербезопасности российская компания SafeTech Lab представила крупнейшее с момента создания продукта обновление корпоративного центра сертификации SafeTech CA.

Программный комплекс SafeTech CA в полной мере отвечает задачам импортозамещения ПО в отечественных организациях и способен полностью заменить Microsoft Certificate Authority для Windows-инфраструктур. Решение также позволяет управлять процессами выпуска и администрирования технологических сертификатов для Linux-систем, мобильных устройств на базе Android/iOS, сетевого оборудования и других компонентов IT-ландшафта.

Ключевой инновацией в SafeTech CA стала реализация полноценного Autoenrollment’a технологических сертификатов для Linux-систем. Совместно с экспертами «Группы Астра» разработаны механизмы и многочисленные сценарии автоматического выпуска, обновления и отслеживания статуса сертификатов пользователей и компонентов инфраструктуры в рамках домена ALD Pro. В дополнение к этому были расширены возможности интеграции комплекса и с другими службами каталогов. Так, для Microsoft Active Directory внедрён ряд улучшений и дополнений, позволяющих IT-администраторам детальнее настраивать политики выпуска сертификатов. Для «Ред АДМ» (Samba DC) подготовлены специализированные сценарии и инструменты для интеграции компонентов PKI-инфраструктуры на базе SafeTech CA.

 Архитектура SafeTech CA (источник изображения: safetechlab.ru)

Архитектура SafeTech CA (источник изображения: safetechlab.ru)

Для более тонкой настройки прав доступа в рамках домена в SafeTech CA добавлена возможность назначения шаблонов сертификатов на подразделения (Organization Unit), что позволяет разграничить использование различных сервисов в инфраструктуре организации средствами PKI. В партнёрстве с компанией «Актив» был разработан механизм выпуска цифровых сертификатов на аппаратные носители «Рутокен» напрямую через интерфейс SafeTech CA. Для аутентификации пользователей по смарт-картам в SafeTech CA разработаны сценарии и добавлены инструменты реализации Smart Card Logon на базе доменов ALD Pro, Microsoft AD, «Ред АДМ», FreeIPA, Samba DC. Важным шагом в оптимизации работы с интернет-сервисами стала поддержка протокола ACME, который позволяет в автоматическом режиме выпускать и обновлять SSL/TLS-сертификаты для веб-серверов.

 Пользовательский интерфейс SafeTech CA (источник изображения: safetechlab.ru)

Пользовательский интерфейс SafeTech CA (источник изображения: safetechlab.ru)

«Новый релиз SafeTech CA знаменует собой превращение продукта в универсальную многофункциональную платформу для управления цифровыми сертификатами в сложных гибридных инфраструктурах. Реализация Linux Autoenrollment с отслеживанием статуса и обновлением сертификатов внутри домена — это долгожданная возможность, обеспечивающая заказчикам совершенно новый уровень автоматизации для отечественных Linux-сред, который раньше был доступен только в Windows-инфраструктурах», — говорится в заявлении SafeTech Lab.

Дальнейшая дорожная карта SafeTech CA предполагает углублённую проработку сервисных процессов PKI, включая централизованное конфигурирование компонентов и ротацию сертификатов, повышение производительности решения для работы в высоконагруженных архитектурах, а также расширение интеграционных возможностей.

Постоянный URL: https://servernews.ru/1132286

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus