Материалы по тегу: ии
10.06.2025 [12:15], Владимир Мироненко
«Это полное безумие»: SAP не видит смысла в строительстве Европой собственной облачной инфраструктурыКристиан Кляйн (Christian Klein), гендиректор немецкого разработчика ПО SAP, самой дорогой публичной компании Европы с рыночной стоимостью $342,4 млрд, не видит смысла в построении на континенте собственной облачной инфраструктуры в противовес созданной здесь американскими гиперскейлерами. «Конкурентоспособность европейской автомобильной или химической промышленности не будет достигнута путем строительства 20 различных ЦОД во Франции и попыток конкурировать с американскими гиперскейлерами. Это полное безумие, и это суверенитет, реализованный совершенно неправильно», — цитирует The Register заявление Кляйна, сделанное на конференции для инвесторов на прошлой неделе, организованной инвестиционным банком BNP Paribas. «Нам нужны лучшие (сервисы) здесь, в Европе, для применения ИИ, для применения интеллектуального ПО, чтобы быть лучшими, чтобы производить намного лучшие, намного более быстрые, лучшие автомобили и быть намного более эффективными в управлении нашими цепочками поставок», — сказал он. Кляйн отметил, что в Европе большие проблемы с ценами на энергоносители, поэтому строительство большего количества ЦОД — не лучшее решение. SAP готова предоставить клиентам различные уровни безопасности данных и суверенитета данных, но «полностью нейтральна на уровне инфраструктуры», — заявил он на конференции. С помощью ИИ и хранилища данных SAP предлагает клиентам «полный суверенитет сверху донизу», сообщил Кляйн. На фоне всё более враждебной риторики США по поводу европейской политики и норм управления европейские лидеры недавно анонсировали «Международную цифровую стратегию» (International Digital Strategy). В то время как американские гиперскейлеры AWS, Google и Microsoft пытаются развеять опасения по поводу суверенитета данных, заверяя, что способны обеспечить безопасное хранение данных европейских клиентов, некоторые европейские политики по-прежнему обеспокоены готовностью администрации США игнорировать судебные постановления, пишет The Register. SAP не одинока в своих сомнениях по поводу целесообразности разделения на уровне облачной инфраструктуры, отметил The Register. В прошлом месяце эксперты сообщили ресурсу, что для европейских организаций «на практике почти невозможно» воспроизвести инфраструктуру, созданную крупными американскими провайдерами облачных сервисов в Европе.
09.06.2025 [18:11], Руслан Авдеев
«Ростелеком» предложил крупным компаниям строить общие электростанции для ИИ ЦОДПо словам президента «Ростелекома» Михаила Осеевского, дефицит энергетических мощностей открывает новые возможности для сотрудничества крупных компаний. Они смогут объединить усилия для создания электростанций для ИИ ЦОД — кампусы будут строиться рядом со станциями, сообщает «Интерфакс». В «Ростелекоме» пришли к выводу, что развитие решений на базе ИИ требует развитой вычислительной инфраструктуры, но ИИ-серверы потребляют очень много энергии. Если стандартные стойки рассчитаны приблизительно на 5 кВт, то в случае варианта с ИИ-ускорителями речь может идти уже о 50 кВт (на деле ёмкость может быть и в разы выше). При этом дата-центр на 1 тыс. стоек уже через пять лет будет «обычной историей» — речь идёт о гигантских мощностях в случае массового внедрения ИИ. Основная идея Осеевского — ЦОД могли бы совместно заказывать электростанции и создавать общие технопарки для своих ЦОД. Например, крупнейшие банки, «Ростелеком», «Яндекс», VK и другие компании, даже будучи конкурентами в некоторых сферах, могли бы объединить силы для строительства электростанций и кампусов ЦОД при них. ![]() Источник изображения: Scott Blake/unsplash.com Осеевский заявил, что концепция предусматривает строительство электростанции, особой технологической зоны рядом с ней, на этой территории участники сами строят свои дата-центры. При этом на комплекс распространяются единые системы безопасности и связи. По прогнозам бизнесмена, проблема с получением достаточного количества энергии появится у всех компаний, которым необходимо будет строить ИИ ЦОД. Конечно, в первую очередь вопрос будет актуален для Москвы и Московской области. По информации Международного энергетического агентства (IEA), в ближайшие три года миру потребуется много новых источников энергии, чтобы компенсировать «беспрецедентный» рост спроса. Исследование IEA показало, что энергопотребление ЦОД к 2030 году вырастет более чем вдвое, а из-за ИИ придётся сжигать больше угля и газа. В частности, эксперты прогнозируют утроение мощности коммерческих ЦОД в России к 2028 году, а в феврале сообщалось, что в стране скоро якобы наступит дефицит энергии для обучения ИИ, который сильнее всего ударит по ЦОД в Москве и Санкт-Петербурге.
09.06.2025 [17:30], Владимир Мироненко
«Альт Сервер» 11.0: упрощённая установка наборов приложений, инструменты контейнеризации, обновлённый «Альт Домен»«Базальт СПО» выпустила серверную операционную систему на Одиннадцатой платформе (p11 Salvia). Основные изменения коснулись установки и настройки. Впервые в одном образе доступны две редакции — «Альт Сервер» и «Альт Домен». В новом приложении «Альт Компоненты» автоматизирована установка инструментов для различных способов использования сервера. Обновлены все ключевые составляющие, в том числе Samba 4.20, добавлена контейнеризация. Переход на актуальную криптографическую библиотеку OpenSSL 3.3 усилил защищённость системы. Две редакции в одном образеСтандартно система устанавливается в редакции «Альт Сервер». Это универсальное решение для файловых, веб-серверов, СУБД и других задач. При наличии лицензии на «Альт Домен» необходимо изменить редакцию с помощью консольной утилиты (alteratorctl) или в настройках системы (alt-systeminfo), если была включена поддержка графической среды. «Альт Домен» — это платформа на базе Samba AD с инструментами управления инфраструктурой (ADMC, GPUI, gpupdate). Установка и настройкаОперационная система по умолчанию устанавливается в базовой конфигурации. Дополнительно можно выбрать:
«Альт Компоненты» — автоматизированная установка сервисовНовый инструмент «Альт Компоненты» автоматизирует установку служб, таких как web-сервер, файловый сервер, контейнеризация, и наборов приложений. Настройка компонентов доступна через графический интерфейс или в консольном режиме, если система работает без графической среды, в том числе удалённо. После этого необходимые пакеты устанавливаются автоматически. Набор доступных компонентов зависит от выбранной редакции. Устанавливать и удалять их можно в любой момент. Администраторы также могут создавать и добавлять собственные компоненты. «Альт Домен»Ключевой компонент «Альт Домена» Samba AD обновлен до версии 4.20. Основные изменения:
Контейнеризация: инструменты для DevOps, гибридных облаков и микросервисовВ «Альт Сервере» 11.0 появились инструменты для полного цикла работы с контейнерами — от разработки (Buildah) до промышленного развертывания (Kubernetes через CRI-O). Операционная система теперь может стать основой для выполнения задач DevOps, гибридных облаков и распределенных микросервисных систем. Система содержит 4 новых компонента для контейнеризации: Docker, Podman, Kubernetes и Linux Container. Эти компоненты перенесены в «Альт Сервер» из «Альт Виртуализации». Резервное копированиеProxmox Backup Server обновлён до версии 3.3.3. Основные новшества:
Базы данныхPostgreSQL обновлён до версии 17, стал более удобным для разработчиков и администраторов. Новая система управления памятью для операций VACUUM снижает потребление памяти и ускоряет работу, особенно в крупных базах данных. Утилита pg_basebackup теперь позволяет создавать резервные копии, содержащие только изменения, внесённые с момента последнего сохранения полной копии. Это существенно ускоряет работу и экономит место на диске или в облаке. Улучшена логическая репликация за счет синхронизации логических слотов между мастером и репликой, что упрощает управление сложными конфигурациями. Безопасность и защита данныхУлучшены производительность и стабильность криптографической библиотеки OpenSSL 3.3.3. Переработан API, что упрощает интеграцию OpenSSL в приложения и снижает вероятность ошибок, которые могли бы привести к уязвимостям. Сканер уязвимостей trivy позволяет контролировать безопасность системы, в том числе в контейнерах. Архитектуры«Альт Сервер» 11.0 совместим с процессорами на архитектурах x86_64 и AArch64. Идёт работа над обеспечением совместимости с Эльбрус V6. Условия распространения«Альт Сервер» 11.0 поступает в продажу с момента выпуска. Версия 10.4 также доступна для покупки до конца 2025 года. Условия технической поддержки и лицензирования указаны на странице продукта. Справка«Базальт СПО» — российский разработчик свободного программного обеспечения. В продуктовой линейке — операционные системы семейства «Альт», технологический комплекс «Альт Платформа» для сборки и выпуска ПО, инфраструктурные решения для централизованного управления конфигурациями компьютеров и пользователей, виртуальными рабочим столами, облачной виртуализацией, создания и управления контейнерами. Продукты включены в Единый реестр российского ПО, совместимы более чем c 6000 программам и оборудования из реестров Минцифры РФ и Минпромторга РФ. Защищённая ОС «Альт СП» сертифицирована ФСТЭК России. Все решения создаются на базе собственной инфраструктуры разработки, которую компания развивает с 2001 года. Инфраструктура находится на территории и под юрисдикцией РФ, включает независимый репозиторий проекта «Сизиф». С 2004 года «Базальт СПО» проводит Ежегодную конференцию разработчиков свободных программ. www.basealt.ru, sales@basealt.ru, @basealtspo.
09.06.2025 [16:25], Сергей Карасёв
Техно-форум в современном формате: Orion soft запустил комьюнити для пользователей виртуализации zVirtРазработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft запустил комьюнити для пользователей системы виртуализации zVirt. В нём технические специалисты из разных отраслей смогут обмениваться опытом и лучшими практиками работы с платформой, предлагать идеи по разработке новых функций и давать обратную связь напрямую команде продукта. Участие в комьюнити бесплатное, подать заявку на вступление можно на сайте. «По итогам 2024 года база заказчиков zVirt достигла более 430 компаний. Они заинтересованы в том, чтобы решение быстрее развивалось и дополнялось нужной им функциональностью, мы получаем от них много обратной связи. Поэтому мы решили создать хаб, где вопросы нашей команде можно задать напрямую. По нашему опыту, именно такой открытый диалог лучше всего подсвечивает точки роста продукта и помогает ему быстрее развиваться», — говорит Максим Березин, директор по развитию бизнеса Orion soft. Участники комьюнити будут первыми узнавать о готовящихся фичах и актуальных обновлениях продукта. Они могут напрямую влиять на его развитие: лидеры комьюнити собирают пожелания по функциям, которых не хватает в zVirt, и передают в работу технической команде в режиме online. «Мы хотим, чтобы комьюнити стало площадкой, где можно не только найти решение технической проблемы или предложить идеи по улучшению продукта, но и пообщаться на свободные темы, обсудить новости и актуальные вопросы в сфере виртуализации. Как на техно-форумах, с которых начиналось развитие IT-сообщества в России, только в современном формате и более продуктивно. Лидеры комьюнити — технические специалисты из команды zVirt — уже отвечают на вопросы участников в нескольких тематических "комнатах"», — добавляет лидер комьюнити zVirt Александр Гавриленко. Участники могут свободно делиться опытом использования платформы и своими вариантами решения технических вопросов. Комьюнити станет для них большим информационным хабом о тонкостях работы различных функций в zVirt и практиках работы с решением в разных отраслях. Следующим шагом в развитии комьюнити станут очные встречи, на которых специалисты Orion soft расскажут подробности о готовящихся релизах продукта, будут демонстрировать возможности системы и отвечать на актуальные вопросы по её эксплуатации. О продуктеzVirt — защищённая система виртуализации серверов, дисков и сетей. Русскоязычный web-интерфейс даёт возможность из единой консоли управлять серверами виртуализации, хранилищами, кластерами, виртуальными машинами и другими объектами. zVirt обладает крупнейшей инсталляционной базой в стране — более чем 12 000 хостов — и базой из более чем 430 заказчиков. Продукт зарегистрирован в Реестре российского ПО и является лидером в части импортозамещения ПО для виртуализации, уже занимая 40 % мощностей, работавших на VMware. Также доступна редакция zVirt Max, сертифицированная по требованиям ФСТЭК.
09.06.2025 [14:27], Руслан Авдеев
Евросоюз ограничит использование воды дата-центрамиЕвропейский союз обнародовал планы по повышению устойчивости всего блока к засухам и улучшения качества воды. В Еврокомиссии подчёркивают, что около трети земель Европы ежегодно сталкиваются с нехваткой воды, поэтому новая стратегия появилась вполне своевременно. В числе прочего предусмотрено развитие контроля за использованием водных ресурсов IT-сектором, сообщает Bloomberg. Работать над учреждением стандартов производительности для ограничения использования водных ресурсов в дата-центрах будет Еврокомиссия — как свидетельствуют материалы стратегии водной экоустойчивости, представленной в прошлую среду, регион столкнётся с вероятным дефицитом воды в ближайшие десятилетия. Общая цель ЕС — повысить эффективность использования воды минимум на 10 % к 2030 году. В последние годы нехватка воды ударила по Евросоюзу, поскольку повышение летних температур не могло не отразиться на качестве поставок этого важнейшего ресурса. Засухи нанесли серьёзный ущерб атомной энергетике Франции и усложнили доставку товаров по обмелевшей реке Рейн — одному из ключевых торговых путей Европы. При этом управление водными ресурсами в Евросоюзе фрагментировано, в числе прочего ему мешают запутанные системы водоснабжения и стареющие резервуары/водохранилища. В апреле уже сообщалось, что доступ к чистой воде становится одной из главных забот для операторов ИИ ЦОД всего мира. В мае было анонсировано, что в рамках стратегии ЕС по водной экоустойчивости Water Resilience Strategy Евросоюз разработает новые лимиты потребления воды дата-центрами. По-видимому, они буду жёстче обозначенных ранее.
09.06.2025 [14:02], Руслан Авдеев
Перегрев, плохое ПО и сила привычки: китайские компании не горят желанием закупать ИИ-ускорители HuaweiНесмотря на дефицит передовых ИИ-ускорителей на китайском рынке, китайская компания Huawei, выпустившая модель Ascend 910C, может столкнуться с проблемами при её продвижении. Она рассчитывала помочь китайскому бизнесу в преодолении санкций на передовые полупроводники, но перспективы нового ускорителя остаются под вопросом, сообщает The Information. Китайские гиганты вроде ByteDance, Alibaba и Tencent всё ещё не разместили крупных заказов на новые ускорители. Основная причина в том, что экосистема NVIDIA доминирует во всём мире (в частности, речь идёт о программной платформе CUDA), а решения Huawei недостаточно развиты. В результате компания продвигает продажи государственным структурам (при поддержке самих властей КНР) — это косвенно свидетельствует о сложности выхода на массовый рынок. Китайский бизнес годами инвестировал в NVIDIA CUDA для ИИ- и HPC-задач. Соответствующий инструментарий, библиотеки и сообщество разработчиков — настолько развитая экосистема, что альтернатива в лице Huawei CANN (Compute Architecture for Neural Networks) на её фоне выглядит весьма слабо. У многих компаний всё ещё хранятся огромные запасы ускорителей NVIDIA, накопленные в преддверии очередного раунда антикитайских санкций, поэтому у их владельцев нет стимула переходить на новые и незнакомые решения. Они скорее предпочтут оптимизировать программный стек, как это сделала DeepSeek, чтобы повысить утилизацию имеющегося «железа». Если бы, например, та же DeepSeek перешла на ускорители Huawei, это подтолкнуло бы к переходу и других разработчиков, но пока этого не происходит. Кроме того, некоторые компании вроде Tencent и Alibaba не желают поддерживать продукты конкурентов, что усложняет Huawei продвижение её ускорителей. Есть и технические проблемы. Самый передовой ускоритель Huawei Ascend 910C периодически перегревается, поэтому возникла проблема доверия к продукции. Поскольку сбои во время длительного обучения модели обходятся весьма дорого. Кроме того, он не поддерживает ключевой для эффективного обучения ИИ формат FP8. Ascend 910С представляет собой сборку из двух чипов 910B. Он обеспечивает производительность на уровне 800 Тфлопс (FP16) и пропускную способность памяти 3,2 Тбайт/с, что сопоставимо с параметрами NVIDIA H100. Также Huawei представила кластер CloudMatrix 384. Наконец, проблема в собственно американских санкциях. В мае 2025 года Министерство торговли США предупредило, что использование чипов Huawei без специального разрешения может расцениваться, как нарушение экспортных ограничений — якобы в продуктах Huawei незаконно используются американские технологии. Такие ограничения особенно важны для компаний, ведущих международный бизнес — даже если они китайского происхождения. Хотя NVIDIA ограничили продажи в Китае, она по-прежнему демонстрирует рекордные показатели. По данным экспертов UBS, у компании есть перспективные проекты суммарной мощностью «десятки гигаватт» — при этом, каждый гигаватт ИИ-инфраструктуры, по заявлениям NVIDIA, приносит ей $40–50 млрд. Если взять вероятную очередь проектов на 20 ГВт с периодом реализации два-три года, то только сегмент ЦОД может обеспечить NVIDIA около $400 млрд годовой выручки. Это подчеркивает доминирующее положение компании на рынке аппаратного обеспечения для ИИ.
09.06.2025 [12:52], Руслан Авдеев
AWS запустила свой первый облачный регион на Тайване и намерена вложить $5 млрд в инфраструктуру островаAmazon Web Services (AWS) запустила на Тайване новый облачный регион. AWS Asia Pacific в Тайбэе (Taipei) — первый регион компании на острове и 15-й — в Азиатско-Тихоокеанском географическом регионе, сообщает Datacenter Dynamics. Reuters добавляет, что AWS потратит $5 млрд на развитие нового региона, чтобы поддержать строительство ЦОД и сетей. АWS анонсировала регион в июне 2024 года, отметив, что инвестирует в Тайвань «миллиарды долларов» в следующие 15 лет. AWS официально присутствует на Тайване с 2014 года, когда был открыт филиал AWS в Тайбэе. В том же году компания запустила в регионе локацию для периферийных вычислений Amazon CloudFront, вторая заработала в 2018 году. В том же году запущены две локации AWS Direct Connect, а в 2020 году заработали два AWS Outposts. В 2022 года в Тайбэе заработала специальная зона Local Zones. С запуском нового облачного региона AWS развернула на Тайване третью локацию AWS Direct Connect. Точка Direct Connect находится в дата-центре Chief Telecom HD около тайваньской столицы. По данным AWS, клиенты, подключающие свои сети к AWS на новой площадке, получают частный прямой доступ к всем публичным облачным регионам AWS Regions кроме тех, что находятся на территории материкового Китая. Локация обеспечивает выделенные каналы связи 10/100 Гбит/с. Среди первых клиентов нового региона — Gamania Group, Chunghwa Telecom, Cathay Financial Holdings. Как заявляет партнёр AWS, компания Nextlink Technology, инвестиции IT-гиганта в местную инфраструктуру помогут цифровой трансформации тайваньских компаний, ускорят развитие различных отраслей. В компании заявили, что намерены сотрудничать с AWS для дальнейшей помощи корпорациям, желающим воспользоваться преимуществами региона AWS Asia Pacific. Это локальное преимущество поможет удовлетворить потребности клиентов в локализации данных, низкой задержке доступа и высокой производительности. Google также располагает собственным регионом на острове. Гиперскейлер приобрёл 15 га в уезде Чжанхуа (Changhua County) в 2011 году, построил свой первый ЦОД в 2013 году и запустил облачный регион Google Cloud Platform (GCP) в 2014 году. В 2019 году компания объявила, что будет строить вторую площадку в городе Тайнань (Tainan). Microsoft анонсировала планы создания облачного региона Taipei Azure в 2020 году, но запуск всё ещё планируется «скоро». Ранее облачным регионом на Тайване управляла китайская Alibaba, но в 2022 году проект был свёрнут. В текущем году AWS уже запустила новые облачные регионы в Таиланде и Мексике, а в мае объявила, что намерена инвестировать $4 млрд в регион ЦОД в Чили.
09.06.2025 [09:19], Сергей Карасёв
«Аквариус» анонсировала отечественные серверы AQserv на базе Intel Xeon 6«Аквариус» сообщила о разработке инженерных образов 2U-серверов AQserv с процессорами Intel Xeon 6. Устройства предназначены для решения задач в таких областях, как ИИ, машинное обучение, большие данные и пр. Полностью технические характеристики серверов пока не раскрываются. Известно, что они имеют двухсокетное исполнение с возможностью выбора чипов Xeon 6500P/6700P (Granite Rapids) с производительными Р-ядрами и Xeon 6700E (Sierra Forest) с энергоэффективными Е-ядрами. Говорится о поддержке 32 DIMM-слотов DDR5-8000/6400/5200, восьми слотов PCIe 5.0 x16, одного слота OCP 3.0 (PCIe 5.0 x16). Дисковая подсистема представлена двумя слотами для SFF-накопителей (SATA/SAS/NVMe) и двумя E1.S-слотами (NVMe) с горячей заменой. Дисковая корзина представлена в двух вариантах: 24 × SFF (SATA/SAS/NVMe) или 12 × LFF (SATA/SAS/NVMe). За управление отвечает BMC ASPEED AST2600 с выделенным 1GbE-портом RJ45, а также фирменной прошивкой «Аквариус Командир». Устройства наделены фирменной системой управления и мониторинга, которую «Аквариус» развивает с 2020 года. Она позволяет выполнять базовые операции по обслуживанию основных компонентов серверов, а также обеспечивает расширенную поддержку служб каталогов (таких как AD, LDAP, ALD Pro) и дополнительные возможности, в том числе в плане автоматизации. Благодаря этому, по заявлениям производителя, ускоряется ввод оборудования в эксплуатацию и снижается совокупная стоимость владения (TCO). ![]() Источник изображения: «Аквариус» Серверы AQserv на базе Xeon 6 оптимизированы для ресурсоёмких нагрузок, связанных с виртуализацией, облачными платформами, аналитическими приложениями и пр. «Аквариус» отмечает, что по сравнению с машинами предыдущего поколения достигается увеличение производительности в два–три раза, а в некоторых сценариях — в пять и более раз. Такие показатели обеспечиваются благодаря новой архитектуре, большому количеству ядер, поддержке инструкций AMX, использованию оперативной памяти MRDIMM и др. «Мы начали разработку серверов на базе Xeon 6 заранее, ещё до официального выпуска первых процессоров Xeon 6 компанией Intel, чтобы наши заказчики могли первыми получить доступ к решениям нового поколения. В условиях стремительно растущих требований к IT-инфраструктуре важно опережать запросы рынка, и мы уверены, что наш новый продукт позволит бизнесу решать задачи цифровой трансформации на совершенно новом уровне эффективности», — говорит президент «Аквариус». Впрочем, Selectel анонсировала собственные серверы на базе Xeon 6 ещё в октябре прошлого года.
07.06.2025 [22:49], Владимир Мироненко
От «железа» до агентов: «К2 НейроТех» представил ПАК-AI для разработки и внедрения ИИ на предприятиях«К2 НейроТех», подразделение компании «К2Тех», представило программно-аппаратный комплекс ПАК-AI, позволяющий оперативно интегрировать ИИ в действующую ИТ-среду организации в соответствии с её требованиями и политиками безопасности. ПАК-AI включает аппаратную часть, программную платформу, а также инструменты для работы с данными, ИИ-моделями, промтами, визуализациями, API-интеграцией и т. д. Первый вариант ПАК-AI построен на базе оборудования YADRO: шесть серверов, включая ИИ-сервер с восемью GPU и сетевые коммутаторы KORNFELD. Управление ПАК-AI осуществляется через портал — специализированную GUI-платформу, служащую единой точкой входа для работы с вычислительными ресурсами, для запуска моделей, настройки среды и контроля загрузки. Платформа обеспечивает управление виртуальными машинами с ускорителями для изолированных задач и контейнерами Kubernetes для обеспечения гибкости и масштабируемости. Платформа обеспечивает доступ к предустановленному ПО: ОС (Astra Linux, CentOS, РЕД ОС), ML-инструментам, моделям и средам разработки. ![]() Источник изображений: «К2 НейроТех» Клиенту доступны функции маршрутизации данных, оркестрации, мониторинга, управления файловыми системами и каталогами, резервного копирования и обеспечения безопасности. Использование ресурсов фиксируется автоматически с отображением их стоимости в разделе биллинга. Разработчикам предоставляется весь необходимый стек инструментов для администрирования моделей. Помимо доступа к востребованным средам, таким как TensorFlow, PyTorch, Keras, HuggingFace Transformers, специалисты имеют возможность разворачивать собственные окружения в виде ВМ или контейнеров, устанавливать дополнительные библиотеки, использовать кастомные образы и конфигурации. Также предоставляется возможность построения MLOps-конвейеров с использованием MLflow, Hydra, Optuna. Прикладной слой платформы представляет собой каталог готовых агентов и моделей, разработанных К2 НейроТех. Он включает решения как на базе открытых, так и вендорских моделей, в том числе YandexGPT mini, GigaChat lite, DeepSeek, Llama, Qwen и другие. Пользователи смогут их обучать на корпоративных данных, адаптировать под бизнес-процессы и применять в прикладных сценариях: от обработки документов и генерации контента до автоматизации клиентского взаимодействия, производственной аналитики и других узкоспециализированных прикладных задач. В ПАК-AI может использоваться отечественное оборудование любых вендоров и ПО, разработанное как на основе решений из реестров Минцифры и Минпромторга России, так и на открытом ПО, что позволяет менять конфигурацию с соответствии с требованиями регуляторов. ПАК-AI реализован в формате IaaS (предоставление вычислительных ресурсов), PaaS (маркетплейс приложений для ML-команд с предоставлением доступа к нужной инфраструктуре и сервисам), SaaS (доступ к предустановленным приложениям от сторонних вендоров). Также с его помощью можно организовать внутренний сервис ИИ-как-услуга (AIaaS) для предоставления LLM и агентов.
07.06.2025 [16:24], Владимир Мироненко
AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далекоКонсорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1. MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно. Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум. MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым. Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности. На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза. «Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training. В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:
Заявки также включали три новых семейства процессоров:
Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным. Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire. Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения». NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire. В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие. Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper. Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения. В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса. Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах. NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл. AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью. В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum. AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU. Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой. |
|