Материалы по тегу: ии

10.06.2025 [12:15], Владимир Мироненко

«Это полное безумие»: SAP не видит смысла в строительстве Европой собственной облачной инфраструктуры

Кристиан Кляйн (Christian Klein), гендиректор немецкого разработчика ПО SAP, самой дорогой публичной компании Европы с рыночной стоимостью $342,4 млрд, не видит смысла в построении на континенте собственной облачной инфраструктуры в противовес созданной здесь американскими гиперскейлерами.

«Конкурентоспособность европейской автомобильной или химической промышленности не будет достигнута путем строительства 20 различных ЦОД во Франции и попыток конкурировать с американскими гиперскейлерами. Это полное безумие, и это суверенитет, реализованный совершенно неправильно», — цитирует The Register заявление Кляйна, сделанное на конференции для инвесторов на прошлой неделе, организованной инвестиционным банком BNP Paribas. «Нам нужны лучшие (сервисы) здесь, в Европе, для применения ИИ, для применения интеллектуального ПО, чтобы быть лучшими, чтобы производить намного лучшие, намного более быстрые, лучшие автомобили и быть намного более эффективными в управлении нашими цепочками поставок», — сказал он.

Кляйн отметил, что в Европе большие проблемы с ценами на энергоносители, поэтому строительство большего количества ЦОД — не лучшее решение. SAP готова предоставить клиентам различные уровни безопасности данных и суверенитета данных, но «полностью нейтральна на уровне инфраструктуры», — заявил он на конференции. С помощью ИИ и хранилища данных SAP предлагает клиентам «полный суверенитет сверху донизу», сообщил Кляйн.

 Источник изображения: Geoffrey Moffett/unsplash.com

Источник изображения: Geoffrey Moffett/unsplash.com

На фоне всё более враждебной риторики США по поводу европейской политики и норм управления европейские лидеры недавно анонсировали «Международную цифровую стратегию» (International Digital Strategy). В то время как американские гиперскейлеры AWS, Google и Microsoft пытаются развеять опасения по поводу суверенитета данных, заверяя, что способны обеспечить безопасное хранение данных европейских клиентов, некоторые европейские политики по-прежнему обеспокоены готовностью администрации США игнорировать судебные постановления, пишет The Register.

SAP не одинока в своих сомнениях по поводу целесообразности разделения на уровне облачной инфраструктуры, отметил The Register. В прошлом месяце эксперты сообщили ресурсу, что для европейских организаций «на практике почти невозможно» воспроизвести инфраструктуру, созданную крупными американскими провайдерами облачных сервисов в Европе.

Постоянный URL: http://servernews.ru/1124206
09.06.2025 [18:11], Руслан Авдеев

«Ростелеком» предложил крупным компаниям строить общие электростанции для ИИ ЦОД

По словам президента «Ростелекома» Михаила Осеевского, дефицит энергетических мощностей открывает новые возможности для сотрудничества крупных компаний. Они смогут объединить усилия для создания электростанций для ИИ ЦОД — кампусы будут строиться рядом со станциями, сообщает «Интерфакс».

В «Ростелекоме» пришли к выводу, что развитие решений на базе ИИ требует развитой вычислительной инфраструктуры, но ИИ-серверы потребляют очень много энергии. Если стандартные стойки рассчитаны приблизительно на 5 кВт, то в случае варианта с ИИ-ускорителями речь может идти уже о 50 кВт (на деле ёмкость может быть и в разы выше). При этом дата-центр на 1 тыс. стоек уже через пять лет будет «обычной историей» — речь идёт о гигантских мощностях в случае массового внедрения ИИ.

Основная идея Осеевского — ЦОД могли бы совместно заказывать электростанции и создавать общие технопарки для своих ЦОД. Например, крупнейшие банки, «Ростелеком», «Яндекс», VK и другие компании, даже будучи конкурентами в некоторых сферах, могли бы объединить силы для строительства электростанций и кампусов ЦОД при них.

 Источник изображения: Scott Blake/unsplash.com

Источник изображения: Scott Blake/unsplash.com

Осеевский заявил, что концепция предусматривает строительство электростанции, особой технологической зоны рядом с ней, на этой территории участники сами строят свои дата-центры. При этом на комплекс распространяются единые системы безопасности и связи. По прогнозам бизнесмена, проблема с получением достаточного количества энергии появится у всех компаний, которым необходимо будет строить ИИ ЦОД. Конечно, в первую очередь вопрос будет актуален для Москвы и Московской области.

По информации Международного энергетического агентства (IEA), в ближайшие три года миру потребуется много новых источников энергии, чтобы компенсировать «беспрецедентный» рост спроса. Исследование IEA показало, что энергопотребление ЦОД к 2030 году вырастет более чем вдвое, а из-за ИИ придётся сжигать больше угля и газа. В частности, эксперты прогнозируют утроение мощности коммерческих ЦОД в России к 2028 году, а в феврале сообщалось, что в стране скоро якобы наступит дефицит энергии для обучения ИИ, который сильнее всего ударит по ЦОД в Москве и Санкт-Петербурге.

Постоянный URL: http://servernews.ru/1124166
09.06.2025 [17:30], Владимир Мироненко

«Альт Сервер» 11.0: упрощённая установка наборов приложений, инструменты контейнеризации, обновлённый «Альт Домен»

«Базальт СПО» выпустила серверную операционную систему на Одиннадцатой платформе (p11 Salvia). Основные изменения коснулись установки и настройки. Впервые в одном образе доступны две редакции — «Альт Сервер» и «Альт Домен». В новом приложении «Альт Компоненты» автоматизирована установка инструментов для различных способов использования сервера.

Обновлены все ключевые составляющие, в том числе Samba 4.20, добавлена контейнеризация. Переход на актуальную криптографическую библиотеку OpenSSL 3.3 усилил защищённость системы.

Две редакции в одном образе

Стандартно система устанавливается в редакции «Альт Сервер». Это универсальное решение для файловых, веб-серверов, СУБД и других задач.

При наличии лицензии на «Альт Домен» необходимо изменить редакцию с помощью консольной утилиты (alteratorctl) или в настройках системы (alt-systeminfo), если была включена поддержка графической среды.

«Альт Домен» — это платформа на базе Samba AD с инструментами управления инфраструктурой (ADMC, GPUI, gpupdate).

 Источник изображения: «Базальт СПО»

Источник изображения: «Базальт СПО»

Установка и настройка

Операционная система по умолчанию устанавливается в базовой конфигурации. Дополнительно можно выбрать:

  • графическую среду GNOME. При выборе этого пункта вместо сетевой службы etcnet установится NetworkManager;
  • ПО для клиентской инфраструктуры Samba AD. Оно потребуется при включении сервера в существующий домен, например, в качестве файлового сервера или другой доменной службы;
  • поддержку работы в виртуальных окружениях — в случае установки на виртуальную машину;
  • управление через web-интерфейс — установится привычный Альтератор-web.

«Альт Компоненты» — автоматизированная установка сервисов

Новый инструмент «Альт Компоненты» автоматизирует установку служб, таких как web-сервер, файловый сервер, контейнеризация, и наборов приложений. Настройка компонентов доступна через графический интерфейс или в консольном режиме, если система работает без графической среды, в том числе удалённо. После этого необходимые пакеты устанавливаются автоматически.

Набор доступных компонентов зависит от выбранной редакции. Устанавливать и удалять их можно в любой момент. Администраторы также могут создавать и добавлять собственные компоненты.

«Альт Домен»

Ключевой компонент «Альт Домена» Samba AD обновлен до версии 4.20. Основные изменения:

  • улучшено шифрование SMB3, что обеспечивает более надёжную защиту данных при передаче по сети;
  • доработаны механизмы аутентификации;
  • оптимизирована работа в сетях с высокой задержкой, что значительно увеличило скорость передачи файлов. Это ускоряет взаимодействие с удалёнными серверами или при ограниченной пропускной способности сети.

Контейнеризация: инструменты для DevOps, гибридных облаков и микросервисов

В «Альт Сервере» 11.0 появились инструменты для полного цикла работы с контейнерами — от разработки (Buildah) до промышленного развертывания (Kubernetes через CRI-O). Операционная система теперь может стать основой для выполнения задач DevOps, гибридных облаков и распределенных микросервисных систем.

Система содержит 4 новых компонента для контейнеризации: Docker, Podman, Kubernetes и Linux Container.

Эти компоненты перенесены в «Альт Сервер» из «Альт Виртуализации».

Резервное копирование

Proxmox Backup Server обновлён до версии 3.3.3. Основные новшества:

  • поддержка автоматизированной установки, что значительно облегчает настройку резервных серверов в крупных средах и сокращает ручное вмешательство при масштабировании инфраструктуры;
  • полноценная интеграция службы Ceph crash с Proxmox Ceph server. Исправлены проблемы с отчетами о сбоях и мониторингом состояния в кластерах Ceph. Эти повышает надёжность резервного копирования при использовании Proxmox VE совместно с Ceph;
  • поддержка съемных носителей и push-синхронизации.

Базы данных

PostgreSQL обновлён до версии 17, стал более удобным для разработчиков и администраторов.

Новая система управления памятью для операций VACUUM снижает потребление памяти и ускоряет работу, особенно в крупных базах данных.

Утилита pg_basebackup теперь позволяет создавать резервные копии, содержащие только изменения, внесённые с момента последнего сохранения полной копии. Это существенно ускоряет работу и экономит место на диске или в облаке.

Улучшена логическая репликация за счет синхронизации логических слотов между мастером и репликой, что упрощает управление сложными конфигурациями.

Безопасность и защита данных

Улучшены производительность и стабильность криптографической библиотеки OpenSSL 3.3.3. Переработан API, что упрощает интеграцию OpenSSL в приложения и снижает вероятность ошибок, которые могли бы привести к уязвимостям.

Сканер уязвимостей trivy позволяет контролировать безопасность системы, в том числе в контейнерах.

Архитектуры

«Альт Сервер» 11.0 совместим с процессорами на архитектурах x86_64 и AArch64. Идёт работа над обеспечением совместимости с Эльбрус V6.

Условия распространения

«Альт Сервер» 11.0 поступает в продажу с момента выпуска. Версия 10.4 также доступна для покупки до конца 2025 года. Условия технической поддержки и лицензирования указаны на странице продукта.


Справка

«Базальт СПО» — российский разработчик свободного программного обеспечения. В продуктовой линейке — операционные системы семейства «Альт», технологический комплекс «Альт Платформа» для сборки и выпуска ПО, инфраструктурные решения для централизованного управления конфигурациями компьютеров и пользователей, виртуальными рабочим столами, облачной виртуализацией, создания и управления контейнерами.

Продукты включены в Единый реестр российского ПО, совместимы более чем c 6000 программам и оборудования из реестров Минцифры РФ и Минпромторга РФ. Защищённая ОС «Альт СП» сертифицирована ФСТЭК России.

Все решения создаются на базе собственной инфраструктуры разработки, которую компания развивает с 2001 года. Инфраструктура находится на территории и под юрисдикцией РФ, включает независимый репозиторий проекта «Сизиф».

С 2004 года «Базальт СПО» проводит Ежегодную конференцию разработчиков свободных программ.

www.basealt.ru, sales@basealt.ru, @basealtspo.

Постоянный URL: http://servernews.ru/1124173
09.06.2025 [16:25], Сергей Карасёв

Техно-форум в современном формате: Orion soft запустил комьюнити для пользователей виртуализации zVirt

Разработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft запустил комьюнити для пользователей системы виртуализации zVirt. В нём технические специалисты из разных отраслей смогут обмениваться опытом и лучшими практиками работы с платформой, предлагать идеи по разработке новых функций и давать обратную связь напрямую команде продукта. Участие в комьюнити бесплатное, подать заявку на вступление можно на сайте.

«По итогам 2024 года база заказчиков zVirt достигла более 430 компаний. Они заинтересованы в том, чтобы решение быстрее развивалось и дополнялось нужной им функциональностью, мы получаем от них много обратной связи. Поэтому мы решили создать хаб, где вопросы нашей команде можно задать напрямую. По нашему опыту, именно такой открытый диалог лучше всего подсвечивает точки роста продукта и помогает ему быстрее развиваться», — говорит Максим Березин, директор по развитию бизнеса Orion soft.

Участники комьюнити будут первыми узнавать о готовящихся фичах и актуальных обновлениях продукта. Они могут напрямую влиять на его развитие: лидеры комьюнити собирают пожелания по функциям, которых не хватает в zVirt, и передают в работу технической команде в режиме online.

 Источник изображения: Orion soft

Источник изображения: Orion soft

«Мы хотим, чтобы комьюнити стало площадкой, где можно не только найти решение технической проблемы или предложить идеи по улучшению продукта, но и пообщаться на свободные темы, обсудить новости и актуальные вопросы в сфере виртуализации. Как на техно-форумах, с которых начиналось развитие IT-сообщества в России, только в современном формате и более продуктивно. Лидеры комьюнити — технические специалисты из команды zVirt — уже отвечают на вопросы участников в нескольких тематических "комнатах"», — добавляет лидер комьюнити zVirt Александр Гавриленко.

Участники могут свободно делиться опытом использования платформы и своими вариантами решения технических вопросов. Комьюнити станет для них большим информационным хабом о тонкостях работы различных функций в zVirt и практиках работы с решением в разных отраслях.

Следующим шагом в развитии комьюнити станут очные встречи, на которых специалисты Orion soft расскажут подробности о готовящихся релизах продукта, будут демонстрировать возможности системы и отвечать на актуальные вопросы по её эксплуатации.


О продукте

zVirt — защищённая система виртуализации серверов, дисков и сетей. Русскоязычный web-интерфейс даёт возможность из единой консоли управлять серверами виртуализации, хранилищами, кластерами, виртуальными машинами и другими объектами. zVirt обладает крупнейшей инсталляционной базой в стране — более чем 12 000 хостов — и базой из более чем 430 заказчиков. Продукт зарегистрирован в Реестре российского ПО и является лидером в части импортозамещения ПО для виртуализации, уже занимая 40 % мощностей, работавших на VMware. Также доступна редакция zVirt Max, сертифицированная по требованиям ФСТЭК.

Постоянный URL: http://servernews.ru/1124007
09.06.2025 [14:27], Руслан Авдеев

Евросоюз ограничит использование воды дата-центрами

Европейский союз обнародовал планы по повышению устойчивости всего блока к засухам и улучшения качества воды. В Еврокомиссии подчёркивают, что около трети земель Европы ежегодно сталкиваются с нехваткой воды, поэтому новая стратегия появилась вполне своевременно. В числе прочего предусмотрено развитие контроля за использованием водных ресурсов IT-сектором, сообщает Bloomberg.

Работать над учреждением стандартов производительности для ограничения использования водных ресурсов в дата-центрах будет Еврокомиссия — как свидетельствуют материалы стратегии водной экоустойчивости, представленной в прошлую среду, регион столкнётся с вероятным дефицитом воды в ближайшие десятилетия. Общая цель ЕС — повысить эффективность использования воды минимум на 10 % к 2030 году. В последние годы нехватка воды ударила по Евросоюзу, поскольку повышение летних температур не могло не отразиться на качестве поставок этого важнейшего ресурса.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Засухи нанесли серьёзный ущерб атомной энергетике Франции и усложнили доставку товаров по обмелевшей реке Рейн — одному из ключевых торговых путей Европы. При этом управление водными ресурсами в Евросоюзе фрагментировано, в числе прочего ему мешают запутанные системы водоснабжения и стареющие резервуары/водохранилища.

В апреле уже сообщалось, что доступ к чистой воде становится одной из главных забот для операторов ИИ ЦОД всего мира. В мае было анонсировано, что в рамках стратегии ЕС по водной экоустойчивости Water Resilience Strategy Евросоюз разработает новые лимиты потребления воды дата-центрами. По-видимому, они буду жёстче обозначенных ранее.

Постоянный URL: http://servernews.ru/1124164
09.06.2025 [14:02], Руслан Авдеев

Перегрев, плохое ПО и сила привычки: китайские компании не горят желанием закупать ИИ-ускорители Huawei

Несмотря на дефицит передовых ИИ-ускорителей на китайском рынке, китайская компания Huawei, выпустившая модель Ascend 910C, может столкнуться с проблемами при её продвижении. Она рассчитывала помочь китайскому бизнесу в преодолении санкций на передовые полупроводники, но перспективы нового ускорителя остаются под вопросом, сообщает The Information.

Китайские гиганты вроде ByteDance, Alibaba и Tencent всё ещё не разместили крупных заказов на новые ускорители. Основная причина в том, что экосистема NVIDIA доминирует во всём мире (в частности, речь идёт о программной платформе CUDA), а решения Huawei недостаточно развиты. В результате компания продвигает продажи государственным структурам (при поддержке самих властей КНР) — это косвенно свидетельствует о сложности выхода на массовый рынок.

Китайский бизнес годами инвестировал в NVIDIA CUDA для ИИ- и HPC-задач. Соответствующий инструментарий, библиотеки и сообщество разработчиков — настолько развитая экосистема, что альтернатива в лице Huawei CANN (Compute Architecture for Neural Networks) на её фоне выглядит весьма слабо. У многих компаний всё ещё хранятся огромные запасы ускорителей NVIDIA, накопленные в преддверии очередного раунда антикитайских санкций, поэтому у их владельцев нет стимула переходить на новые и незнакомые решения.

Они скорее предпочтут оптимизировать программный стек, как это сделала DeepSeek, чтобы повысить утилизацию имеющегося «железа». Если бы, например, та же DeepSeek перешла на ускорители Huawei, это подтолкнуло бы к переходу и других разработчиков, но пока этого не происходит. Кроме того, некоторые компании вроде Tencent и Alibaba не желают поддерживать продукты конкурентов, что усложняет Huawei продвижение её ускорителей.

 Источник изображения: Huawei

Источник изображения: Huawei

Есть и технические проблемы. Самый передовой ускоритель Huawei Ascend 910C периодически перегревается, поэтому возникла проблема доверия к продукции. Поскольку сбои во время длительного обучения модели обходятся весьма дорого. Кроме того, он не поддерживает ключевой для эффективного обучения ИИ формат FP8. Ascend 910С представляет собой сборку из двух чипов 910B. Он обеспечивает производительность на уровне 800 Тфлопс (FP16) и пропускную способность памяти 3,2 Тбайт/с, что сопоставимо с параметрами NVIDIA H100. Также Huawei представила кластер CloudMatrix 384.

Наконец, проблема в собственно американских санкциях. В мае 2025 года Министерство торговли США предупредило, что использование чипов Huawei без специального разрешения может расцениваться, как нарушение экспортных ограничений — якобы в продуктах Huawei незаконно используются американские технологии. Такие ограничения особенно важны для компаний, ведущих международный бизнес — даже если они китайского происхождения.

Хотя NVIDIA ограничили продажи в Китае, она по-прежнему демонстрирует рекордные показатели. По данным экспертов UBS, у компании есть перспективные проекты суммарной мощностью «десятки гигаватт» — при этом, каждый гигаватт ИИ-инфраструктуры, по заявлениям NVIDIA, приносит ей $40–50 млрд. Если взять вероятную очередь проектов на 20 ГВт с периодом реализации два-три года, то только сегмент ЦОД может обеспечить NVIDIA около $400 млрд годовой выручки. Это подчеркивает доминирующее положение компании на рынке аппаратного обеспечения для ИИ.

Постоянный URL: http://servernews.ru/1124158
09.06.2025 [12:52], Руслан Авдеев

AWS запустила свой первый облачный регион на Тайване и намерена вложить $5 млрд в инфраструктуру острова

Amazon Web Services (AWS) запустила на Тайване новый облачный регион. AWS Asia Pacific в Тайбэе (Taipei) — первый регион компании на острове и 15-й — в Азиатско-Тихоокеанском географическом регионе, сообщает Datacenter Dynamics. Reuters добавляет, что AWS потратит $5 млрд на развитие нового региона, чтобы поддержать строительство ЦОД и сетей. АWS анонсировала регион в июне 2024 года, отметив, что инвестирует в Тайвань «миллиарды долларов» в следующие 15 лет.

AWS официально присутствует на Тайване с 2014 года, когда был открыт филиал AWS в Тайбэе. В том же году компания запустила в регионе локацию для периферийных вычислений Amazon CloudFront, вторая заработала в 2018 году. В том же году запущены две локации AWS Direct Connect, а в 2020 году заработали два AWS Outposts. В 2022 года в Тайбэе заработала специальная зона Local Zones.

С запуском нового облачного региона AWS развернула на Тайване третью локацию AWS Direct Connect. Точка Direct Connect находится в дата-центре Chief Telecom HD около тайваньской столицы. По данным AWS, клиенты, подключающие свои сети к AWS на новой площадке, получают частный прямой доступ к всем публичным облачным регионам AWS Regions кроме тех, что находятся на территории материкового Китая. Локация обеспечивает выделенные каналы связи 10/100 Гбит/с.

 Источник изображения: Jack Brind/unsplash.com

Источник изображения: Jack Brind/unsplash.com

Среди первых клиентов нового региона — Gamania Group, Chunghwa Telecom, Cathay Financial Holdings. Как заявляет партнёр AWS, компания Nextlink Technology, инвестиции IT-гиганта в местную инфраструктуру помогут цифровой трансформации тайваньских компаний, ускорят развитие различных отраслей. В компании заявили, что намерены сотрудничать с AWS для дальнейшей помощи корпорациям, желающим воспользоваться преимуществами региона AWS Asia Pacific. Это локальное преимущество поможет удовлетворить потребности клиентов в локализации данных, низкой задержке доступа и высокой производительности.

Google также располагает собственным регионом на острове. Гиперскейлер приобрёл 15 га в уезде Чжанхуа (Changhua County) в 2011 году, построил свой первый ЦОД в 2013 году и запустил облачный регион Google Cloud Platform (GCP) в 2014 году. В 2019 году компания объявила, что будет строить вторую площадку в городе Тайнань (Tainan). Microsoft анонсировала планы создания облачного региона Taipei Azure в 2020 году, но запуск всё ещё планируется «скоро». Ранее облачным регионом на Тайване управляла китайская Alibaba, но в 2022 году проект был свёрнут.

В текущем году AWS уже запустила новые облачные регионы в Таиланде и Мексике, а в мае объявила, что намерена инвестировать $4 млрд в регион ЦОД в Чили.

Постоянный URL: http://servernews.ru/1124152
09.06.2025 [09:19], Сергей Карасёв

«Аквариус» анонсировала отечественные серверы AQserv на базе Intel Xeon 6

«Аквариус» сообщила о разработке инженерных образов 2U-серверов AQserv с процессорами Intel Xeon 6. Устройства предназначены для решения задач в таких областях, как ИИ, машинное обучение, большие данные и пр.

Полностью технические характеристики серверов пока не раскрываются. Известно, что они имеют двухсокетное исполнение с возможностью выбора чипов Xeon 6500P/6700P (Granite Rapids) с производительными Р-ядрами и Xeon 6700E (Sierra Forest) с энергоэффективными Е-ядрами. Говорится о поддержке 32 DIMM-слотов DDR5-8000/6400/5200, восьми слотов PCIe 5.0 x16, одного слота OCP 3.0 (PCIe 5.0 x16).

Дисковая подсистема представлена двумя слотами для SFF-накопителей (SATA/SAS/NVMe) и двумя E1.S-слотами (NVMe) с горячей заменой. Дисковая корзина представлена в двух вариантах: 24 × SFF (SATA/SAS/NVMe) или 12 × LFF (SATA/SAS/NVMe). За управление отвечает BMC ASPEED AST2600 с выделенным 1GbE-портом RJ45, а также фирменной прошивкой «Аквариус Командир».

Устройства наделены фирменной системой управления и мониторинга, которую «Аквариус» развивает с 2020 года. Она позволяет выполнять базовые операции по обслуживанию основных компонентов серверов, а также обеспечивает расширенную поддержку служб каталогов (таких как AD, LDAP, ALD Pro) и дополнительные возможности, в том числе в плане автоматизации. Благодаря этому, по заявлениям производителя, ускоряется ввод оборудования в эксплуатацию и снижается совокупная стоимость владения (TCO).

 Источник изображения: «Аквариус»

Источник изображения: «Аквариус»

Серверы AQserv на базе Xeon 6 оптимизированы для ресурсоёмких нагрузок, связанных с виртуализацией, облачными платформами, аналитическими приложениями и пр. «Аквариус» отмечает, что по сравнению с машинами предыдущего поколения достигается увеличение производительности в два–три раза, а в некоторых сценариях — в пять и более раз. Такие показатели обеспечиваются благодаря новой архитектуре, большому количеству ядер, поддержке инструкций AMX, использованию оперативной памяти MRDIMM и др.

 Источник изображения: «Аквариус»

Источник изображения: «Аквариус»

«Мы начали разработку серверов на базе Xeon 6 заранее, ещё до официального выпуска первых процессоров Xeon 6 компанией Intel, чтобы наши заказчики могли первыми получить доступ к решениям нового поколения. В условиях стремительно растущих требований к IT-инфраструктуре важно опережать запросы рынка, и мы уверены, что наш новый продукт позволит бизнесу решать задачи цифровой трансформации на совершенно новом уровне эффективности», — говорит президент «Аквариус». Впрочем, Selectel анонсировала собственные серверы на базе Xeon 6 ещё в октябре прошлого года.

Постоянный URL: http://servernews.ru/1124113
07.06.2025 [22:49], Владимир Мироненко

От «железа» до агентов: «К2 НейроТех» представил ПАК-AI для разработки и внедрения ИИ на предприятиях

«К2 НейроТех», подразделение компании «К2Тех», представило программно-аппаратный комплекс ПАК-AI, позволяющий оперативно интегрировать ИИ в действующую ИТ-среду организации в соответствии с её требованиями и политиками безопасности. ПАК-AI включает аппаратную часть, программную платформу, а также инструменты для работы с данными, ИИ-моделями, промтами, визуализациями, API-интеграцией и т. д. Первый вариант ПАК-AI построен на базе оборудования YADRO: шесть серверов, включая ИИ-сервер с восемью GPU и сетевые коммутаторы KORNFELD.

Управление ПАК-AI осуществляется через портал — специализированную GUI-платформу, служащую единой точкой входа для работы с вычислительными ресурсами, для запуска моделей, настройки среды и контроля загрузки. Платформа обеспечивает управление виртуальными машинами с ускорителями для изолированных задач и контейнерами Kubernetes для обеспечения гибкости и масштабируемости. Платформа обеспечивает доступ к предустановленному ПО: ОС (Astra Linux, CentOS, РЕД ОС), ML-инструментам, моделям и средам разработки.

 Источник изображений: «К2 НейроТех»

Источник изображений: «К2 НейроТех»

Клиенту доступны функции маршрутизации данных, оркестрации, мониторинга, управления файловыми системами и каталогами, резервного копирования и обеспечения безопасности. Использование ресурсов фиксируется автоматически с отображением их стоимости в разделе биллинга.

Разработчикам предоставляется весь необходимый стек инструментов для администрирования моделей. Помимо доступа к востребованным средам, таким как TensorFlow, PyTorch, Keras, HuggingFace Transformers, специалисты имеют возможность разворачивать собственные окружения в виде ВМ или контейнеров, устанавливать дополнительные библиотеки, использовать кастомные образы и конфигурации. Также предоставляется возможность построения MLOps-конвейеров с использованием MLflow, Hydra, Optuna.

Прикладной слой платформы представляет собой каталог готовых агентов и моделей, разработанных К2 НейроТех. Он включает решения как на базе открытых, так и вендорских моделей, в том числе YandexGPT mini, GigaChat lite, DeepSeek, Llama, Qwen и другие. Пользователи смогут их обучать на корпоративных данных, адаптировать под бизнес-процессы и применять в прикладных сценариях: от обработки документов и генерации контента до автоматизации клиентского взаимодействия, производственной аналитики и других узкоспециализированных прикладных задач.

В ПАК-AI может использоваться отечественное оборудование любых вендоров и ПО, разработанное как на основе решений из реестров Минцифры и Минпромторга России, так и на открытом ПО, что позволяет менять конфигурацию с соответствии с требованиями регуляторов. ПАК-AI реализован в формате IaaS (предоставление вычислительных ресурсов), PaaS (маркетплейс приложений для ML-команд с предоставлением доступа к нужной инфраструктуре и сервисам), SaaS (доступ к предустановленным приложениям от сторонних вендоров). Также с его помощью можно организовать внутренний сервис ИИ-как-услуга (AIaaS) для предоставления LLM и агентов.

Постоянный URL: http://servernews.ru/1124101
07.06.2025 [16:24], Владимир Мироненко

AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далеко

Консорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1.

MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно.

Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым.

Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности.

 Источник изображений: MLCommons

Источник изображений: MLCommons

На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза.

«Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training.

В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:

  • AMD Instinct MI300X (192 Гбайт HBM3);
  • AMD Instinct MI325X (256 Гбайт HBM3e);
  • NVIDIA Blackwell GPU (GB200);
  • NVIDIA Blackwell GPU (B200-SXM, 180 Гбайт HBM3e);
  • TPU v6 Trillium.

Заявки также включали три новых семейства процессоров:

  • Процессор AMD EPYC 9005 (Turin);
  • Процессор Intel Xeon 6P (Granite Rapids);
  • Arm Neoverse V2 (в составе NVIDIA GB200)

Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire.

Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения».

NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire.

В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие.

Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper.

Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения.

В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса.

Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах.

NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл.

 Источник изображений: AMD

Источник изображений: AMD

AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью.

В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum.

AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU.

Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.

Постоянный URL: http://servernews.ru/1124073
Система Orphus