Материалы по тегу: software

14.06.2025 [17:04], Владимир Мироненко

Scale AI получила от Meta✴ более $14 млрд, но потеряла гендиректора и рискует лишиться крупных контрактов с Gooogle, Microsoft, OpenAI и xAI

ИИ-стартап Scale AI, занимающийся подготовкой, оценкой и разметкой данных для обучения ИИ-моделей, объявил о крупной инвестиционной сделке с Meta, по результатм которой его рыночная стоимость превысила $29 млрд. Сделка существенно расширит коммерческие отношения Scale и Meta. Также её условиями предусмотрен переход гендиректора Scale AI Александра Ванга (Alexandr Wang) и ещё ряда сотрудников в Meta.

Вместо Ванга, который останется в совете директоров стартапа, временно исполняющим обязанности гендиректора Scale AI назначен Джейсон Дроги (Jason Droege), директор по стратегии, имеющий «20-летний опыт создания и руководства знаковыми технологическими компаниями, включая Uber Eats и Axon». Представитель Scale AI уточнил в интервью ресурсу CNBC, что Meta вложит в компанию $14,3 млрд, в результате чего получит в ней 49-% долю акций, но без права голоса.

«Мы углубим совместную работу по созданию данных для ИИ-моделей, а Александр Ванг присоединится к Meta для работы над нашими усилиями по созданию суперинтеллекта», — рассказал представитель Meta. Переманивая Ванга, который не имея опыта в R&D, сумел с нуля создать крупный бизнес в сфере ИИ, гендиректор Meta Марк Цукерберг (Mark Zuckerberg) делает ставку на его организаторские способности, полагая, что укрепить позиции Meta в сфере ИИ под силу опытному бизнес-лидеру, больше похожему на Сэма Альтмана (Sam Altman), чем на учёных, стоящих у руля большинства конкурирующих ИИ-лабораторий, пишет Reuters.

 Источник изображения: Scale AI

Источник изображения: Scale AI

Инвестиции в Scale AI станут вторыми по величине в истории Meta после приобретения WhatsApp за $19 млрд. Однако сделка может оказаться не совсем выгодной для Scale AI, предупреждает Reuters, поскольку многие компании, являющиеся клиентами Scale AI, могут отказаться от дальнейшего сотрудничества из-за опасений по поводу того, что Ванг, оставаясь в совете директоров стартапа, будет предоставлять Meta внутреннюю информацию о приоритетах конкурентов. Представитель Scale AI заверил, что инвестиции Meta и переход Ванга не повлияют на клиентов стартапа, и что Meta не будет иметь доступа к его какой-либо деловой информации или данным.

Тем не менее, по словам источников Reuters, Google, один их крупнейших клиентов Scale AI, планирует разорвать отношения со стартапом. Источники сообщили, что Google планировала потратить $200 млн только в этом году на услуги Scale AI по подгтовке и разметке данных людьми. После объявления о сделке поисковый гигант уже провёл переговоры с несколькими конкурентами Scale AI. Scale AI получила в 2024 году размере $870 млн, из них около около $150 млн от Google, утверждают источники.

По их словам, другие крупные клиенты, включая Microsoft, OpenAI и xAI, тоже планируют отказаться от услуг Scale AI. Официальных подтверждений этой информации пока не поступало. А финансовый директор OpenAI заявил в пятницу, что компания, которой источники тоже приписывают намерение отказаться от услуг Scale AI, продолжит работать со стартапом, как с одним из своих многочисленных поставщиков данных.

Постоянный URL: http://servernews.ru/1124430
12.06.2025 [09:59], Владимир Мироненко

Безопасность операционных систем в контексте искусственного интеллекта обсудят на конференции OS DAY 2025

XII научно-практическая конференция OS DAY «Изолированные среды исполнения в современных ОС» состоится в Москве 19–20 июня 2025 года. Центральной темой для обсуждения на ней станут современные методы построения изолированных сред исполнения в операционных системах. В конференции примут участие специалисты в области системного программирования, создатели российских операционных платформ, их коллеги-разработчики, заказчики российского ПО и представители регулирующих органов. Они будут обсуждать методики разграничения полномочий, технологии защиты от компьютерных атак, способы оптимизации вычислительных ресурсов, различные аспекты изоляции и другие актуальные вопросы системного программирования.

В ходе OS DAY 2025 состоится круглый стол «Безопасность операционных систем в контексте искусственного интеллекта». Его участники обсудят, какие вызовы возникают сегодня в связи с широким применением технологий ИИ в программировании, какие можно обозначить проблемы, ожидающие российскую ИТ-отрасль, и каковы могут быть пути их разрешения. Будут затронуты темы операционных систем как платформ для развития ИИ, использования искусственного интеллекта в разработке ОС, другие актуальные задачи системного программирования, связанные с широким проникновением ИИ в сферу разработки ПО.

 Источник изображения: OS DAY

Источник изображения: OS DAY

Участники круглого стола

  • Ведущий — Андрей Духвалов, вице-президент, директор департамента перспективных технологий, «Лаборатория Касперского»;
  • Сергей Аносов, начальник отдела продуктовой экспертизы, Открытая мобильная платформа;
  • Анна Кан, заместитель генерального директора, ВИНИТИ РАН;
  • Николай Костригин, руководитель отдела безопасности разработки ПО, «Базальт СПО»;
  • Михаил Новоселов, ведущий системный инженер-программист, НТЦ ИТ РОСА;
  • Константин Сорокин, руководитель исследовательской группы по разработке и применению ИИ-инструментов в программной инженерии, ИСП РАН;
  • Сергей Муравьёв, начальник отдела портирования программного обеспечения, НТП «Криптософт»;
  • Егор Смирнов, руководитель проектов по внедрению ИИ, «Ред софт».

Параллельно с основной программой OS DAY 2025 пройдет выставка технологий, где российские производители операционных систем представят новейшие решения в области системного ПО.

Конференцию организует консорциум OS DAY: ИСП РАН, «Лаборатория Касперского», НТП «Криптософт», «Открытая мобильная платформа», «Базальт СПО», «Ред Софт», «НТЦ ИТ РОСА» и НИЦ «Институт имени Н.Е. Жуковского». Конференция проводится при поддержке: РАН, ФСТЭК России, ВИНИТИ РАН, РЭУ им. Г.В. Плеханова, АРПП «Отечественный софт», НП «РУССОФТ».

Время и место проведения: 19–20 июня 2025 года, РЭУ им. Г.В. Плеханова. Адрес: Москва, ул. Большая Серпуховская, д. 11, корпус 9, этаж 8, «Точка-кипения РЭУ». Для участия просьба зарегистрироваться на сайте https://osday.ru.

Регистрация на очное участие заканчивается 14 июня. Зарегистрированным участникам, выбравшим формат онлайн, будет предоставлен доступ на адрес электронной почты, указанный при регистрации. По дополнительным вопросам просьба обращаться: Анна Новомлинская, исполнительный директор OS DAY, an@ispras.ru.


Научно-практическая конференция OS DAY проводится в России ежегодно с 2014 г. Это место консолидации российских разработчиков операционных платформ и поиска перспектив для совместной деятельности. Задачи конференции – определить перспективные направления и технологии в сфере разработки операционных систем, обозначить главные вызовы современной ИТ-отрасли и помочь разработчикам, производителям и заказчикам обменяться опытом. Организует конференцию консорциум OS DAY, в который входят: ИСП РАН, АО «Лаборатория Касперского», НТП «Криптософт», «Открытая мобильная платформа», «Базальт СПО», «РЕД СОФТ», НТЦ ИТ РОСА и НИЦ «Институт имени Н.Е. Жуковского». Целью создания сообщества организаторов было определить задачи и возможности России в области разработки операционных платформ, выделить перспективные технологии, обменяться опытом, обозначить вызовы ИТ-отрасли и направления движения.

Постоянный URL: http://servernews.ru/1124258
11.06.2025 [18:02], Андрей Крупин

Структура «Ростеха» приобрела 30-% долю в уставном капитале «Ред Софт»

Входящая в государственную корпорацию «Ростех» компания «РТ-Ред» приобрела 30 % в уставном капитале разработчика программных продуктов «Ред Софт» в рамках соглашения о сотрудничестве, направленном на укрепление технологического суверенитета в IT-сфере и продвижение отечественного ПО на внутреннем и внешнем рынках. Сумма сделки не называется.

«Ред Софт» ведёт деятельность с 2014 года и занимается разработкой решений для корпоративного сегмента. В числе ключевых продуктов компании: операционная система «Ред ОС», система управления базами данных «Ред база данных», система управления виртуализацией серверов и рабочих станций «Ред виртуализация», система централизованного управления IT-инфраструктурой «Ред Адм», платформа для быстрой разработки информационных систем различных классов «Ред Платформа» и прочие решения. В числе заказчиков разработчика — госкорпорации, органы государственной власти, коммерческие предприятия из различных отраслей экономики.

 Источник изображения: пресс-служба госкорпорации «Ростех» / rostec.ru

Источник изображения: пресс-служба госкорпорации «Ростех» / rostec.ru

Сообщается, что основным направлением сотрудничества компаний станет совместное развитие экосистемы инфраструктурных и прикладных решений «Ред Софт», создание комплексной линейки импортозамещающих решений в области корпоративного программного обеспечения и программно-аппаратных комплексов, повышающих эффективность бизнес-процессов.

«Партнёрство с «Ростехом» позволит «Ред Софт» ускорить темпы развития продуктового портфеля, реализовать новые масштабные проекты вместе с технологическими партнёрами, а также предложить российскому и международному рынку больше эффективных решений, в том числе превосходящих зарубежные аналоги. Новый уровень сотрудничества будет способствовать дальнейшему достижению целей импортозамещения в сфере IT, формированию условий для повышения темпов экономического роста и достижения Россией лидирующих позиций в области высоких технологий», — отметил генеральный директор «Ред Софт» Максим Анисимов.

Постоянный URL: http://servernews.ru/1124297
09.06.2025 [17:30], Владимир Мироненко

«Альт Сервер» 11.0: упрощённая установка наборов приложений, инструменты контейнеризации, обновлённый «Альт Домен»

«Базальт СПО» выпустила серверную операционную систему на Одиннадцатой платформе (p11 Salvia). Основные изменения коснулись установки и настройки. Впервые в одном образе доступны две редакции — «Альт Сервер» и «Альт Домен». В новом приложении «Альт Компоненты» автоматизирована установка инструментов для различных способов использования сервера.

Обновлены все ключевые составляющие, в том числе Samba 4.20, добавлена контейнеризация. Переход на актуальную криптографическую библиотеку OpenSSL 3.3 усилил защищённость системы.

Две редакции в одном образе

Стандартно система устанавливается в редакции «Альт Сервер». Это универсальное решение для файловых, веб-серверов, СУБД и других задач.

При наличии лицензии на «Альт Домен» необходимо изменить редакцию с помощью консольной утилиты (alteratorctl) или в настройках системы (alt-systeminfo), если была включена поддержка графической среды.

«Альт Домен» — это платформа на базе Samba AD с инструментами управления инфраструктурой (ADMC, GPUI, gpupdate).

 Источник изображения: «Базальт СПО»

Источник изображения: «Базальт СПО»

Установка и настройка

Операционная система по умолчанию устанавливается в базовой конфигурации. Дополнительно можно выбрать:

  • графическую среду GNOME. При выборе этого пункта вместо сетевой службы etcnet установится NetworkManager;
  • ПО для клиентской инфраструктуры Samba AD. Оно потребуется при включении сервера в существующий домен, например, в качестве файлового сервера или другой доменной службы;
  • поддержку работы в виртуальных окружениях — в случае установки на виртуальную машину;
  • управление через web-интерфейс — установится привычный Альтератор-web.

«Альт Компоненты» — автоматизированная установка сервисов

Новый инструмент «Альт Компоненты» автоматизирует установку служб, таких как web-сервер, файловый сервер, контейнеризация, и наборов приложений. Настройка компонентов доступна через графический интерфейс или в консольном режиме, если система работает без графической среды, в том числе удалённо. После этого необходимые пакеты устанавливаются автоматически.

Набор доступных компонентов зависит от выбранной редакции. Устанавливать и удалять их можно в любой момент. Администраторы также могут создавать и добавлять собственные компоненты.

«Альт Домен»

Ключевой компонент «Альт Домена» Samba AD обновлен до версии 4.20. Основные изменения:

  • улучшено шифрование SMB3, что обеспечивает более надёжную защиту данных при передаче по сети;
  • доработаны механизмы аутентификации;
  • оптимизирована работа в сетях с высокой задержкой, что значительно увеличило скорость передачи файлов. Это ускоряет взаимодействие с удалёнными серверами или при ограниченной пропускной способности сети.

Контейнеризация: инструменты для DevOps, гибридных облаков и микросервисов

В «Альт Сервере» 11.0 появились инструменты для полного цикла работы с контейнерами — от разработки (Buildah) до промышленного развертывания (Kubernetes через CRI-O). Операционная система теперь может стать основой для выполнения задач DevOps, гибридных облаков и распределенных микросервисных систем.

Система содержит 4 новых компонента для контейнеризации: Docker, Podman, Kubernetes и Linux Container.

Эти компоненты перенесены в «Альт Сервер» из «Альт Виртуализации».

Резервное копирование

Proxmox Backup Server обновлён до версии 3.3.3. Основные новшества:

  • поддержка автоматизированной установки, что значительно облегчает настройку резервных серверов в крупных средах и сокращает ручное вмешательство при масштабировании инфраструктуры;
  • полноценная интеграция службы Ceph crash с Proxmox Ceph server. Исправлены проблемы с отчетами о сбоях и мониторингом состояния в кластерах Ceph. Эти повышает надёжность резервного копирования при использовании Proxmox VE совместно с Ceph;
  • поддержка съемных носителей и push-синхронизации.

Базы данных

PostgreSQL обновлён до версии 17, стал более удобным для разработчиков и администраторов.

Новая система управления памятью для операций VACUUM снижает потребление памяти и ускоряет работу, особенно в крупных базах данных.

Утилита pg_basebackup теперь позволяет создавать резервные копии, содержащие только изменения, внесённые с момента последнего сохранения полной копии. Это существенно ускоряет работу и экономит место на диске или в облаке.

Улучшена логическая репликация за счет синхронизации логических слотов между мастером и репликой, что упрощает управление сложными конфигурациями.

Безопасность и защита данных

Улучшены производительность и стабильность криптографической библиотеки OpenSSL 3.3.3. Переработан API, что упрощает интеграцию OpenSSL в приложения и снижает вероятность ошибок, которые могли бы привести к уязвимостям.

Сканер уязвимостей trivy позволяет контролировать безопасность системы, в том числе в контейнерах.

Архитектуры

«Альт Сервер» 11.0 совместим с процессорами на архитектурах x86_64 и AArch64. Идёт работа над обеспечением совместимости с Эльбрус V6.

Условия распространения

«Альт Сервер» 11.0 поступает в продажу с момента выпуска. Версия 10.4 также доступна для покупки до конца 2025 года. Условия технической поддержки и лицензирования указаны на странице продукта.


Справка

«Базальт СПО» — российский разработчик свободного программного обеспечения. В продуктовой линейке — операционные системы семейства «Альт», технологический комплекс «Альт Платформа» для сборки и выпуска ПО, инфраструктурные решения для централизованного управления конфигурациями компьютеров и пользователей, виртуальными рабочим столами, облачной виртуализацией, создания и управления контейнерами.

Продукты включены в Единый реестр российского ПО, совместимы более чем c 6000 программам и оборудования из реестров Минцифры РФ и Минпромторга РФ. Защищённая ОС «Альт СП» сертифицирована ФСТЭК России.

Все решения создаются на базе собственной инфраструктуры разработки, которую компания развивает с 2001 года. Инфраструктура находится на территории и под юрисдикцией РФ, включает независимый репозиторий проекта «Сизиф».

С 2004 года «Базальт СПО» проводит Ежегодную конференцию разработчиков свободных программ.

www.basealt.ru, sales@basealt.ru, @basealtspo.

Постоянный URL: http://servernews.ru/1124173
09.06.2025 [16:25], Сергей Карасёв

Техно-форум в современном формате: Orion soft запустил комьюнити для пользователей виртуализации zVirt

Разработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft запустил комьюнити для пользователей системы виртуализации zVirt. В нём технические специалисты из разных отраслей смогут обмениваться опытом и лучшими практиками работы с платформой, предлагать идеи по разработке новых функций и давать обратную связь напрямую команде продукта. Участие в комьюнити бесплатное, подать заявку на вступление можно на сайте.

«По итогам 2024 года база заказчиков zVirt достигла более 430 компаний. Они заинтересованы в том, чтобы решение быстрее развивалось и дополнялось нужной им функциональностью, мы получаем от них много обратной связи. Поэтому мы решили создать хаб, где вопросы нашей команде можно задать напрямую. По нашему опыту, именно такой открытый диалог лучше всего подсвечивает точки роста продукта и помогает ему быстрее развиваться», — говорит Максим Березин, директор по развитию бизнеса Orion soft.

Участники комьюнити будут первыми узнавать о готовящихся фичах и актуальных обновлениях продукта. Они могут напрямую влиять на его развитие: лидеры комьюнити собирают пожелания по функциям, которых не хватает в zVirt, и передают в работу технической команде в режиме online.

 Источник изображения: Orion soft

Источник изображения: Orion soft

«Мы хотим, чтобы комьюнити стало площадкой, где можно не только найти решение технической проблемы или предложить идеи по улучшению продукта, но и пообщаться на свободные темы, обсудить новости и актуальные вопросы в сфере виртуализации. Как на техно-форумах, с которых начиналось развитие IT-сообщества в России, только в современном формате и более продуктивно. Лидеры комьюнити — технические специалисты из команды zVirt — уже отвечают на вопросы участников в нескольких тематических "комнатах"», — добавляет лидер комьюнити zVirt Александр Гавриленко.

Участники могут свободно делиться опытом использования платформы и своими вариантами решения технических вопросов. Комьюнити станет для них большим информационным хабом о тонкостях работы различных функций в zVirt и практиках работы с решением в разных отраслях.

Следующим шагом в развитии комьюнити станут очные встречи, на которых специалисты Orion soft расскажут подробности о готовящихся релизах продукта, будут демонстрировать возможности системы и отвечать на актуальные вопросы по её эксплуатации.


О продукте

zVirt — защищённая система виртуализации серверов, дисков и сетей. Русскоязычный web-интерфейс даёт возможность из единой консоли управлять серверами виртуализации, хранилищами, кластерами, виртуальными машинами и другими объектами. zVirt обладает крупнейшей инсталляционной базой в стране — более чем 12 000 хостов — и базой из более чем 430 заказчиков. Продукт зарегистрирован в Реестре российского ПО и является лидером в части импортозамещения ПО для виртуализации, уже занимая 40 % мощностей, работавших на VMware. Также доступна редакция zVirt Max, сертифицированная по требованиям ФСТЭК.

Постоянный URL: http://servernews.ru/1124007
09.06.2025 [15:58], Андрей Крупин

Yandex B2B Tech обновила платформу SourceCraft и открыла доступ для всех разработчиков

Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») выпустила крупное обновление платформы SourceCraft и открыла к ней доступ для всех разработчиков.

SourceCraft представляет собой облачное решение с полным набором инструментов для разработки приложений, управления проектами и задачами. В состав платформы включены средства автоматизации сборки и развёртывания кода, переноса репозиториев из GitHub с необходимыми сущностями (в том числе PR, Issues, Branches) для бесшовного перехода, а также ИИ-ассистент Code Assistant, анализирующий контекст и предлагающий наиболее вероятные и релевантные подсказки: функции, циклы, условия и другие элементы кода. SourceCraft позволяет не только хранить код и управлять версиями, но и собирать, тестировать, разворачивать и сопровождать программные продукты в едином интерфейсе.

 Источник изображения: Yandex B2B Tech

Источник изображения: Yandex B2B Tech

Новая версия SourceCraft дополнилась инструментами безопасной разработки, включающими сканер секретов в коде, анализ зависимостей в кодовой базе и сводную статистику по обнаруженным ИБ‑рискам. Доработкам подвергся Code Assistant — в нём появился режим чата. Теперь ИИ‑ассистент может отвечать на вопросы, генерировать код, юнит‑тесты и документацию. Функциональность доступна в плагинах для VSCode и IDE от JetBrains.

В числе прочего новый релиз SourceCraft принёс улучшенную навигацию по коду, автоматизацию CI/CD‑процессов, расширенные инструменты миграции проектов с GitHub, интеграцию со сторонними приложениями через публичный API, доступ через единую корпоративную учётную запись для командной работы. Появились анонимный доступ к публичным репозиториям платформы и возможность создания независимых копий репозиториев (форков) Open Source‑проектов. Также появилась возможность не только разрабатывать, но и сразу публиковать мобильные приложения в App Store, Google Play, RuStore и Huawei AppGallery. Кроме того, стал доступен инструментарий для создания программных пакетов (наборов кода, библиотек, модулей или компонентов) популярных форматов. Разработчик может хранить их в персональном облаке, привязанном к организации SourceCraft, и использовать в своих проектах.

SourceCraft доступна через веб‑интерфейс. Чтобы воспользоваться платформой, нужно войти в аккаунт через «Яндекс ID».

Постоянный URL: http://servernews.ru/1124174
07.06.2025 [16:24], Владимир Мироненко

AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далеко

Консорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1.

MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно.

Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым.

Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности.

 Источник изображений: MLCommons

Источник изображений: MLCommons

На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза.

«Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training.

В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:

  • AMD Instinct MI300X (192 Гбайт HBM3);
  • AMD Instinct MI325X (256 Гбайт HBM3e);
  • NVIDIA Blackwell GPU (GB200);
  • NVIDIA Blackwell GPU (B200-SXM, 180 Гбайт HBM3e);
  • TPU v6 Trillium.

Заявки также включали три новых семейства процессоров:

  • Процессор AMD EPYC 9005 (Turin);
  • Процессор Intel Xeon 6P (Granite Rapids);
  • Arm Neoverse V2 (в составе NVIDIA GB200)

Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire.

Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения».

NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire.

В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие.

Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper.

Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения.

В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса.

Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах.

NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл.

 Источник изображений: AMD

Источник изображений: AMD

AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью.

В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum.

AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU.

Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.

Постоянный URL: http://servernews.ru/1124073
06.06.2025 [18:46], Руслан Авдеев

AMD продолжает шоппинг: компания купила стартап Brium для борьбы с доминированием NVIDIA

В последние дни компания AMD активно занимается покупками компаний, так или иначе задействованных в разработке ИИ-технологий. Одним из последних событий стала покупка стартапа Brium, специализирующегося на инструментах разработки и оптимизации ИИ ПО, сообщает CRN. AMD, по-видимому, всерьёз обеспокоилась развитием программной экосистемы после того, как выяснилось, что именно ПО не даёт раскрыть весь потенциал ускорителей Instinct.

О покупке Brium, в состав которой входят «эксперты мирового класса в области компиляторов и программного обеспечения для ИИ», было объявлено в минувшую среду. Финансовые условия сделки пока не разглашаются. По словам представителя AMD, передовое ПО Brium укрепит возможности IT-гиганта «поставлять в высокой степени оптимизированные ИИ-решения», включающие ИИ-ускорители Instinct, которые играют для компании ключевую роль в соперничестве с NVIDIA. Дополнительная информация изложена в пресс-релизе AMD.

В AMD уверены, что разработки Brium в области компиляторных технологий, фреймворков для выполнения моделей и оптимизации ИИ-инференса позволят улучшить эффективность и гибкость ИИ-платформы нового владельца. Главное преимущество, которое AMD видит в Brium — способность стартапа оптимизировать весь стек инференса до того, как модель начинает обрабатываться аппаратным обеспечением. Это позволяет снизить зависимость от конкретных конфигураций оборудования и обеспечивает ускоренную и эффективную работу ИИ «из коробки».

В частности, команда Brium «немедленно» внесёт вклад в ключевые проекты вроде OpenAI Triton, WAVE DSL и SHARK/IREE, имеющие решающее значение для более быстрой и эффективной эксплуатации ИИ-моделей на ускорителях AMD Instinct. У технического директора Brium Квентина Коломбета (Quentin Colombet) десятилетний опыт разработки и оптимизации компиляторов для ускорителей в Google, Meta и Apple.

 Источник изображения: AMD

Источник изображения: AMD

Компания сосредоточится на внедрении новых форматов данных вроде MX FP4 и FP6, которые уменьшают объём вычислений и снижают энергопотребление, сохраняя приемлемую точность моделей. В результате разработчики могут добиться более высокой производительности ИИ-моделей, снижая затраты на оборудование и повышая энергоэффективность.

Покупка Brium также поможет ускорить создание open source инструментов. Это даст возможность AMD лучше адаптировать свои решения под специфические потребности клиентов из разных отраслей. Так, Brium успешно адаптировала Deep Graph Library (DGL) — фреймворк для работы с графовыми нейронными сетями (GNN) — под платформу AMD Instinct, что дало возможность эффективно запускать передовые ИИ-приложения в области здравоохранения. Такого рода компетенции повышают способность AMD предоставлять оптимальные решения для отраслей с высокой добавленной стоимостью и расширять охват рынка.

Brium — лишь одно из приобретений AMD за последние дни для усиления позиций в соперничестве с NVIDIA, доминирование которой на рынке ИИ позволило получить в прошлом году выручку, более чем вдвое превышавшую показатели AMD и Intel вместе взятых. В числе последних покупок — стартап Enosemi, работающий над решениями в сфере кремниевой фотоники, поставщик инфраструктуры ЦОД ZT Systems, а также софтверные стартапы Silo AI, Nod.ai и Mipsology. Кроме того, совсем недавно компания купила команду Untether AI, не став приобретать сам стартап.

Постоянный URL: http://servernews.ru/1124054
04.06.2025 [15:40], Сергей Карасёв

«Базис» и «Береста РК» объединят решения для резервного копирования и восстановления данных

Разработчик инфраструктурного ПО «Базис» и производитель систем резервного копирования и восстановления данных «Береста РК» обеспечат совместимость своих продуктов для резервирования виртуальных машин. Соглашение о сотрудничестве было подписано в рамках ежегодной конференции «Цифровая индустрия промышленной России» (ЦИПР).

Ключевым направлением станет объединение возможностей системы резервного копирования и восстановления данных «Береста» с модулем Basis Virtual Protect — решения «Базиса» для резервного копирования виртуальных сред. Так, в перспективе система будет напрямую обращаться к модулям Basis Virtual Protect для выполнения задач резервирования и восстановления, что позволит заказчикам использовать продукт без доработок и с минимальными затратами на сопровождение.

 Источник изображения: «Базис» / Денис Насаев

Источник изображения: «Базис» / Денис Насаев

«Наше партнёрство с «Базисом» — это новый этап в развитии экосистемы надёжных решений для корпоративного рынка. Интеграция с Basis Virtual Protect усилит защиту виртуальной инфраструктуры клиентов и обеспечит более высокий уровень отказоустойчивости и безопасности», — прокомментировал Дмитрий Ханецкий, коммерческий директор «Береста РК».

«Совместимость продуктов — один из ключевых факторов зрелости ИТ-экосистемы. Мы видим большой спрос на надёжные и протестированные решения в области резервного копирования, особенно при использовании контейнерных технологий и масштабируемых виртуальных сред. Партнёрство с «Берестой» позволит нам предложить рынку готовую связку, которая работает из коробки и соответствует требованиям корпоративных и государственных заказчиков», — отметил Андрей Толокнов, директор по развитию «Базиса».

Постоянный URL: http://servernews.ru/1123875
04.06.2025 [14:57], Андрей Крупин

Российская платформа для разработчиков GitVerse получила обновление и дополнилась ИИ-помощником для проверки кода

«СберТех» (входит в экосистему «Сбера») сообщил о включении в состав платформы для работы с исходным кодом GitVerse агента GigaCode, осуществляющего рецензирование программного кода с использованием технологий искусственного интеллекта.

GigaCode-агент представляет собой автономный сервис, развёрнутый на базе одноимённого ИИ-ассистента GitVerse и выполняющий задачи разработчика на этапе проверки кода. Инструмент автоматически анализирует изменения в коде, учитывает контекст, выявляет потенциальные уязвимости и ошибки, а также предлагает релевантные рекомендации по оптимизации кода. С агентом можно взаимодействовать в диалоговом режиме, чтобы получить разъяснения по внесённым изменениям. Разработчики могут назначить агента на проверку запросов на слияние или настроить его автоматическое участие в рецензировании кода. Это позволяет делегировать рутинные операции искусственному интеллекту, минимизировать ошибки и, в конечном итоге, сократить время вывода новых функций на рынок.

 Источник изображения: gitverse.ru

Источник изображения: gitverse.ru

GigaCode-агент бесплатно доступен всем пользователям GitVerse — от индивидуальных разработчиков до крупных организаций.

Наряду с этим команда «СберТеха» представила обновления платформы GitVerse, направленные на оптимизацию рабочих процессов. Теперь пользователи имеют возможность версионировать объёмные файлы через механизм Git LFS и взаимодействовать с обновлённой системой непрерывной интеграции и доставки (CI/CD), которая позволяет создавать сборочные конвейеры на основе шаблонов, запускать задачи по расписанию и отслеживать результаты выполнения. Кроме того, представлен API для интеграции GitVerse с другими системами, доступный в бета-версии.

Постоянный URL: http://servernews.ru/1123922

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus