Материалы по тегу: software

09.06.2025 [17:30], Владимир Мироненко

«Альт Сервер» 11.0: упрощённая установка наборов приложений, инструменты контейнеризации, обновлённый «Альт Домен»

«Базальт СПО» выпустила серверную операционную систему на Одиннадцатой платформе (p11 Salvia). Основные изменения коснулись установки и настройки. Впервые в одном образе доступны две редакции — «Альт Сервер» и «Альт Домен». В новом приложении «Альт Компоненты» автоматизирована установка инструментов для различных способов использования сервера.

Обновлены все ключевые составляющие, в том числе Samba 4.20, добавлена контейнеризация. Переход на актуальную криптографическую библиотеку OpenSSL 3.3 усилил защищённость системы.

Две редакции в одном образе

Стандартно система устанавливается в редакции «Альт Сервер». Это универсальное решение для файловых, веб-серверов, СУБД и других задач.

При наличии лицензии на «Альт Домен» необходимо изменить редакцию с помощью консольной утилиты (alteratorctl) или в настройках системы (alt-systeminfo), если была включена поддержка графической среды.

«Альт Домен» — это платформа на базе Samba AD с инструментами управления инфраструктурой (ADMC, GPUI, gpupdate).

 Источник изображения: «Базальт СПО»

Источник изображения: «Базальт СПО»

Установка и настройка

Операционная система по умолчанию устанавливается в базовой конфигурации. Дополнительно можно выбрать:

  • графическую среду GNOME. При выборе этого пункта вместо сетевой службы etcnet установится NetworkManager;
  • ПО для клиентской инфраструктуры Samba AD. Оно потребуется при включении сервера в существующий домен, например, в качестве файлового сервера или другой доменной службы;
  • поддержку работы в виртуальных окружениях — в случае установки на виртуальную машину;
  • управление через web-интерфейс — установится привычный Альтератор-web.

«Альт Компоненты» — автоматизированная установка сервисов

Новый инструмент «Альт Компоненты» автоматизирует установку служб, таких как web-сервер, файловый сервер, контейнеризация, и наборов приложений. Настройка компонентов доступна через графический интерфейс или в консольном режиме, если система работает без графической среды, в том числе удалённо. После этого необходимые пакеты устанавливаются автоматически.

Набор доступных компонентов зависит от выбранной редакции. Устанавливать и удалять их можно в любой момент. Администраторы также могут создавать и добавлять собственные компоненты.

«Альт Домен»

Ключевой компонент «Альт Домена» Samba AD обновлен до версии 4.20. Основные изменения:

  • улучшено шифрование SMB3, что обеспечивает более надёжную защиту данных при передаче по сети;
  • доработаны механизмы аутентификации;
  • оптимизирована работа в сетях с высокой задержкой, что значительно увеличило скорость передачи файлов. Это ускоряет взаимодействие с удалёнными серверами или при ограниченной пропускной способности сети.

Контейнеризация: инструменты для DevOps, гибридных облаков и микросервисов

В «Альт Сервере» 11.0 появились инструменты для полного цикла работы с контейнерами — от разработки (Buildah) до промышленного развертывания (Kubernetes через CRI-O). Операционная система теперь может стать основой для выполнения задач DevOps, гибридных облаков и распределенных микросервисных систем.

Система содержит 4 новых компонента для контейнеризации: Docker, Podman, Kubernetes и Linux Container.

Эти компоненты перенесены в «Альт Сервер» из «Альт Виртуализации».

Резервное копирование

Proxmox Backup Server обновлён до версии 3.3.3. Основные новшества:

  • поддержка автоматизированной установки, что значительно облегчает настройку резервных серверов в крупных средах и сокращает ручное вмешательство при масштабировании инфраструктуры;
  • полноценная интеграция службы Ceph crash с Proxmox Ceph server. Исправлены проблемы с отчетами о сбоях и мониторингом состояния в кластерах Ceph. Эти повышает надёжность резервного копирования при использовании Proxmox VE совместно с Ceph;
  • поддержка съемных носителей и push-синхронизации.

Базы данных

PostgreSQL обновлён до версии 17, стал более удобным для разработчиков и администраторов.

Новая система управления памятью для операций VACUUM снижает потребление памяти и ускоряет работу, особенно в крупных базах данных.

Утилита pg_basebackup теперь позволяет создавать резервные копии, содержащие только изменения, внесённые с момента последнего сохранения полной копии. Это существенно ускоряет работу и экономит место на диске или в облаке.

Улучшена логическая репликация за счет синхронизации логических слотов между мастером и репликой, что упрощает управление сложными конфигурациями.

Безопасность и защита данных

Улучшены производительность и стабильность криптографической библиотеки OpenSSL 3.3.3. Переработан API, что упрощает интеграцию OpenSSL в приложения и снижает вероятность ошибок, которые могли бы привести к уязвимостям.

Сканер уязвимостей trivy позволяет контролировать безопасность системы, в том числе в контейнерах.

Архитектуры

«Альт Сервер» 11.0 совместим с процессорами на архитектурах x86_64 и AArch64. Идёт работа над обеспечением совместимости с Эльбрус V6.

Условия распространения

«Альт Сервер» 11.0 поступает в продажу с момента выпуска. Версия 10.4 также доступна для покупки до конца 2025 года. Условия технической поддержки и лицензирования указаны на странице продукта.


Справка

«Базальт СПО» — российский разработчик свободного программного обеспечения. В продуктовой линейке — операционные системы семейства «Альт», технологический комплекс «Альт Платформа» для сборки и выпуска ПО, инфраструктурные решения для централизованного управления конфигурациями компьютеров и пользователей, виртуальными рабочим столами, облачной виртуализацией, создания и управления контейнерами.

Продукты включены в Единый реестр российского ПО, совместимы более чем c 6000 программам и оборудования из реестров Минцифры РФ и Минпромторга РФ. Защищённая ОС «Альт СП» сертифицирована ФСТЭК России.

Все решения создаются на базе собственной инфраструктуры разработки, которую компания развивает с 2001 года. Инфраструктура находится на территории и под юрисдикцией РФ, включает независимый репозиторий проекта «Сизиф».

С 2004 года «Базальт СПО» проводит Ежегодную конференцию разработчиков свободных программ.

www.basealt.ru, sales@basealt.ru, @basealtspo.

Постоянный URL: http://servernews.ru/1124173
09.06.2025 [16:25], Сергей Карасёв

Техно-форум в современном формате: Orion soft запустил комьюнити для пользователей виртуализации zVirt

Разработчик экосистемы инфраструктурного ПО для Enterprise-бизнеса Orion soft запустил комьюнити для пользователей системы виртуализации zVirt. В нём технические специалисты из разных отраслей смогут обмениваться опытом и лучшими практиками работы с платформой, предлагать идеи по разработке новых функций и давать обратную связь напрямую команде продукта. Участие в комьюнити бесплатное, подать заявку на вступление можно на сайте.

«По итогам 2024 года база заказчиков zVirt достигла более 430 компаний. Они заинтересованы в том, чтобы решение быстрее развивалось и дополнялось нужной им функциональностью, мы получаем от них много обратной связи. Поэтому мы решили создать хаб, где вопросы нашей команде можно задать напрямую. По нашему опыту, именно такой открытый диалог лучше всего подсвечивает точки роста продукта и помогает ему быстрее развиваться», — говорит Максим Березин, директор по развитию бизнеса Orion soft.

Участники комьюнити будут первыми узнавать о готовящихся фичах и актуальных обновлениях продукта. Они могут напрямую влиять на его развитие: лидеры комьюнити собирают пожелания по функциям, которых не хватает в zVirt, и передают в работу технической команде в режиме online.

 Источник изображения: Orion soft

Источник изображения: Orion soft

«Мы хотим, чтобы комьюнити стало площадкой, где можно не только найти решение технической проблемы или предложить идеи по улучшению продукта, но и пообщаться на свободные темы, обсудить новости и актуальные вопросы в сфере виртуализации. Как на техно-форумах, с которых начиналось развитие IT-сообщества в России, только в современном формате и более продуктивно. Лидеры комьюнити — технические специалисты из команды zVirt — уже отвечают на вопросы участников в нескольких тематических "комнатах"», — добавляет лидер комьюнити zVirt Александр Гавриленко.

Участники могут свободно делиться опытом использования платформы и своими вариантами решения технических вопросов. Комьюнити станет для них большим информационным хабом о тонкостях работы различных функций в zVirt и практиках работы с решением в разных отраслях.

Следующим шагом в развитии комьюнити станут очные встречи, на которых специалисты Orion soft расскажут подробности о готовящихся релизах продукта, будут демонстрировать возможности системы и отвечать на актуальные вопросы по её эксплуатации.


О продукте

zVirt — защищённая система виртуализации серверов, дисков и сетей. Русскоязычный web-интерфейс даёт возможность из единой консоли управлять серверами виртуализации, хранилищами, кластерами, виртуальными машинами и другими объектами. zVirt обладает крупнейшей инсталляционной базой в стране — более чем 12 000 хостов — и базой из более чем 430 заказчиков. Продукт зарегистрирован в Реестре российского ПО и является лидером в части импортозамещения ПО для виртуализации, уже занимая 40 % мощностей, работавших на VMware. Также доступна редакция zVirt Max, сертифицированная по требованиям ФСТЭК.

Постоянный URL: http://servernews.ru/1124007
09.06.2025 [15:58], Андрей Крупин

Yandex B2B Tech обновила платформу SourceCraft и открыла доступ для всех разработчиков

Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») выпустила крупное обновление платформы SourceCraft и открыла к ней доступ для всех разработчиков.

SourceCraft представляет собой облачное решение с полным набором инструментов для разработки приложений, управления проектами и задачами. В состав платформы включены средства автоматизации сборки и развёртывания кода, переноса репозиториев из GitHub с необходимыми сущностями (в том числе PR, Issues, Branches) для бесшовного перехода, а также ИИ-ассистент Code Assistant, анализирующий контекст и предлагающий наиболее вероятные и релевантные подсказки: функции, циклы, условия и другие элементы кода. SourceCraft позволяет не только хранить код и управлять версиями, но и собирать, тестировать, разворачивать и сопровождать программные продукты в едином интерфейсе.

 Источник изображения: Yandex B2B Tech

Источник изображения: Yandex B2B Tech

Новая версия SourceCraft дополнилась инструментами безопасной разработки, включающими сканер секретов в коде, анализ зависимостей в кодовой базе и сводную статистику по обнаруженным ИБ‑рискам. Доработкам подвергся Code Assistant — в нём появился режим чата. Теперь ИИ‑ассистент может отвечать на вопросы, генерировать код, юнит‑тесты и документацию. Функциональность доступна в плагинах для VSCode и IDE от JetBrains.

В числе прочего новый релиз SourceCraft принёс улучшенную навигацию по коду, автоматизацию CI/CD‑процессов, расширенные инструменты миграции проектов с GitHub, интеграцию со сторонними приложениями через публичный API, доступ через единую корпоративную учётную запись для командной работы. Появились анонимный доступ к публичным репозиториям платформы и возможность создания независимых копий репозиториев (форков) Open Source‑проектов. Также появилась возможность не только разрабатывать, но и сразу публиковать мобильные приложения в App Store, Google Play, RuStore и Huawei AppGallery. Кроме того, стал доступен инструментарий для создания программных пакетов (наборов кода, библиотек, модулей или компонентов) популярных форматов. Разработчик может хранить их в персональном облаке, привязанном к организации SourceCraft, и использовать в своих проектах.

SourceCraft доступна через веб‑интерфейс. Чтобы воспользоваться платформой, нужно войти в аккаунт через «Яндекс ID».

Постоянный URL: http://servernews.ru/1124174
07.06.2025 [16:24], Владимир Мироненко

AMD впервые приняла участие в бенчмарке MLPerf Training, но до рекордов NVIDIA ей ещё очень далеко

Консорциум MLCommons объявил новые результаты бенчмарка MLPerf Training v5.0, отметив быстрый рост и эволюцию в области ИИ, а также рекордное количество общих заявок и увеличение заявок для большинства тестов по сравнению с бенчмарком v4.1.

MLPerf Training v5.0 предложил новый бенчмарк предварительной подготовки большой языковой модели на основе Llama 3.1 405B, которая является самой большой ИИ-моделью в текущем наборе тестов обучения. Он заменил бенчмарк на основе gpt3 (gpt-3-175B), входивший в предыдущие версии MLPerf Training. Целевая группа MLPerf Training выбрала его, поскольку Llama 3.1 405B является конкурентоспособной моделью, представляющей современные LLM, включая последние обновления алгоритмов и обучение на большем количестве токенов. Llama 3.1 405B более чем в два раза больше gpt3 и использует в четыре раза большее контекстное окно.

Несмотря на то, что бенчмарк на основе Llama 3.1 405B был представлен только недавно, на него уже подано больше заявок, чем на предшественника на основе gpt3 в предыдущих раундах, отметил консорциум.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

MLCommons сообщил, что рабочая группа MLPerf Training регулярно добавляет новые рабочие нагрузки в набор тестов, чтобы гарантировать, что он отражает тенденции отрасли. Результаты бенчмарка Training 5.0 показывают заметный рост производительности для новых бенчмарков, что указывает на то, что отрасль отдаёт приоритет новым рабочим нагрузкам обучения, а не старым.

Тест Stable Diffusion показал увеличение скорости в 2,28 раза для восьмичиповых систем по сравнению с версией 4.1, вышедшей шесть месяцев назад, а тест Llama 2.0 70B LoRA увеличил скорость в 2,10 раза по сравнению с версией 4.1; оба превзошли исторические ожидания роста производительности вычислений с течением времени в соответствии с законом Мура. Более старые тесты в наборе показали более скромные улучшения производительности.

 Источник изображений: MLCommons

Источник изображений: MLCommons

На многоузловых 64-чиповых системах тест RetinaNet показал ускорение в 1,43 раза по сравнению с предыдущим раундом тестирования v3.1 (самым последним, включающим сопоставимые масштабные системы), в то время как тест Stable Diffusion показал резкое увеличение в 3,68 раза.

«Это признак надёжного цикла инноваций в технологиях и совместного проектирования: ИИ использует преимущества новых систем, но системы также развиваются для поддержки высокоприоритетных сценариев», — говорит Шрия Ришаб (Shriya Rishab), сопредседатель рабочей группы MLPerf Training.

В заявках на MLPerf Training 5.0 использовалось 12 уникальных чиповых, все в категории коммерчески доступных. Пять из них стали общедоступными с момента выхода последней версии набора тестов MLPerf Training:

  • AMD Instinct MI300X (192 Гбайт HBM3);
  • AMD Instinct MI325X (256 Гбайт HBM3e);
  • NVIDIA Blackwell GPU (GB200);
  • NVIDIA Blackwell GPU (B200-SXM, 180 Гбайт HBM3e);
  • TPU v6 Trillium.

Заявки также включали три новых семейства процессоров:

  • Процессор AMD EPYC 9005 (Turin);
  • Процессор Intel Xeon 6P (Granite Rapids);
  • Arm Neoverse V2 (в составе NVIDIA GB200)

Кроме того, количество представленных многоузловых систем увеличилось более чем в 1,8 раза по сравнению с версией бенчмарка 4.1. Хиуот Касса (Hiwot Kassa), сопредседатель рабочей группы MLPerf Training, отметил растущее число провайдеров облачных услуг, предлагающих доступ к крупномасштабным системам, что делает доступ к обучению LLM более демократичным.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Последние результаты MLPerf Training 5.0 от NVIDIA показывают, что её ускорители Blackwell GB200 демонстрируют рекордные результаты по времени обучения, демонстрируя, как стоечная конструкция «ИИ-фабрики» компании может быстрее, чем раньше, превращать «сырые» вычислительные мощности в развёртываемые модели, пишет ресурс HPCwire.

Раунд MLPerf Training v5.0 включает 201 результат от 20 организаций-участников: AMD, ASUS, Cisco, CoreWeave, Dell, GigaComputing, Google Cloud, HPE, IBM, Krai, Lambda, Lenovo, MangoBoost, Nebius, NVIDIA, Oracle, QCT, SCITIX, Supermicro и TinyCorp. «Мы бы особенно хотели поприветствовать впервые подавших заявку на участие в MLPerf Training AMD, IBM, MangoBoost, Nebius и SCITIX, — сказал Дэвид Кантер (David Kanter), руководитель MLPerf в MLCommons. — Я также хотел бы выделить первый набор заявок Lenovo на результаты тестов энергопотребления в этом раунде — энергоэффективность в системе обучения ИИ-систем становится всё более важной проблемой, требующей точного измерения».

NVIDIA представила результаты кластера на основе систем GB200 NVL72, объединивших 2496 ускорителей. Работая с облачными партнерами CoreWeave и IBM, компания сообщила о 90-% эффективности масштабирования при расширении с 512 до 2496 ускорителей. Это отличный результат, поскольку линейное масштабирование редко достигается при увеличении количества ускорителей за пределами нескольких сотен. Эффективность масштабирования в диапазоне от 70 до 80 % уже считается солидным результатом, особенно при увеличении количества ускорителей в пять раз, пишет HPCwire.

В семи рабочих нагрузках в MLPerf Training 5.0 ускорители Blackwell улучшили время сходимости «до 2,6x» при постоянном количестве ускорителей по сравнению с поколением Hopper (H100). Самый большой рост наблюдался при генерации изображений и предварительном обучении LLM, где количество параметров и нагрузка на память самые большие.

Хотя в бенчмарке проверялась скорость выполнения операций, NVIDIA подчеркнула, что более быстрое выполнение задач означает меньшее время аренды облачных инстансов и более скромные счета за электроэнергию для локальных развёртываний. Хотя компания не публиковала данные об энергоэффективности в этом бенчмарке, она позиционировала Blackwell как «более экономичное» решение на основе достигнутых показателей, предполагая, что усовершенствования дизайна тензорных ядер обеспечивают лучшую производительность на Ватт, чем у поколения Hopper.

Также HPCwire отметил, что NVIDIA была единственным поставщиком, представившим результаты бенчмарка предварительной подготовки LLM на основе Llama 3.1 405B, установив начальную точку отсчёта для обучения с 405 млрд параметров. Это важно, поскольку некоторые компании уже выходят за рамки 70–80 млрд параметров для передовых ИИ-моделей. Демонстрация проверенного рецепта работы с 405 млрд параметров даёт компаниям более чёткое представление о том, что потребуется для создания ИИ-моделей следующего поколения.

В ходе пресс-конференции Дэйв Сальватор (Dave Salvator), директор по ускоренным вычислительным продуктам в NVIDIA, ответил на распространенный вопрос: «Зачем фокусироваться на обучении, когда в отрасли в настоящее время все внимание сосредоточено на инференсе?». Он сообщил, что тонкая настройка (после предварительного обучения) остается ключевым условием для реальных LLM, особенно для предприятий, использующих собственные данные. Он обозначил обучение как «фазу инвестиций», которая приносит отдачу позже в развёртываниях с большим объёмом инференса.

Этот подход соответствует более общей концепции «ИИ-фабрики» компании, в рамках которой ускорителям даются данные и питание для обучения моделей. А затем производятся токены для использования в реальных приложениях. К ним относятся новые «токены рассуждений» (reasoning tokens), используемые в агентских ИИ-системах.

NVIDIA также повторно представила результаты по Hopper, чтобы подчеркнуть, что H100 остаётся «единственной архитектурой, кроме Blackwell», которая показала лидерские показатели по всему набору MLPerf Training, хотя и уступила Blackwell. Поскольку инстансы на H100 широко доступны у провайдеров облачных сервисов, компания, похоже, стремится заверить клиентов, что существующие развёртывания по-прежнему имеют смысл.

 Источник изображений: AMD

Источник изображений: AMD

AMD, со своей стороны, продемонстрировала прирост производительности поколения чипов. В тесте Llama2 70B LoRA она показала 30-% прирост производительности AMD Instinct MI325X по сравнению с предшественником MI300X. Основное различие между ними заключается в том, что MI325X оснащён почти на треть более быстрой памятью.

В самом популярном тесте, тонкой настройке LLM, AMD продемонстрировала, что её новейший ускоритель Instinct MI325X показывает результаты наравне с NVIDIA H200. Это говорит о том, что AMD отстает от NVIDIA на одно поколение, отметил ресурс IEEE Spectrum.

AMD впервые представила результаты MLPerf Training, хотя в предыдущие годы другие компании представляли результаты в этом тесте, используя ускорители AMD. В свою очередь, Google представила результаты лишь одного теста, задачи генерации изображений, с использованием Trillium TPU.

Тест MLPerf также включает тест на энергопотребление, измеряющий, сколько энергии уходит на выполнение каждой задачи обучения. В этом раунде лишь Lenovo включила измерение этого показателя в свою заявку, что сделало невозможным сравнение между компаниями. Для тонкой настройки LLM на двух ускорителях Blackwell требуется 6,11 ГДж или 1698 КВт·ч — примерно столько энергии уходит на обогрев небольшого дома зимой.

Постоянный URL: http://servernews.ru/1124073
06.06.2025 [18:46], Руслан Авдеев

AMD продолжает шоппинг: компания купила стартап Brium для борьбы с доминированием NVIDIA

В последние дни компания AMD активно занимается покупками компаний, так или иначе задействованных в разработке ИИ-технологий. Одним из последних событий стала покупка стартапа Brium, специализирующегося на инструментах разработки и оптимизации ИИ ПО, сообщает CRN. AMD, по-видимому, всерьёз обеспокоилась развитием программной экосистемы после того, как выяснилось, что именно ПО не даёт раскрыть весь потенциал ускорителей Instinct.

О покупке Brium, в состав которой входят «эксперты мирового класса в области компиляторов и программного обеспечения для ИИ», было объявлено в минувшую среду. Финансовые условия сделки пока не разглашаются. По словам представителя AMD, передовое ПО Brium укрепит возможности IT-гиганта «поставлять в высокой степени оптимизированные ИИ-решения», включающие ИИ-ускорители Instinct, которые играют для компании ключевую роль в соперничестве с NVIDIA. Дополнительная информация изложена в пресс-релизе AMD.

В AMD уверены, что разработки Brium в области компиляторных технологий, фреймворков для выполнения моделей и оптимизации ИИ-инференса позволят улучшить эффективность и гибкость ИИ-платформы нового владельца. Главное преимущество, которое AMD видит в Brium — способность стартапа оптимизировать весь стек инференса до того, как модель начинает обрабатываться аппаратным обеспечением. Это позволяет снизить зависимость от конкретных конфигураций оборудования и обеспечивает ускоренную и эффективную работу ИИ «из коробки».

В частности, команда Brium «немедленно» внесёт вклад в ключевые проекты вроде OpenAI Triton, WAVE DSL и SHARK/IREE, имеющие решающее значение для более быстрой и эффективной эксплуатации ИИ-моделей на ускорителях AMD Instinct. У технического директора Brium Квентина Коломбета (Quentin Colombet) десятилетний опыт разработки и оптимизации компиляторов для ускорителей в Google, Meta и Apple.

 Источник изображения: AMD

Источник изображения: AMD

Компания сосредоточится на внедрении новых форматов данных вроде MX FP4 и FP6, которые уменьшают объём вычислений и снижают энергопотребление, сохраняя приемлемую точность моделей. В результате разработчики могут добиться более высокой производительности ИИ-моделей, снижая затраты на оборудование и повышая энергоэффективность.

Покупка Brium также поможет ускорить создание open source инструментов. Это даст возможность AMD лучше адаптировать свои решения под специфические потребности клиентов из разных отраслей. Так, Brium успешно адаптировала Deep Graph Library (DGL) — фреймворк для работы с графовыми нейронными сетями (GNN) — под платформу AMD Instinct, что дало возможность эффективно запускать передовые ИИ-приложения в области здравоохранения. Такого рода компетенции повышают способность AMD предоставлять оптимальные решения для отраслей с высокой добавленной стоимостью и расширять охват рынка.

Brium — лишь одно из приобретений AMD за последние дни для усиления позиций в соперничестве с NVIDIA, доминирование которой на рынке ИИ позволило получить в прошлом году выручку, более чем вдвое превышавшую показатели AMD и Intel вместе взятых. В числе последних покупок — стартап Enosemi, работающий над решениями в сфере кремниевой фотоники, поставщик инфраструктуры ЦОД ZT Systems, а также софтверные стартапы Silo AI, Nod.ai и Mipsology. Кроме того, совсем недавно компания купила команду Untether AI, не став приобретать сам стартап.

Постоянный URL: http://servernews.ru/1124054
04.06.2025 [15:40], Сергей Карасёв

«Базис» и «Береста РК» объединят решения для резервного копирования и восстановления данных

Разработчик инфраструктурного ПО «Базис» и производитель систем резервного копирования и восстановления данных «Береста РК» обеспечат совместимость своих продуктов для резервирования виртуальных машин. Соглашение о сотрудничестве было подписано в рамках ежегодной конференции «Цифровая индустрия промышленной России» (ЦИПР).

Ключевым направлением станет объединение возможностей системы резервного копирования и восстановления данных «Береста» с модулем Basis Virtual Protect — решения «Базиса» для резервного копирования виртуальных сред. Так, в перспективе система будет напрямую обращаться к модулям Basis Virtual Protect для выполнения задач резервирования и восстановления, что позволит заказчикам использовать продукт без доработок и с минимальными затратами на сопровождение.

 Источник изображения: «Базис» / Денис Насаев

Источник изображения: «Базис» / Денис Насаев

«Наше партнёрство с «Базисом» — это новый этап в развитии экосистемы надёжных решений для корпоративного рынка. Интеграция с Basis Virtual Protect усилит защиту виртуальной инфраструктуры клиентов и обеспечит более высокий уровень отказоустойчивости и безопасности», — прокомментировал Дмитрий Ханецкий, коммерческий директор «Береста РК».

«Совместимость продуктов — один из ключевых факторов зрелости ИТ-экосистемы. Мы видим большой спрос на надёжные и протестированные решения в области резервного копирования, особенно при использовании контейнерных технологий и масштабируемых виртуальных сред. Партнёрство с «Берестой» позволит нам предложить рынку готовую связку, которая работает из коробки и соответствует требованиям корпоративных и государственных заказчиков», — отметил Андрей Толокнов, директор по развитию «Базиса».

Постоянный URL: http://servernews.ru/1123875
04.06.2025 [14:57], Андрей Крупин

Российская платформа для разработчиков GitVerse получила обновление и дополнилась ИИ-помощником для проверки кода

«СберТех» (входит в экосистему «Сбера») сообщил о включении в состав платформы для работы с исходным кодом GitVerse агента GigaCode, осуществляющего рецензирование программного кода с использованием технологий искусственного интеллекта.

GigaCode-агент представляет собой автономный сервис, развёрнутый на базе одноимённого ИИ-ассистента GitVerse и выполняющий задачи разработчика на этапе проверки кода. Инструмент автоматически анализирует изменения в коде, учитывает контекст, выявляет потенциальные уязвимости и ошибки, а также предлагает релевантные рекомендации по оптимизации кода. С агентом можно взаимодействовать в диалоговом режиме, чтобы получить разъяснения по внесённым изменениям. Разработчики могут назначить агента на проверку запросов на слияние или настроить его автоматическое участие в рецензировании кода. Это позволяет делегировать рутинные операции искусственному интеллекту, минимизировать ошибки и, в конечном итоге, сократить время вывода новых функций на рынок.

 Источник изображения: gitverse.ru

Источник изображения: gitverse.ru

GigaCode-агент бесплатно доступен всем пользователям GitVerse — от индивидуальных разработчиков до крупных организаций.

Наряду с этим команда «СберТеха» представила обновления платформы GitVerse, направленные на оптимизацию рабочих процессов. Теперь пользователи имеют возможность версионировать объёмные файлы через механизм Git LFS и взаимодействовать с обновлённой системой непрерывной интеграции и доставки (CI/CD), которая позволяет создавать сборочные конвейеры на основе шаблонов, запускать задачи по расписанию и отслеживать результаты выполнения. Кроме того, представлен API для интеграции GitVerse с другими системами, доступный в бета-версии.

Постоянный URL: http://servernews.ru/1123922
04.06.2025 [10:49], Андрей Крупин

Yandex B2B Tech и Axiom JDK представят интегрированную платформу для доверенной Java-разработки

Yandex B2B Tech (бизнес-группа «Яндекса», объединяющая технологии и инструменты компании для корпоративных пользователей, включая продукты Yandex Cloud и «Яндекс 360») и компания Axiom JDK (АО «Аксиом», поставщик российской платформы Java) объявили о стратегическом технологическом партнёрстве.

В рамках сотрудничества компании намерены предложить организациям унифицированное решение для доверенной разработки, исполнения и сопровождения Java-приложений. На базе платформы SourceCraft от Yandex B2B Tech и Java-технологий Axiom JDK будет доступен полный цикл безопасной разработки: от написания кода и сборки до запуска в защищённой инфраструктуре. Решение будет интегрировано с Yandex Cloud Registry и соответствовать всем требованиям законодательства РФ в области защиты информации и технологической независимости.

 Источник изображения: axiomjdk.ru

Источник изображения: axiomjdk.ru

В составе интегрированной платформы будут представлены: безопасная среда исполнения Java-приложений, построенная на Axiom JDK — российской промышленной платформе Java SE; доверенный репозиторий Java-библиотек Axiom Repo, интегрированный с SourceCraft и Yandex Cloud Registry; поддержка разработки в защищённых On-Premise-контурах и облачных средах; обновления и сопровождение, соответствующие стандартам разработки безопасного ПО и требованиям критических IT-систем.

Релиз комплексного решения, охватывающего весь жизненный цикл разработки и эксплуатации Java-приложений, ожидается в третьем квартале 2025 года.

Постоянный URL: http://servernews.ru/1123906
03.06.2025 [13:16], Владимир Мироненко

Рынок российского инфраструктурного ПО достиг уровня 2021 года

Рынок российского инфраструктурного ПО вырос в 2024 году по сравнению с предыдущим годом на 28 % до 132 млрд руб., вернувшись к показателям 2021 года — ранее его объём составлял 133 млрд руб., сообщили «Ведомости» со ссылкой на обзор рынка консалтинговой компании Strategy Partners.

Российское инфраструктурное ПО подорожало в прошлом году в среднем на 10 % год к году, что соответствует темпам инфляции, отметили аналитики. Доля топ-5 российских поставщиков инфраструктурного ПО увеличилась на 7 п.п. до 54 %.

Выручка российских производителей ОС для инфраструктуры достигла 15,55 млрд руб., превысив половину рынка (55 %), против 48 %, или 11,18 млрд руб. годом ранее. Лидируют на рынке группа «Астра» (Astra Linux) с долей 76 %, «Ред софт» (РедОС, 12 %), «Базальт» (BaseALT, 10 %), на которых приходилось 98 % рынка российских разработчиков ОС для ПК и серверов. Вместе с тем пользователи не спешат отказываться от привычных решений американской Microsoft, а параллельный импорт, бессрочные лицензии и пиратское ПО замедляют импортозамещение, отметили аналитики.

 Источник изображений: Strategy Partners

Источник изображений: Strategy Partners

Согласно данным Strategy Partners, рынок виртуализации вырос в 2024 году на 37 % до 13,8 млрд руб., а доля российских разработчиков составила 74 %. Эти цифры совпадают со статистикой «Базиса», по оценкам которой сегмент виртуализации достиг в прошлом году 14 млрд руб. В Топ-3 российских решений для виртуализации входят продукты «Базиса», «Ориона» и группы «Астра».

По оценкам Strategy Partners, сегмент СУБД вырос на 35 % до 39,6 млрд руб. На долю российских производителей в сегменте приходилось 73 %. Ведущие российские компании Postgres Professional, Arena Data и группа «Астра» увеличили в прошлом году долю рынка до 38 % с 32 % в 2023 году. Следует отметить, что согласно исследованию Центра стратегических разработок (ЦСР), в 2024 году объём всего сегмента СУБД увеличился год к году на 34 % до 51 млрд руб. Как отметили в Strategy Partners, по техническим причинам 15–20 % инфраструктуры заказчиков не может перейти на российские СУБД, из-за чего здесь по-прежнему использую иностранные решения, в частности решения Oracle.

В группе «Астра» считают значительный рост рынка инфраструктурного ПО в 2024 году результатом восстановления после ухода из-за санкций зарубежных вендоров, когда многие проекты были приостановлены. В прошлом году российские компании предложили более зрелые и комплексные экосистемные решения, что дало импульс к их внедрению и возвращению к показателям 2021 года, сообщили в компании.

Эксперт «Рексофт консалтинга» назвал основной причиной роста регуляторные требования, согласно которым с 1 января 2025 года субъекты критической информационной инфраструктуры (КИИ) обязаны провести полное импортозамещение софта на принадлежащих им значимых объектах. Кроме того, на это повлияло требование Минцифры обеспечить закупку российского ПО в объёме 90 % к государственным заказчикам и компаниям с соучастием.

Аналитики Strategy Partners отметили, что в 2025 году темпы роста российского IT-рынка, в том числе инфраструктурного ПО, несколько замедлились в связи с сохраняющейся высокой ключевой ставкой ЦБ. Тем не менее переход на отечественное ПО остается в числе приоритетов и в 2026–2027 гг. консалтинговая компания ожидает возобновления активного роста рынка по мере стабилизации макроэкономической ситуации. Согласно прогнозу Strategy Partners, ёмкость рынка достигнет 299,6 млрд руб. к 2030 году при ежегодных среднегодовых темпах роста в размере 15 %.

Постоянный URL: http://servernews.ru/1123845
03.06.2025 [13:12], Андрей Крупин

МТС Web Services запустила собственную публичную облачную платформу

Компания МТС Web Services (MWS, входит в группу МТС) сообщила о запуске в режиме превью публичной облачной платформы собственной разработки — MWS Cloud Platform, предназначенной для заказчиков различного уровня ‑ от малого и среднего бизнеса до крупных корпораций.

MWS Cloud Platform представляет собой экосистему инфраструктурных и сетевых сервисов, инструментов для хранения и обработки данных, PaaS-сервисов и решений, в основу которых положены фирменные технологии виртуализации вычислительных мощностей и сетевой инфраструктуры. Платформа включает в себя единую систему безопасного управления доступом и биллинг, а также предоставляет интерфейсы управления и автоматизации: веб-консоль, API, CLI и Terraform.

 Источник изображения: mws.ru/cloud-platform

Источник изображения: mws.ru/cloud-platform

В рамках платформы уже доступно объектное хранилище (Object Storage) для размещения в облаке данных различных объёмов и форматов данных, виртуальные машины и диски (Compute) для развёртывания вычислительных процессов, сервис быстрой доставки контента (CDN), виртуальные облачные сети (VPC) и ряд дополнительных сервисов.

До конца года в MWS Cloud Platform также появятся платформенные решения для разработчиков и IT-подразделений компаний. Это сервисы для управления Docker-образами и кластерами Kubernetes, а также базами данных ClickHouse, Kafka, PostgreSQL. Кроме того, в облаке станут доступны балансировщик нагрузки и решение для управления ключами шифрования. В общей сложности до конца года в рамках платформы будут представлены 15 сервисов.

Постоянный URL: http://servernews.ru/1123856

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus