Материалы по тегу: software

20.12.2025 [15:09], Сергей Карасёв

Вот на эти два процента Linux и живёт: Linux Foundation получила в 2025 году $311,3 млн, но на ядро потратила лишь $8,4 млн

Организация Linux Foundation опубликовала финансовые показатели деятельности в 2025 году. Общие поступления достигли $311,3 млн, что на 6,5 % больше по сравнению с предыдущим годом, когда они составляли $292,2 млн. При этом расходы сократились на 5 % — с $299,7 млн до $284,8 млн.

В общем объёме выручки на пожертвования и взносы, а также средства участников организации в 2025-м пришлось $133,3 млн. Ещё $83,6 млн составила целевая поддержка проектов, $58,6 млн — спонсорство мероприятий и регистрационные взносы на конференциях. Поступления от обучающих курсов и выдачи сертификатов оцениваются в $29,6 млн. Все прочие виды деятельности вместе взятые принесли $6,2 млн.

Крупнейшей статьёй расходов является поддержка проектов — $181,8 млн. На программы обучения в 2025 году потрачено $21,6 млн, на инфраструктуру — $17,7 млн, на проведение мероприятий — $16,8 млн. Приблизительно $15,8 млн израсходовано на поддержание корпоративных операций, $15,7 млн — на сопровождение сообщества. На проекты, связанные непосредственно с ядром Linux, затрачено $8,4 млн (менее 3 % от всего бюджета). Примерно $6,8 млн пришлось на международные операции.

 Источник изображения: Linux Foundation

Источник изображения: Linux Foundation

В отчете говорится, что по итогам 2025 года Linux Foundation курировала почти 1500 проектов против примерно 1300 годом ранее. Их наибольшая доля связана с облачными технологиями, контейнерами и виртуализацией — 23 %. На втором месте находятся сетевые и периферийные решения с 14 %, а замыкают тройку проекты в области искусственного интеллекта, машинного обучения и аналитики данных с 12 %. Около 12 % приходится также на кроссплатформенные решения, 10 % — на разработку веб-сервисов и приложений, 5 % — на безопасность. Суммарный вклад всех прочих проектов (блокчейн, интернет вещей, встраиваемые системы, DevOps и др.) оценивается в 24–25 %.

Постоянный URL: http://servernews.ru/1134220
20.12.2025 [14:57], Сергей Карасёв

Airbus перенесёт критически важные нагрузки в суверенное европейское облако

Одна из крупнейших в мире авиастроительных компаний Airbus, по сообщению The Register, намерена объявить крупный тендер в рамках проекта, предусматривающего перенос критически важных нагрузок и приложений в суверенное облако на территории Европы. Как отмечается, французская Airbus уже консолидировала свои дата-центры. При этом производитель авиатехники внедряет различные облачные решения. В частности, уже семь лет осуществляется перевод 130 тыс. сотрудников компании с пакета Microsoft Office на облачную платформу Google Workspace.

Новый проект предполагает миграцию в облако ключевых систем, которые в настоящее время развёрнуты в локальной инфраструктуре. Речь идёт о решениях ERP (системы планирования ресурсов предприятия), CRM (системы управления взаимоотношениями с клиентами), PLM (системы управления жизненным циклом продукта), MES (системы управления производственными процессами) и пр. Как заявила Кэтрин Йестин (Catherine Jestin), исполнительный вице-президент Airbus по цифровым технологиям, компании требуется суверенное облако по той причине, что значительная часть корпоративной информации «крайне конфиденциальна» с национальной и европейской точек зрения.

 Источник изображения: Airbus

Источник изображения: Airbus

Приём заявок на участие в тендере начнётся в январе 2026 года. Окончательное решение о выборе облачного провайдера Airbus рассчитывает принять к лету. Стоимость контракта, по оценкам, превысит €50 млн: заключить его планируется на длительный срок — до десяти лет — с «предсказуемой стоимостью услуг» на протяжении всего периода.

Использование суверенного облака необходимо Airbus в свете усиливающейся напряжённости между Евросоюзом и США. Какие именно провайдеры рассматриваются в качестве потенциальных поставщиков услуг, не уточняется. Доступ к суверенному европейскому облаку предлагает в том числе немецкая SAP: платформа EU AI Cloud оптимизирована для ИИ-задач. Кроме того, ранее был анонсирован проект Virt8ra по созданию европейской суверенной облачной платформы, призванной обеспечить переносимость и совместимость между сервисами различных поставщиков облачных услуг. В инициативе принимают участие Arsys, BIT, Гданьский политехнический университет (Gdańsk Tech), Infobip, IONOS, Kontron, Mondragon и Oktawave, тогда как координатором выступает OpenNebula Systems.

Постоянный URL: http://servernews.ru/1134217
19.12.2025 [00:15], Владимир Мироненко

Microsoft добавила нативную поддержку NVMe в Windows Server 2025

Microsoft добавила нативную поддержку NVMe в Windows Server 2025 с выпуском накопительного обновления за октябрь. Теперь современные твердотельные накопители более эффективно работают с Windows Server. Это стало возможным благодаря переработанному стеку хранения данных, который больше не рассматривает все накопители в качестве устройств с интерфейсом SCSI, не позволяющего использовать все возможности флеш-памяти.

Ранее Windows Server преобразовывала NVMe-команды в команды SCSI, что приводило к замедлению скорости чтения/записи даже в высокопроизводительных конфигурациях и дополнительным накладным расходам. Теперь нативная поддержка NVMe стала общедоступной (GA), хотя по умолчанию она отключена. Компания сообщила, что также был переработан весь процесс обработки I/O для обеспечения «экстремальной» производительности.

 Источник изображений: Microsoft

Источник изображений: Microsoft

«Этот релиз — результат тесного сотрудничества наших инженерных команд и партнёров по оборудованию, и он служит краеугольным камнем в модернизации нашей системы хранения данных», — говорит компания. Новая подсистема коренным образом меняет производительность хранилищ, обеспечивая до 3,3 млн IOPS на PCIe 5.0 SSD и более 10 млн IOPS на HBA, одновременно снижая задержку за счёт оптимизированных, неблокирующих путей I/O. Кроме того, снижается нагрузка на CPU.

В отличие от предыдущего стандарта, NVMe был разработан с нуля для флеш-памяти и поддерживает до 64 тыс. очередей, при этом каждая очередь способна обрабатывать до 64 тыс. команд одновременно, тогда как SCSI изначально был ориентирован на работу с одной очередью с небольшой глубиной команд, говорит компания. Кроме того, Windows Server 2025 поддерживает и расширенные возможности NVMe, что гарантирует совместимость с накопителями следующего поколения.

Базовое тестирование производительности с помощью DiskSpd.exe показывает, что при включенном Native NVMe в WS2025 обеспечивают до 80 % больше операций IOPS и сокращение до 45 % циклов CPU на операцию I/O при случайном чтении 4K-блоками на томах NTFS по сравнению с WS2022. Следует отметить, что нативная поддержка NVMe была добавлена в стек Windows Server спустя 12 лет после выхода NVMe и многолетней его поддержки в ядре Linux.

Постоянный URL: http://servernews.ru/1134145
18.12.2025 [09:50], Владимир Мироненко

Databricks привлекла $4 млрд, увеличив рыночную стоимость до $134 млрд

Databricks объявила о завершении раунда финансирования серии L, в ходе которого она привлекла более $4 млрд с оценкой рыночной стоимости в $134 млрд. Это на $34 млрд больше её оценки после предыдущего раунда финансирования в августе этого года. С момента основания в 2013 году Databricks провела 12 раундов финансирования, в ходе которых привлекла $19 млрд инвестиций. Из них $14 млрд — в течение последних двух лет.

Раунд финансирования возглавили Insight Partners, Fidelity Management & Research Company и JP Morgan Asset Management при участии Andreessen Horowitz, фондов и счетов под управлением BlackRock, Blackstone, Coatue, GIC, MGX, NEA, Ontario Teachers Pension Plan, Robinhood Ventures, а также счетов, управляемых T. Rowe Price Associates, Inc., Temasek, Thrive Capital и Winslow Capital.

Резкому росту оценки компании способствовал быстрый рост её выручки. Databricks сообщила, что её расчётная годовая выручка (Revenue Run Rate, RRR) в III квартале превысила $4,8 млрд (рост год к году на 55 %), причём более $1 млрд приходится на ИИ-решения и ещё $1 млрд — на платформу для хранения данных Data Warehousing.

 Источник изображений: Databricks

Источник изображений: Databricks

В прошлом году, когда компания привлекла $10 млрд в рамках раунда J, у неё было более 500 клиентов с ежегодным регулярным доходом (ARR) более $1 млрд, сообщил ресурс Blocks & Files. Сейчас таких клиентов более 700. Коэффициент удержания клиентов составляет более 140 %, поскольку существующие клиенты со временем тратят больше денег на услуги Databricks. Компания также отметила популярность Lakebase, управляемой базы данных на основе PostgreSQL, запущенной компанией в июне. Компания сообщила, что сервис уже используют тысячи клиентов и и наращивает выручку вдвое быстрее, чем её решение для хранилищ данных.

Привлечённые инвестиции Databricks планирует направить на дальнейшую разработку трёх «стратегических продуктов».

Первый из них — Lakebase, «первая бессерверная база данных Postgres, специально разработанная для эпохи ИИ». Lakebase идеально подходит для хранения точек данных, которые ИИ-модели используют для принятия решений, пишет SiliconANGLE. Сервис работает со сжатыми версиями бизнес-данных, которые нейронной сети проще обрабатывать, чем исходную информацию, и регулярно обновляет их по мере появления новой информации Например, магазин может преобразовать статистику об активности посетителей веб-сайта в высокоуровневые данные о том, какие товарные объявления вызывают наибольший интерес. Lakebase использует технологии приобретённого за $1 млрд стартапа Neon. Lakebase может предоставлять функции нейронным сетям, развёрнутым как на платформе Databricks, так и во внешней инфраструктуре.

Ещё одно направление инженерных разработок компании — решение Agent Bricks, которое упрощает создание и масштабирование высококачественных агентов на основе их данных. Инструмент генерирует синтетические обучающие данные, которые можно использовать для оптимизации агентов для конкретных задач. Кроме того, он создаёт эталонные тесты для измерения эффективности обучения ИИ и упрощает связанные задачи, такие как разработка системных подсказок.

Компании могут превратить ИИ-агентов, созданных с помощью Lakebase и Agent Bricks, в приложения, используя Databricks Apps, третий продукт, который компания планирует усовершенствовать. Databricks Apps ускоряет разработку приложений за счет автоматизации ряда ручных задач. Это включает в себя процесс внедрения функций аутентификации, контроля доступа и других мер кибербезопасности.

«Благодаря интеграции транзакционных данных в Lakebase, интуитивно понятному интерфейсу и возможности создания передовых многоагентных систем с помощью Agent Bricks, мы предоставляем клиентам единую основу для построения надёжных, высокопроизводительных приложений для обработки данных в масштабе предприятия», — заявил соучредитель и генеральный директор Databricks Али Годси (Ali Ghodsi).

Компания сообщила, что будет использовать новый капитал, чтобы помочь клиентам создавать приложения и агентов на основе ИИ, используя Lakebase в качестве системы учёта, Databricks Apps в качестве уровня пользовательского интерфейса и Agent Bricks для работы с многоагентными системами. Также сообщается, что новое финансирование позволит обеспечить ликвидность для сотрудников, чтобы они могли реализовать свои акции, и, как ожидается, будет способствовать дальнейшим приобретениям и исследования в области ИИ.

Постоянный URL: http://servernews.ru/1134091
18.12.2025 [00:08], Андрей Крупин

Состоялся релиз российской ОС «МСВСфера» 10.1 со встроенным ИИ-ассистентом «Василиса»

Разработчик «Инферит ОС» (входит в группу компаний Softline) сообщил о выпуске версии 10.1 операционной системы «МСВСфера», ключевым нововведением которой стал умный помощник «Василиса», реализованный с использованием технологий машинного обучения и искусственного интеллекта на базе нейронных сетей.

Инструмент «Василиса» разработан новосибирской компанией «Сибирские нейросети», построен на основе открытой ИИ-модели Qwen3 от китайской компании Alibaba и производит все вычисления локально, без передачи данных вовне, что делает его оптимальным решением для применения в корпоративной среде с высокими требованиями к безопасности обрабатываемой информации (госсектор, финтех, оборонно-промышленный комплекс). Помощник выполняет умный поиск по локальным документам и базам знаний, умеет решать аналитические задачи и обрабатывать данные, поддерживает работу с файлами форматов PDF, DOCX, PPTX, TXT, может использоваться для оперативного разрешения возникающих вопросов, генерации идей и получения консультаций.

Для работы ИИ-ассистента «Василиса» в локальном режиме необходим компьютер с конфигурацией от 16 Гбайт оперативной памяти и процессором уровня Intel Core i5 (6 ядер). Для слабых машин компанией «Сибирские нейросети» предлагается возможность подключения помощника к облачным вычислительным ресурсам. По заверениям разработчика, при использовании такого сценария ИИ-помощник не отправляет в интернет полные данные из файлов пользователя — передаются только релевантные фрагменты, необходимые для ответа на конкретный запрос. Это обеспечивает баланс между мощностью внешней ИИ-модели и безопасностью корпоративной информации.

Помимо ИИ-ассистента «Василиса» в состав релиза ОС «МСВСфера» 10.1 вошли аудио- и видеоконвертер, корпоративный менеджер Compass, пакет офисных программ «Р7-Офис», обновлённый «Центр приложений», а также расширенная административная панель Cockpit.

Платформа «МСВСфера» построена на базе ядра Linux, зарегистрирована в реестре отечественного программного обеспечения Минцифры и является альтернативой зарубежным ОС уровня Enterprise Linux. Операционная система представлена в редакциях для рабочих станций и серверов и подходит для использования как в государственных, так и в коммерческих организациях. Продукт содержит встроенные инструменты миграции с Red Hat Enterprise Linux, CentOS, AlmaLinux, Rocky Linux, Oracle Enterprise Linux и поддерживается производителем в рамках десятилетнего жизненного цикла, включая выпуск обновлений и исправлений безопасности, что гарантирует стабильность и защищённость IT-инфраструктуры клиента.

Для физических лиц дистрибутив ОС «МСВСфера» (в исполнении для рабочих станций) предоставляется бесплатно, для корпоративных заказчиков стоимость платформы варьируется в зависимости от количества приобретаемых лицензий.

Постоянный URL: http://servernews.ru/1134080
17.12.2025 [09:00], Владимир Мироненко

«Базис» завершил перевод на свою экосистему ИТ-инфраструктуры правительства Московской области

Российский разработчик ПО управления динамической ИТ-инфраструктурой ПАО «Группа компаний «Базис» объявил о завершении проекта по внедрению виртуальной инфраструктуры на базе экосистемы решений «Базис» для информационных систем региональных министерств и ведомств правительства Московской области, персонал которых насчитывает более 100 тыс. сотрудников.

Решения «Базис» развёрнуты в составе программно-аппаратных комплексов (ПАК). Платформа виртуализации Basis Dynamix Enterprise обеспечивает стабильную работу основных вычислительных мощностей информационных систем подразделений и министерств правительства Московской области, говорится в пресс-релизе. Basis Dynamix Cloud Control отвечает за управление облачной частью инфраструктуры. Basis Virtual Protect обеспечивает интеграцию инструментов для резервного копирования виртуальных сред. Basis Guard поддерживает высокий уровень доступности и отказоустойчивость инфраструктуры. Действуя в рамках единой экосистемы решения «Базиса» позволяют выполнять все задачи, связанные с работой инфраструктуры IT-подразделений администрации региона, и оказывать услуги потребителям.

 Источник изображения: mosreg.ru

Источник изображения: mosreg.ru

Работа над проектом стартовала в прошлом году. Всего в работе информационных систем администрации региона задействовано 480 серверов-узлов виртуальной инфраструктуры.

Генеральный директор ПАО ГК «Базис» Давид Мартиросов отметил, что замена ИТ-инфраструктуры правительства одного из крупнейших по численности населения российских регионов оказалась сложной и масштабной задачей. Впрочем, у группы уже есть опыт успешного выполнения сопоставимых по сложности проектов как для госструктур, так для крупного бизнеса, добавил он.

Постоянный URL: http://servernews.ru/1133996
16.12.2025 [01:05], Владимир Мироненко

NVIDIA купила разработчика Slurm, пообещав не забрасывать open source решение

NVIDIA объявила о приобретении SchedMD — ведущего разработчика открытой системы оркестрации Slurm для высокопроизводительных вычислений (HPC) и ИИ. Финансовые условия сделки не разглашаются.

Созданная SchedMD система Slurm обеспечивает планирование и управление большими вычислительными задачами в ЦОД, позволяя уменьшить количество ошибок, ускорить вывод продукции на рынок и снизить затраты. Как сообщает NVIDIA, сделка поможет укрепить экосистему ПО с открытым исходным кодом и стимулировать инновации в области ИИ для исследователей, разработчиков и предприятий.

Компания отметила, что рабочие нагрузки HPC и ИИ включают сложные вычисления с выполнением параллельных задач на кластерах, для чего требуется организация очередей, планирование и распределение вычислительных ресурсов. По мере увеличения размеров и мощности кластеров HPC и ИИ задача эффективного использования ресурсов становится критически важной.

 Источник изображения: SchedMD

Источник изображения: SchedMD

SchedMD была основана в 2010 году разработчиками ПО Slurm Моррисом «Мо» Джеттом (Morris «Moe» Jette) и Дэнни Оублом (Danny Auble) в Ливерморе (Livermore, штат Калифорния). В настоящее время персонал компании насчитывает 40 человек. Сейчас Slurm — ведущий менеджер рабочих нагрузок и планировщик заданий по масштабируемости, пропускной способности и управлению сложными политиками, который используется более чем в половине из десяти и ста лучших систем в списке TOP500 суперкомпьютеров.

NVIDIA сообщила, что сотрудничает с SchedMD более десяти лет и продолжит инвестировать в разработку Slurm, чтобы сохранить его поизиции как ведущего планировщика с открытым исходным кодом для HPC и ИИ. NVIDIA обеспечит доступ SchedMD к новым системам, чтобы клиенты могли запускать гетерогенные кластеры с использованием последних инноваций Slurm. Также NVIDIA пообещала и далее поддерживать open source ПО, вкладываться в разработку Slurm и обучение.

NVIDIA делает ставку на технологии с открытым исходным кодом и наращивает инвестиции в ИИ-экосистему, чтобы противостоять растущей конкуренции, отметил ресурс Reuters. В конце прошлого года NVIDIA завершила приобретение стартапа Run:ai, разрабатывающего ПО для управления рабочими нагрузками ИИ и оркестрации на базе Kubernetes. А в 2022 году она купила фирму Bright Computing, ещё одного известного разработчика инструментов оркестрации и управления кластерами.

Постоянный URL: http://servernews.ru/1133960
14.12.2025 [22:59], Владимир Мироненко

С Microsoft в Великобритании требуют уже почти $3 млрд за завышение расценок для клиентов облачных конкурентов

В Апелляционном трибунале по вопросам конкуренции Великобритании (CAT) прошло слушание по коллективному иску против Microsoft, по итогам которого судебный орган, занимающийся рассмотрением дел, связанных с вопросами конкуренции и экономического регулирования, должен определить, может ли дело дойти до полномасштабного судебного разбирательства в 2026 году, пишет Data Center Dynamics.

В иске, поданном в суд в декабре 2024 года Марией Луизой Стази (Maria Luisa Stasi), главой отдела права и политики группы по защите цифровых прав Article19, от имени клиентов облачных платформ, Microsoft обвиняется в завышении цен для компаний, использующих Windows Server в инфраструктуре конкурирующих с ней AWS, Google Cloud Platform и Alibaba Cloud, с требованием компенсации пострадавшим компаниям и организациям в размере £2,1 млрд ($2,8 млрд). Основная претензия заключается в том, что лицензии Windows Server в облаке Azure компания продаёт по вчетверо меньшей цене, чем в случае AWS или Google Cloud, и считает это совершенно нормальным.

В ходе слушания Microsoft заявила, что в деле отсутствует надлежащий план возмещения предполагаемых убытков, и в связи с этим потребовала его прекращения. Представляющая интересы истцов адвокат Сара Форд (Sarah Ford) обвинила Microsoft в использовании «последовательной стратегии злоупотреблений» для поддержания доминирующего положения на рынке, жертвами которой стали тысячи обманутых предприятий. На данный момент трибунал пока не принял решение по иску против Microsoft — на это могут уйти недели или даже месяцы.

 Источник изображения: Wesley Tingey/unsplash.com

Источник изображения: Wesley Tingey/unsplash.com

В июле следственная группа британского Управления по конкуренции и рынкам (CMA) заявила, что лицензионная практика Microsoft вредит конкуренции на рынке облачных услуг, «существенно ставя в невыгодное положение AWS и Google», сообщило агентство Reuters. В ответ Microsoft заявила, что в отчёте CMA игнорируется тот факт, что «рынок облачных услуг никогда не был таким динамичным и конкурентным». Amazon и Google неоднократно жаловались CMA на деятельность Microsoft.

В Евросоюзе оба облачных гиганта годами подавали точно такие же жалобы, но в итоге и AWS, и Google сбавили активность в этом направлении. Microsoft «провалила» обещанную облачную реформу, т.ч. Еврокомиссия открыла официальное расследование деятельности компании. При этом и Microsoft, и Google использовали спорные методы в борьбе друг с другом. AWS же, будучи лидером не только мирового, но и европейского облачного рынка, предпочитает действовать более аккуратно.

Постоянный URL: http://servernews.ru/1133908
12.12.2025 [17:21], Руслан Авдеев

Никаких закладок: NVIDIA анонсировала новое ПО для мониторинга и продления жизни ИИ-ускорителей в ЦОД

NVIDIA разрабатывает новое открытое ПО, благодаря которому операторы ЦОД смогут получать более подробные данные о тепловом состоянии и иных параметрах работы ИИ-ускорителей. Предполагается, что это поможет решать проблемы, связанные с перегревом оборудования и его надёжностью, увеличив его срок службы и производительность. NVIDIA отдельно подчёркивает, что телеметрия собирается только в режиме чтения без слежки за оборудованием, а в ПО нет «аварийных выключателей» и бэкдоров. Да и в целом использование новинки опционально.

ПО обеспечивает операторам ЦОД доступ к мониторингу потребления энергии, загрузки, пропускной способности памяти и других ключевых параметров в масштабах всего парка ускорителей. Это помогает выявлять на ранних стадиях риски и проблемные компоненты и условия работы, отслеживать использование ИИ-ускорителей, их конфигурации и ошибки. Детализированная телеметрия становится всё важнее для планирования и управления масштабными инфраструктурами, говорит компания. ПО позволит:

  • отслеживать скачки энергопотребления, чтобы избежать превышение энергетических бюджетов, максимизируя производительность на ватт;
  • отслеживать загрузку, пропускную способность памяти и состояние интерконнектов во всём парке оборудования;
  • заблаговременно выявлять локальные перегревы и проблемы с воздушным потоком, чтобы избежать троттлинга и преждевременного старения компонентов;
  • проверять единообразие конфигураций ПО и настроек для воспроизводимости результатов и надёжности работы;
  • обнаруживать ошибки и аномалии, заблаговременно идентифицировать выходящие из строя компоненты.
 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Такой мониторинг особенно важен на фоне недавнего отчёта учёных Принстонского университета, в котором сообщается, что интенсивные тепловые и электрические нагрузки способны сократить срок службы ИИ-чипов до года-двух, хотя обычно предполагается, что они способны стабильно проработать до трёх лет. Современные ускорители потребляют 700 Вт и более, а высокоплотные системы — от 6 кВт. Из-за этого формируются зоны перегрева, происходят колебания энергопотребления и растёт риск деградации интерконнектов в высокоплотных стойках.

Телеметрия, позволяющая оценить потребление энергии в реальном времени, состояние интерконнектов, систем воздушного охлаждения и др. позволяет перейти от реактивного мониторинга к проактивному проектированию. Рабочие нагрузки можно размещать с учётом теплового режима, быстрее внедрять СЖО или гибридные системы охлаждения, оптимизировать работу сетей с уменьшением тепловыделения.

Также ПО может помочь операторам ЦОД выявлять скрытые ошибки, вызванные несоответствием версий прошивки или драйверов. Благодаря этому можно повысить общую стабильность парка ускорителей. Кроме того, без задержек передаваемые данные об ошибках и состоянии компонентов могут значительно сократить среднее время восстановления работы и упростить анализ причин сбоев. Соответствующие данные могут влиять на решения о тратах на инфраструктуру и стратегию её развития на уровне предприятия.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Как заявляют в Gartner, современный ИИ представляет собой «энергоёмкого и сильно нагревающегося монстра», разрушающего экономику и принципы работы ЦОД. В результате, предприятиям нужны специальные инструменты мониторинга и управления для того, чтобы ситуация не вышла из-под контроля. В ближайшие годы использование подобных решений, вероятно, станет обязательным. Кроме того, прозрачность на уровне всего парка оборудования становится необходимой для обоснования роста бюджетов на ИИ-инфраструктуру.

По словам экспертов, такие программные инструменты позволяют оптимизировать капитальные и операционные затраты на ЦОД и инфраструктуру, запланированные на ближайшие годы. «Каждый доллар и каждый ватт» должны быть учтены при эффективном использовании ресурсов.

Постоянный URL: http://servernews.ru/1133822
11.12.2025 [22:26], Андрей Крупин

«Рег.ру» вывел на рынок приватного ИИ-ассистента для работы с конфиденциальными данными

Работающая на рынке хостинга, доменов и облачных решений компания «Рег.ру» сообщила о доступности клиентам приватного ИИ-ассистента, реализованного по модели HaaS (Hardware as a Service).

Новый продукт призван закрыть потребность бизнеса в использовании генеративного ИИ там, где развёртывание в публичном облаке невозможно из-за нормативных требований или внутренних политик безопасности. В отличие от облачной версии, где ресурсы выделяются из общего пула, приватный ИИ-ассистент функционирует в полностью изолированном контуре. «Рег.ру» берет на себя техническую поддержку инфраструктуры с широким ассортиментом предустанавливаемых open-source ИИ-моделей. Донастройку и интеграцию решения под конкретные бизнес-задачи организации могут выполнять самостоятельно или с привлечением партнёров-интеграторов.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Решение поставляется в виде серверных машин с ускорителями NVIDIA (включая решения H100 и H200 с 80 и 141 Гбайт памяти соответственно, а также карты серий A100, L40S и A6000), на которых размещается образ на базе платформы Ollama с предустановленными ИИ-моделями и веб-интерфейсом. Серверы поддерживают установку до 8 GPU, комплектуются производительными CPU, оперативной памятью до 4 Тбайт и NVMe-накопителями.

Архитектура сервиса позволяет проводить аттестацию для соответствия строгим стандартам, включая ФЗ-152 «О персональных данных» и требования ФСТЭК России.

Постоянный URL: http://servernews.ru/1133787