Материалы по тегу: ии

19.11.2025 [11:49], Сергей Карасёв

Второй европейский экзафлопсный суперкомпьютер Alice Recoque получит чипы AMD EPYC Venice и ускорители Instinct MI430X

Европейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) и французско-нидерландский Консорциум Жюля Верна объявили о том, что в создании суперкомпьютера Alice Recoque примут участие компании Eviden (входит в состав Atos Group), AMD и SiPearl.

О проекте Alice Recoque впервые стало известно в июне прошлого года. Это будет второй европейский суперкомпьютер экзафлопсного класса после системы JUPITER, смонтированной в Юлихском исследовательском центре (FZJ) в Германии. Соглашение о создании Alice Recoque подписано между EuroHPC JU и французским национальным агентством высокопроизводительных вычислений (GENCI). Комплекс будет смонтирован в дата-центре на территории Брюйер-ле-Шатель (Bruyères-le-Châtel), к юго-западу от Парижа.

Как сообщается, в состав Alice Recoque войдут унифицированный вычислительный раздел и скалярный раздел. Основой первого послужит новая платформа Eviden BullSequana XH3500, содержащая серверы с 256-ядерными процессорами AMD EPYC Venice и ускорителями Instinct MI430X, оснащёнными 432 Гбайт памяти HBM4 с пропускной способностью 19,6 Тбайт/с. Кроме того, говорится о применении AMD FPGA и высокопроизводительной подсистемы хранения данных DDN. Суперкомпьютер объединит 94 стойки с суммарным энергопотреблением «менее 15 МВт».

В свою очередь, скалярный раздел будет использовать 128-ядерные Arm-процессоры SiPearl Rhea2. Общее количество таких ядер превысит 100 тыс. В качестве интерконнекта в составе Alice Recoque планируется использовать технологию BullSequana eXascale Interconnect (BXI v3), обеспечивающую скорость передачи данных до 400 и 800 Гбит/с для CPU- и GPU-узлов соответственно.

 Источник изображения: AMD

Источник изображения: AMD

Машина получит систему прямого жидкостного охлаждения (DLC) пятого поколения (с тёплой водой) разработки Eviden для унифицированных стоек и технологию охлаждаемых дверей для скалярных стоек. Интеллектуальное программное обеспечение Eviden Argos обеспечит мониторинг в режиме реального времени и оптимизацию энергопотребления. Говорится о широком применении компонентов с открытым исходным кодом, таких как SLURM, Kubernetes, LUSTRE, Grafana и Prometheus.

Монтаж суперкомпьютера Alice Recoque начнётся в 2026 году. Затраты на приобретение, доставку, установку и обслуживание системы составят €354,8 млн. EuroHPC JU предоставит половину этой суммы, ещё столько же обеспечат Франция, Нидерланды и Греция в рамках Консорциума Жюля Верна. Общие инвестиции в проект на протяжении пяти лет оцениваются в €554 млн. Использовать новый вычислительный комплекс планируется для решения сложных задач в сферах моделирования климата, разработки передовых материалов, энергетики и пр. Система также поможет в развитии европейских моделей ИИ следующего поколения и цифровых двойников для персонализированной медицины.

Постоянный URL: http://servernews.ru/1132596
19.11.2025 [11:00], Андрей Крупин

Релиз почтового сервера RuPost 4.0: поддержка геокластеризации и повышенная безопасность

Российский разработчик «РуПост» (входит в «Группу Астра») представил новый релиз почтового сервера RuPost 4.0. По словам компании, RuPost представляет собой коммуникационное решение корпоративного класса, отвечающее всем требованиям современной организации любого масштаба.

Продукт поддерживает кластеризацию, миграцию данных и одновременную работу с Microsoft Exchange, взаимодействие со службами каталогов ALD Pro, Active Directory, FreeIPA, а также оснащён средствами балансировки нагрузки, самодиагностики и мониторинга целостности конфигураций почтовых компонентов. Платформа RuPost подходит для решения задач импортозамещения. Программный комплекс включён в реестр Минцифры России и входит в дорожную карту «Цифровое рабочее место сотрудника».

 Источник изображений: rupost.ru

Источник изображений: rupost.ru

Главным технологическим нововведением релиза стала поддержка геокластеров с возможностью объединения нескольких территориально распределённых кластеров в единую инфраструктуру. Это обеспечивает кардинальное повышение уровня отказоустойчивости почтовой системы, стабильность бизнес-процессов, рациональное распределение нагрузки между региональными кластерами и снижение риска простоев.

В числе прочего обновлённый почтовый сервер RuPost 4.0 получил множество доработок по части информационной безопасности. В частности, была реализована поддержка Kerberos и OpenID Connect (OAuth 2.0) для веб-клиента, что упростило авторизацию пользователей. Появилась проверка SPF-записей, помогающая службам ИБ выявлять подделку отправителей. Квоты на ящики теперь задаются с дробными значениями, LDAP-домены поддерживают названия верхнего уровня (TLD) и однобуквенные корневые почтовые домены, а сервис postscreen при необходимости отключается, если фильтрацию выполняет внешний почтовый шлюз. Была добавлена возможность отслеживать доставку и открытие писем.

Отдельное внимание было уделено администрированию почтовых политик и предоставлению услуг технической поддержки. RuPost 4.0 получил средства централизованного управления ответами, создания шаблонов (например, для отпуска или командировки сотрудника) и назначения для них сроков действия из панели управления. Для мониторинга и интеграций доступны подключение к платформам Zabbix и «Астра Мониторинг» с передачей метрик по всем узлам, а также HTTP API, через который внешние системы могут получать информацию о состоянии комплекса и выполнять разные операции с почтовыми ящиками — от создания до изменения статусов.

«Новая версия нашего продукта даёт заказчикам совершенно другой уровень удобства, надёжности и масштабирования. Клиенты получают единую платформу для построения современной корпоративной почтовой среды. Она способна объединять несколько центров обработки данных и региональных подразделений в одно логическое пространство, минимизируя операционные риски и затраты на обслуживание. Высокая степень автоматизации, интеграция с системами мониторинга и отсутствие единой точки отказа делают RuPost 4.0 оптимальным решением для компаний, ориентированных на непрерывность бизнес процессов и информационную безопасность», — отмечает «РуПост».

Постоянный URL: http://servernews.ru/1132526
19.11.2025 [01:11], Владимир Мироненко

$30 млрд и 1 ГВт: Microsoft, NVIDIA и Anthropic договорились о сотрудничестве

Microsoft, NVIDIA и Anthropic объявили о стратегическом партнёрстве, которое включает ряд новых инициатив. Как сообщается, Anthropic взяла на себя обязательство приобрести вычислительные мощности Azure стоимостью $30 млрд и заключить контракт на поставку дополнительных вычислительных мощностей объёмом до 1 ГВт для обеспечения будущих потребностей в масштабировании. В рамках партнёрства NVIDIA и Microsoft также обязуются инвестировать в Anthropic до $10 и $5 млрд соответственно.

Компании также расширят существующее партнёрство, чтобы обеспечить предприятиям более широкий доступ к ИИ-модели Claude. Клиенты Microsoft Azure AI Foundry смогут получить доступ к продвинутым (frontier) версиям модели Claude, включая Claude Sonnet 4.5, Claude Opus 4.1 и Claude Haiku 4.5. Это партнёрство делает Claude единственной frontier-моделью LLM, доступной во всех трёх самых известных облачных сервисах мира.

Также Claude будет интегрирована в пакет Copilot, включающий GitHub Copilot, Microsoft 365 Copilot и Copilot Studio. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) отметил, что акцент Microsoft на корпоративные платформы естественным образом подходит Claude, которая часто используется в бизнес-приложениях, пишет The Wall Street Journal.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В рамках стратегического партнёрства Anthropic и NVIDIA будут сотрудничать в области проектирования и инжиниринга с целью обеспечения наилучшей производительности, экономичности и общей стоимости владения для моделей Anthropic, а также оптимизации будущих архитектур NVIDIA для рабочих нагрузок Anthropic. Первоначально Anthropic будет использовать вычислительные системы NVIDIA Grace Blackwell и Vera Rubin мощностью до 1 ГВт.

Аналитики Bank of America утверждают, что эти, на первый взгляд, цикличные сделки являются для лидеров отрасли способом расширить свой потенциальный целевой рынок, что «может многократно увеличить будущие выгоды». Как отметил ресурс Converge! Network Digest, с учётом нынешнего объявления портфель обязательств Microsoft в области ИИ теперь превышает $100 млрд, включая контракты с OpenAI, Inflection и Anthropic. Эти долгосрочные соглашения помогают Microsoft обосновать ускоренное строительство ИИ ЦОД, закупки электроэнергии и развёртывание ИИ-систем. Сделка также укрепляет позиции Azure по сравнению с AWS, запустившей для Anthropic ИИ-кластер Project Rainier, и Google Cloud, TPU которой также пользуется Anthropic.

Постоянный URL: http://servernews.ru/1132592
18.11.2025 [16:55], Владимир Мироненко

d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptor

d-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий.

Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset.

Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он.

d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM.

По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок.

Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации.

AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.

Постоянный URL: http://servernews.ru/1132561
18.11.2025 [16:01], Руслан Авдеев

Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной Корее

Компании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект.

На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября.

Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.

 Источник изображения:  Yu Kato/unsplash.com

Источник изображения: Yu Kato/unsplash.com

Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики.

Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.

Постоянный URL: http://servernews.ru/1132535
18.11.2025 [13:36], Сергей Карасёв

ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлаждения

Компания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL.

 Источник изображений: Giga Computing

Источник изображений: Giga Computing

Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена.

Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub.

За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей.

Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.

Постоянный URL: http://servernews.ru/1132550
18.11.2025 [12:43], Руслан Авдеев

Crusoe завершила строительство последнего здания первого кампуса Stargate

Завершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением.

Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт.

В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA.

 Источник изображения: Crusoe Energy

Источник изображения: Crusoe Energy

В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.

Постоянный URL: http://servernews.ru/1132540
17.11.2025 [16:09], Руслан Авдеев

Программный «ускоритель» Huawei обещает практически удвоить производительность дефицитных ИИ-чипов

Китайский техногигант Huawei Technologies инфраструктурное ПО для повышения эффективности использования ИИ-ускорителей, сообщает гонконгская SCMP со ссылкой на государственные СМИ КНР. По имеющимся данным, технология позволит поднять эффективность использования ИИ-чипов, включая GPU и NPU, до 70 % по сравнению с нынешними 30–40 %. Это будет ещё одним крупным достижением в области «компенсации отставания в аппаратном обеспечении за счет совершенствования программного».

Новая технология, премьера которой должна состояться на одной из посвящённых ИИ-тематике конференций, позволит «унифицированно управлять» не только ускорителями самой Huawei, но и NVIDIA, а также моделями прочих разработчиков. В самой Huawei от комментариев пока воздержались. Это особенно актуально в свете недоступности актуальных ускорителей NVIDIA, из-за чего китайские компании скупают чипы прошлых поколений. Важность оптимизации использования имеющихся ресурсов наглядна показала «революция DeepSeek».

 Источник изображения: Yiran Ding/unsplash.com

Источник изображения: Yiran Ding/unsplash.com

Если информация подтвердится, технология может значительно улучшить продажи ИИ-чипов семейства Huawei Ascend в Китае (возможно, и за его пределами). Это может снизить зависимость КНР от чипов NVIDIA и других американских разработчиков.

Утверждается, что новая технология Huawei будет аналогична продукту, разрабатывавшемуся израильским стартапом Run:ai и купленному NVIDIA в 2024 году за $700 млн. Его ПО позволяет организовать оркестрацию крупномасштабных ИИ-нагрузок между массивами ИИ-ускорителей. При этом и сама NVIDIA постоянно оптимизирует собственное ПО, повышая производительность исполнения рабочих нагрузок ИИ.

Новость может стать хорошим дополнением к сентябрьскому анонсу. Тогда компания поделилась планами выпуска ИИ-ускорителей Ascend следующего поколения. Готовящиеся изделия призваны составить конкуренцию передовым чипов NVIDIA и подготовке мощных ИИ-систем SuperPOD, объединяющих 8192 и 15 488 ускорителей Ascend. На основе таких платформ будут формироваться суперкластеры, насчитывающие до 500 тыс. и более экземпляров Ascend.

Постоянный URL: http://servernews.ru/1132495
17.11.2025 [10:02], Сергей Карасёв

ИИ-производительность японского суперкомпьютера FugakuNEXT превысит 600 Эфлопс

Компания Fujitsu поделилась информацией о суперкомпьютере следующего поколения FugakuNEXT (Fugaku Next), который создаётся совместно с японским Институтом физико-химических исследований (RIKEN). Проект реализуется при поддержке Министерства образования, культуры, спорта, науки и технологий Японии (MEXT).

FugakuNEXT придёт на смену вычислительному комплексу Fugaku, который в 2020 году стал самым высокопроизводительным суперкомпьютером в мире. В рейтинге ТОР500 от июня 2025 года эта НРС-система занимает седьмое место с FP64-быстродействием приблизительно 442 Пфлопс (теоретическая пиковая производительность достигает 537,21 Пфлопс). Разработку архитектуры FugakuNEXT планируется полностью завершить к середине 2028 года, после чего начнутся производство и монтаж суперкомпьютера. В эксплуатацию система будет введена не ранее середины 2030 года.

Известно, что в основу FugakuNEXT лягут Arm-процессоры Fujitsu MONAKA-X, при производстве которых предполагается использовать 1,4-нм технологию. Чипы получат до 144 вычислительных ядер. Кроме того, в состав машины войдут ИИ-ускорители NVIDIA, для связи которых с CPU планируется задействовать шину NVLink Fusion. Платформа также получит новые интерконнекты для горизонтального и вертикального масштабирования.

 Источник изображений: Fujitsu

Источник изображений: Fujitsu

В материалах Fujitsu говорится, что FugakuNEXT получит в общей сложности свыше 3400 узлов CPU и GPU. Их объём памяти превысит 10 ПиБ (Пебибайт). Агрегированная пропускная способность памяти в случае CPU-блоков составит более 7 Пбайт/с, GPU-модулей — свыше 800 Пбайт/с против 163 Пбайт/с у нынешней системы Fugaku.

Кроме того, раскрываются ожидаемые показатели ИИ-быстродействия FugakuNEXT. У CPU-секции производительность превысит 48 Пфлопс в режиме FP64, 1,5 Эфлопс на операциях FP16/BF16 и 3 Эфлопс в режиме FP8. В случае GPU-раздела быстродействие FP64, FP16/BF16, FP8 и FP8 Sparse составит более 2,6 Эфлопс, 150 Эфлопс, 300 Эфлопс и 600 Эфлопс соответственно.

Постоянный URL: http://servernews.ru/1132455
17.11.2025 [09:00], Сергей Карасёв

«Базис» представляет новую версию Basis Dynamix Enterprise с поддержкой программно-определяемых сетей и зон доступности

Компания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, объявляет о выпуске версии 4.4.0 высокопроизводительной платформы серверной виртуализации Basis Dynamix Enterprise. Обновление включает более 110 улучшений и исправлений, направленных на расширение сетевых возможностей платформы, повышение гибкости управления инфраструктурой и углубление автоматизации критически важных процессов.

Поддержка программно-определяемых сетей

Ключевым нововведением версии 4.4.0 стала полностью нативная интеграция с платформой Basis SDN — программно-определяемой системой управления сетями, которую компания представила в мае этого года. Теперь Basis Dynamix Enterprise может использовать расширенные возможности Basis SDN для создания и управления виртуальными сетями.

В платформу были интегрированы новые программные интерфейсы для управления сетевыми настройками. Узлы с поддержкой SDN позволяют администраторам создавать изолированные сетевые среды с гранулярным контролем трафика между виртуальными машинами.

При создании ресурсной группы с привязкой к SDN Access Group сетевая конфигурация автоматически ограничивается совместимыми типами интерфейсов, обеспечивая полную изоляцию трафика на уровне гипервизора. Это позволяет специалистам заказчика развёртывать с помощью Basis Dynamix Enterprise мультитенантные среды с гарантированной сегментацией данных различных проектов.

Создание изолированных сред внутри платформы

Разработчики Basis Dynamix Enterprise реализовали механизм работы с зонами (zone) — логической группировкой вычислительных узлов с заданными границами размещения. Нагрузки выполняются только на узлах своей зоны; при необходимости поддерживается контролируемая миграция между зонами (например, для обслуживания или балансировки).

К зоне могут быть привязаны виртуальные машины, внутренние и внешние сети, балансировщики нагрузки, базовые службы и кластеры Kubernetes. Политики платформы фиксируют их размещение в пределах зоны и упрощают соблюдение требований по сегментации и локализации данных.

Группы безопасности и транковые сети

В релизе 4.4.0 была значительно улучшена собственная сетевая подсистема Basis Dynamix Enterprise. Реализованы группы безопасности (security groups), работающие на уровне виртуальных сетевых коммутаторов; правила меняются через API без перезапуска ВМ, что даёт администратору гибкое управление политиками безопасности виртуальных узлов.

Поддержка транковых сетей добавлена через новый тип интерфейса «trunk». Функция включается явно в настройках аккаунта или ресурсной группы; она упрощает разделение сетевого трафика и уменьшает количество виртуальных сетевых адаптеров при работе с несколькими сетями.

 Источник изображений: «Базис»

Источник изображений: «Базис»

Классы обслуживания дисков

В Basis Dynamix Enterprise 4.4.0 при создании виртуальных машин, дисков, образов и кластеров Kubernetes можно указать ID политики хранения, автоматически применяющей установленные лимиты производительности. Политики настраиваются через API с поддержкой добавления и удаления пулов хранения. В тенантах теперь можно задавать квоты потребления для создаваемых политик; вместе с существующими квотами это даёт многоуровневый контроль СХД.

Онлайн-миграция дисков между СХД

Для обеспечения непрерывности бизнес-процессов в версии 4.4.0 реализован механизм миграции одного или нескольких дисков между системами хранения без перемещения виртуальной машины на другой вычислительный узел. Механизм работает без остановки виртуальной машины при условии, что узел является узлом потребления (consumer) в обеих СХД. Реализованные API-методы обеспечивают полный контроль над процессом переноса данных. Миграция возможна только между включёнными узлами (Enabled), что позволяет переносить рабочие тома в рабочее время и ускоряет вывод из эксплуатации устаревших массивов.

Поддержка Guest Agent

Платформа теперь поддерживает интеграцию с QEMU Guest Agent через набор соответствующих API-методов. Они позволяют управлять функциями агента на уровне отдельных ВМ. При наличии установленного QEMU Guest Agent в гостевой ОС администраторы могут выполнять команды в гостевой системе, управлять доступными возможностями агента и собирать расширенную телеметрию.

Доступность и мониторинг

Basis Dynamix Enterprise 4.4.0 предлагает расширенные возможности автоматизации критически важных процессов. Реализованы два новых режима работы: uptime-daemon обеспечивает автоматическую изоляцию проблемных узлов с настраиваемым таймаутом до 90 секунд; uptime-monitor переводит узел в режим техобслуживания без подтверждения выключения узла через IPMI.

Для DPDK-узлов добавлен сервис мониторинга с экспортом метрик в систему визуализации Grafana.

«В мае мы выпустили уникальный для российского рынка полностью импортонезависимый standalone продукт Basis SDN, отечественное коробочное решение для работы с программно-определяемыми сетями. Продукт вызвал живой интерес у заказчиков, поэтому в новом релизе Basis Dynamix Enterprise мы уделили особое внимание глубокой совместимости нашей флагманской платформы и SDN-решения. Помимо поддержки программно-определяемых сетей, в релизе 4.4 мы добавили зоны доступности и политики хранения, которые наши заказчики также давно ждали. Эти функции позволяют строить более гибкую инфраструктуру и эффективнее управлять имеющимися ресурсами, избегая при этом простоя и сохраняя полный контроль над данными», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1132393
Система Orphus