Материалы по тегу: ии

30.10.2025 [17:36], Андрей Крупин

Релиз «Кибер Бэкап» 18.0: поддержка новых источников данных, защита Linux от вирусов-шифровальщиков, API и многое другое

Компания «Киберпротект» сообщила о выпуске новой версии программного комплекса «Кибер Бэкап» 18.0, предназначенного для резервного копирования IT-систем любой сложности.

Обновлённый продукт подвергся существенным доработкам в плане производительности и масштабируемости. В частности, в новой редакции системы максимальное количество почтовых ящиков, которые могут находиться под защитой одного экземпляра сервера управления «Кибер Бэкапа», выросло до 60 тыc., а виртуальных машин — до 20 тыс. Свой вклад в повышение скорости работы программного комплекса внесла первая версия многопоточного полного резервного копирования инстансов PostgreSQL и СУБД на её основе. Новая технология файлового резервного копирования существенно ускоряет процесс, минимизируя требуемое окно при защите больших баз данных в ряде сценариев.

 Здесь и далее источник изображений: «Киберпротект» / cyberprotect.ru

Здесь и далее источник изображений: «Киберпротект» / cyberprotect.ru

Дополнительно разработчиками была актуализирована поддержка операционных системы семейства Linux — теперь «Кибер Бэкап» поддерживает платформы с версиями ядра вплоть до 6.14. Кроме того, в агент для ОС Linux теперь входит модуль активной защиты от вирусов-шифровальщиков, позволяющий распознавать типичные паттерны действий вредоносного ПО. Модуль агента резервного копирования способен в реальном времени выявлять подозрительные операции, останавливать процессы и разрывать удалённые подключения, а также автоматически восстанавливать повреждённые данные.

С релизом «Кибер Бэкап» 18.0 список поддерживаемых на уровне гипервизора систем виртуализации пополнился Proxmox VE и платформой на её основе — «Альт Виртуализация». Также появилась поддержка аппаратных моментальных снимков виртуальных машин средствами СХД YADRO TATLIN.UNIFIED в сценарии размещения ВМ под управлением VMware.

Значительным доработкам подверглись средства интеграции с отечественной платформой CommuniGate Pro — была добавлена поддержка многосерверных кластерных конфигураций для крупных инсталляций коммуникационного сервиса с возможностью гранулярного восстановления — вплоть до уровня почтовых ящиков, сообщений электронной почты и их вложений. Также добавлена защита сервиса Mailion, включая восстановление до уровней почтовых ящиков и отдельных писем в оригинальное расположение.

Для ознакомления в установочный комплект «Кибер Бэкап» 18.0 добавлена MVP-версия нового медиасервера «Кибер Медиасервер», призванного по мере своего развития заменить «Узел хранения» — актуальный медиасервер системы, обеспечивающий централизованный доступ к хранилищам резервных копий и их защиту, масштабирование, в том числе в условиях географически распределённых инфраструктур, реализацию других сценариев, связанных с хранением резервных копий.

Особенностями «Кибер Медиасервера» являются «прямая» отправка резервных копий в объектные хранилища S3, поддержка Linux-дистрибутива «Ред ОС» 7.3, протоколов SMB/CIFS, NFS, iSCSI, FC и востребованных в корпоративной среде аппаратных и программных хранилищ данных.

В числе прочего «Кибер Бэкап» 18.0 содержит ряд других важных улучшений, касающихся улучшенной совместимости со сторонними решениями дедупликации резервных копий, возможностей информирования и аудита, управления нагрузкой на вычислительные ресурсы хоста агента при защищённой передаче резервных копий, а также поддержки ленточных хранилищ.

Ещё одно нововведение — API управления планами защиты. В дополнение к инструментам веб-консоли, интерфейсу командной строки и загрузочному носителю разработчики реализовали программный интерфейс управления с функциями, относящимися к работе с заданиями (планами) резервного копирования.

Продукт зарегистрирован в реестре российского ПО Минцифры России и может использоваться для реализации стратегии технологической независимости от импортных решений. В настоящий момент программный комплекс «Кибер Бэкап» 18.0 проходит сертификацию ФСТЭК России, завершение которой и получение соответствующих документов ожидается до конца 2025 года.

Постоянный URL: http://servernews.ru/1131643
30.10.2025 [17:24], Руслан Авдеев

МТС вложит 10 млрд руб. в развитие облачного направления MWS Cloud

МТС запустила публичное, импортонезависимое облако MWS Cloud Platform собственной разработки, которое соответствует требованиям регуляторов РФ. По словам компании, платформа позволит заказчикам размещать и обрабатывать в облаке данные любого объёма и формата с неограниченным масштабированием. На развитие своего облачного направления компания МТС намерена потратить более 10 млрд руб. в 2025 году, сообщает Forbes со ссылкой на главу МТС Web Services. По его словам, инвестиции в MWS Cloud предназначены для развития облачной платформы, инфраструктуры для облака и дата-центров.

Разработанная компанией платформа с июня работала в режиме закрытого тестирования с ограниченным количеством сервисов, а сейчас полноценно выходит на рынок. Уже доступны сервисы Compute, VPC, CDN, Object Storage и IAM. В режиме превью запущены Artifact Registry (Docker), Certificate Manager (SSL/TLS), а также Managed PostgreSQL, Managed Kafka, Managed Kubernetes, KMS (управление криптографическими ключами), Secret Manager и сервис для использования LLM MWS GPT в облачной платформе. В 2026 году будет продолжено развитие IaaS/PaaS. Также со времением возможно появление направления периферийных вычислений.

 Источник изображения: MWS

Источник изображения: MWS

По оценкам iKS-Consulting, российский рынок облачных инфраструктурных сервисов растёт хорошими темпами, в текущем году он должен вырасти на 36 % до 229 млрд руб. MWS работает в сегментах IaaS и PaaS много лет, и в I полугодии она занимала пятое место среди крупнейших облачных провайдеров страны (доля 5 %). Предполагается, что соответствующий рынок до 2030 года будет расти в среднем на 27 % в год, а отдельные сегменты, особенно связанные с ИИ, растут особенно активно и потенциал рынка ещё не исчерпан. Особенно отмечен сегмент PaaS, именно в нём MWS намерена предлагать широкий спектр услуг, передаёт Forbes.

В январе сообщалось, что почти все крупные компании России используют облачные сервисы, а в июне появилась новость, что инфраструктура в публичном облаке России ежегодно увеличивается почти на треть. В сентябре MWS Cloud заявила, что направит на развитие дата-центров 6,5 млрд руб.

Постоянный URL: http://servernews.ru/1131631
30.10.2025 [16:56], Руслан Авдеев

AWS инвестирует не менее $5 млрд в ЦОД Южной Кореи

По данным администрации президента Южной Кореи, Amazon Web Services (AWS) инвестирует в страну как минимум $5 млрд. Средства будут потрачены на новые ИИ ЦОД — Сеул намерен стать одним из ключевых ИИ-хабов в Азии, сообщает Reuters.

Объявление было сделано в ходе встречи генерального директора AWS Мэтта Гармана (Matt Garman) с президентом Южной Кореи Ли Чжэ Мёном (Lee Jae Myung) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС). Amazon является одной из семи компаний глобального уровня, чьи лидеры посетили групповую встречу с Ли и пообещали инвестировать в страну $9 млрд в следующие пять лет.

Как заявил президент, инвестиции Amazon ускорят рост экосистемы для ИИ-индустрии в Южной Корее, поскольку страна намерена войти в тройку лидеров в сфере ИИ. Гарман в ответ подчеркнул, что что его компания уже инвестировала и намерена инвестировать дополнительные $40 млрд в 14 страны Азиатско-Тихоокеанского региона (АТР) до 2028 года. При этом такие инвестиции обеспечат экономике США $45 млрд.

 Источник изображения: Mos Sukjaroenkraisri/unsplash.com

Источник изображения: Mos Sukjaroenkraisri/unsplash.com

В июне AWS представила план инвестиций $4 млрд в Южную Корею в рамках проекта SK Group по строительству крупнейшего в стране дата-центра в Ульсане (Ulsan). Также анонсированы инвестиции в другие страны региона, включая Японию, Австралию и Сингапур. Ранее в этом месяце сообщалось, что OpenAI намеревалась открыть в Южной Корее совместные предприятия с Samsung и SK для строительства двух ЦОД, корейского вариант Stargate с изначальной мощностью 20 МВт. OpenAI заявила, что Южная Корея — один из рекордсменов по числу подписчиков GhatGPT, в этом отношении она уступает только США. Также OpenAI заключила сделки для приобретения чипов памяти для своих дата-центров у Samsung Electronics и SK Hynix.

Постоянный URL: http://servernews.ru/1131628
30.10.2025 [16:18], Руслан Авдеев

Полмиллиона ускорителей Trainium2: AWS развернула для Anthropic один из крупнейших в мире ИИ-кластеров Project Rainier

AWS объявила о запуске одного из крупнейших в мире ИИ-кластеров Project Rainier. Фактически амбициозный проект представляет собой распределённый между несколькими ЦОД ИИ-суперкомпьютер — это важная веха в стремлении AWS к развитию ИИ-инфраструктуры, сообщает пресс-служба Amazon. Платформа создавалась под нужды Anthropic, которая буквально на днях подписала многомиллиардный контракт на использование Google TPU.

В рамках Project Rainier компания AWS сотрудничала со стартапом Anthropic. В проекте задействовано около 500 тыс. чипов Trainium2, а вычислительная мощность в пять раз выше той, что Anthropic использовала для обучения предыдущих ИИ-моделей. Project Rainier применяется Anthropic для создания и внедрения моделей семейства Claude. К концу 2025 года предполагается использование более миллиона чипов Trainium2 для обучения и инференса.

В рамках Project Rainier в AWS уже создали инфраструктуру на основе Tranium2, на 70 % превосходящую любую другую вычислительную ИИ-платформу в истории AWS. Проект охватывает несколько дата-центров в США и не имеет аналогов среди инициатив AWS. Он задуман как гигантский кластер EC2 UltraCluster из серверов Trainium2 UltraServer. UltraServer объединяет четыре физических сервера, каждый из которых имеет 16 чипов Trainium2. Они взаимодействуют через фирменный интерконнект NeuronLink, обеспечивающий быстрые соединения внутри системы, что значительно ускоряет вычисления на всех 64 чипах. Десятки тысяч UltraServer объединяются в UltraCluster посредством фабрики EFA.

Эксплуатация такого ЦОД требует повышенной надёжности. В отличие от большинства облачных провайдеров, AWS создаёт собственное оборудование и может контролировать каждый компонент, от чипов до систем охлаждения и архитектуру дата-центров в целом. Управляющие ЦОД команды уделяют повышенное внимание энергоэффективности, от компоновки стоек до распределения энергии и выбора методов охлаждения. Кроме того, в 2023 году вся энергия, потребляемая Amazon, полностью компенсировалась электричеством из возобновляемых источников. В Amazon утверждают, что в последние пять лет компания является крупнейшим покупателем возобновляемой энергии и стремится к достижению нулевых выбросов к 2040 году.

 Источник изображения: AWS

Источник изображения: AWS

Миллиарды долларов инвестируются в ядерную энергетику и АКБ, а также крупные проекты в области возобновляемой энергетики для ЦОД. В 2024 году компания объявила о внедрении новых компонентов для ЦОД, сочетающих технологии электропитания, охлаждения и аппаратного обеспечения, причём не только для строящихся, но и уже для имеющихся объектов. Новые компоненты, предположительно, позволят снизить энергопотребление некоторых компонентов до -46 % и сократить углеродный след используемого бетона на 35 %.

 Источник изображения: AWS

Источник изображения: AWS

Для новых объектов, строящихся в рамках Project Rainier и за его пределами, предусмотрено использование целого ряда новых технологий для повышения энергоэффективности и экоустойчивости. Некоторые технологии связаны с рациональным использованием водных ресурсов. AWS проектирует объекты так, чтобы использовать минимум воды, или вовсе не использовать её. Один из способов — отказ от её применения в системах охлаждения на многих объектах большую часть года, с переходом на охлаждение наружным воздухом.

 Источник изображения: AWS

Источник изображения: AWS

Так, один из объектов Project Rainier в Индиане будет максимально использовать именно уличный воздух, а с октября по март дата-центры вовсе не станут использовать воду для охлаждения, с апреля по сентябрь в среднем вода будет применяться по несколько часов в день. Согласно отчёту Национальной лаборатории им. Лоуренса в Беркли (LBNL), стандартный показатель WUE для ЦОД 0,375 л/кВт·ч. В AWS этот показатель равен 0,15 л/кВт·ч, что на 40 % лучше, чем в 2021 году.

Постоянный URL: http://servernews.ru/1131617
30.10.2025 [13:51], Владимир Мироненко

От Nearline SSD до HBF: SK hynix анонсировала NAND-решения AIN для ИИ-платформ

Компания SK hynix представила стратегию развития решений хранения на базе NAND нового поколения. SK hynix заявила, что в связи с быстрым ростом рынка ИИ-инференса спрос на хранилища на базе NAND, способных быстро и эффективно обрабатывать большие объёмы данных, стремительно растёт. Для удовлетворения этого спроса компания разрабатывает серию решений AIN (AI-NAND), оптимизированных для ИИ. Семейство будет включать решения AIN P, AIN B и AIN D, оптимизированные по производительности, пропускной способности и плотности соответственно.

 Источник изображений: SK hynix

Источник изображений: SK hynix

AIN P (Performance) — это решение для эффективной обработки больших объёмов данных, генерируемых в рамках масштабных рабочих нагрузок ИИ-инференса. Продукт значительно повышает скорость обработки и энергоэффективность, минимизируя узкие места между хранилищем и ИИ-операциями. SK hynix разрабатывает NAND-память и контроллеры с новыми возможностями и планирует выпустить образцы к концу 2026 года.

Как пишет Blocks & Files, накопитель AIN P, как ожидается, получит поддержку PCIe 6.0 и обеспечит 50 млн IOPS на 512-байт блоках, тогда как сейчас производительность случайного чтения и записи с 4-Кбайт блоками составляет порядка 7 млн IOPS у накопителей PCIe 6.0. То есть AIN P будет в семь раз быстрее, чем нынешние корпоративные PCIe 6.0 SSD, и, по заявлению SK hynix, достичь 100 млн IOPS можно будет уже в 2027 году. Такой SSD будет выполнен в форм-факторе EDSFF E3.x и оснащён контроллером, предназначенным для выполнения как обычных рабочих нагрузок, так и с высоким показателем IOPS.

AIN D (Density) — это высокоплотное решение Nearline (NL) SSD для хранения больших объёмов данных с низкими энергопотреблением и стоимостью, подходящее для хранения ИИ-данных. Компания стремится увеличить плотность QLC SSD с Тбайт до Пбайт, создав решение среднего уровня, сочетающее в себе скорость SSD и экономичность HDD. AIN D от SK hynix как раз предназначен для замены жёстких дисков. Компания также упоминает некий стандарт JEDEC-NLF (Near Line Flash?), который пока не существует. При этом SK hynix пока не упоминает PLC NAND и не приводит данные о ёмкости AIN D.

AIN B (Bandwidth) — это HBF-память с увеличенной за счёт вертикального размещения нескольких модулей NAND пропускной способностью. Ключевым в данном случае является сочетание структуры стекирования HBM с высокой плотностью и экономичностью флеш-памяти NAND. AIN B предложит большую ёмкость, чем HBM, примерно на уровне ёмкости SSD. AIN B может увеличить эффективную ёмкость памяти GPU и, таким образом, устранить необходимость покупки/аренды дополнительных GPU для увеличения ёмкости HBM, например, для хранения содержимого KV-кеша.

Компания рассматривает различные стратегии развития AIN B, например, совместное использование с HBM для повышения общей ёмкости системы, поскольку стек HBF может быть совмещён со стеком HBM на одном интерпозере. SK hynix и Sandisk работают над продвижением стандарта HBF. Они провели в рамках 2025 OCP Global Summit мероприятие HBF Night, посвящённое этому вопросу. Рании компании подписали меморандум о стандартизации HBF в целях расширения технологической экосистемы.

«Благодаря OCP Global Summit и HBF Night мы смогли продемонстрировать настоящее и будущее SK hynix как глобального поставщика решений памяти, процветающего на быстро развивающемся ИИ-рынке», — заявила SK hynix, добавив, что на рынке устройств хранения данных на базе NAND следующего поколения SK hynix будет тесно сотрудничать с клиентами и партнёрами, чтобы стать ключевым игроком.

Постоянный URL: http://servernews.ru/1131611
30.10.2025 [12:20], Сергей Карасёв

ASUS представила ИИ-сервер XA NB3I-E12 на базе NVIDIA HGX B300

Компания ASUS анонсировала сервер XA NB3I-E12 на аппаратной платформе NVIDIA HGX B300, предназначенный для интенсивных нагрузок ИИ. В качестве потенциальных заказчиков системы названы предприятия, которые работают с большими языковыми моделями (LLM) и НРС-приложениями: это могут быть научно-исследовательские структуры и финансовые организации, компании автомобильного сектора и пр.

Сервер выполнен в форм-факторе 9U. Возможна установка двух процессоров Intel Xeon 6700P поколения Granite Rapids с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM / 3DS RDIMM. Во фронтальной части расположены 10 посадочных мест на SFF-накопителей (NVMe). Предусмотрены четыре слота расширения PCIe 5.0 х16 и один слот PCIe 5.0 х8.

Система имеет архитектуру 8-GPU (NVIDIA HGX B300 288GB 8-GPU). Задействованы сетевые адаптеры NVIDIA ConnectX-8 и DPU NVIDIA BlueField-3. Реализованы два сетевых порта 10GbE с разъёмами RJ45 на основе контроллера Intel X710-AT2 и выделенный сетевой порт управления (RJ45). Питание обеспечивают 10 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Применяется воздушное охлаждение; диапазон рабочих температур — от +10 до +35 °C.

 Источник изображения: ASUS

Источник изображения: ASUS

ASUS отмечает, что сервер имеет модульную конструкцию, благодаря чему минимизируется использование кабелей, упрощается обслуживание и повышается ремонтопригодность. Габариты устройства составляют 945 × 447 × 394,5 мм, масса — примерно 120 кг без установленных накопителей.

Постоянный URL: http://servernews.ru/1131613
29.10.2025 [23:10], Владимир Мироненко

Fplus расширила возможности управление серверами в BIOS v1.0.5

Fplus объявила о выходе BIOS v1.0.5, которое обеспечивает больше возможностей для управления серверами, в том числе для контроля производительности, энергоэффективности и отказоустойчивости.

 Источник изображений: Fplus

Источник изображений: Fplus

В частности, в новой версии добавлена функция настройки состояний процессора: P-state, C-state, PM-state и T-state, что помогает снизить энергопотребление в периоды низкой нагрузки без ущерба для пиковой производительности. Кроме того, добавлена функция управления состоянием сервера после сбоя электропитания — сервер может автоматически возвращаться в рабочее состояние сразу после возобновления питания.

В обновлении также добавилось несколько функций для управления памятью. Появление возможности ручной настройки частоты оперативной памяти повышает стабильность работы платформы, говорит производитель. Кроме того, была добавлена поддержка технологий SDDC (исправление ошибок в пределах одной микросхемы) и ADDDC (исправление ошибок в двух устройствах памяти одновременно). Для критически важных систем, где недопустима потеря информации, предусмотрен режим полного зеркалирования памяти, при котором доступный объём RAM уменьшается вдвое, зато повышается сохранность данных в памяти.

В предыдущем релизе Fplus BIOS v1.0.3 была добавлена поддержка Intel VT-d, фильтрация источников загрузки и фильтрация USB-устройств, а также переработаны Boot Manager и механизм предоставления в интерфейсе BIOS подробной информаций об установленных устройствах. Отметим, что все эти функции по умолчанию доступны в BIOS большинства зарубежных серверных платформ. Ранее Fplus объявила о разработке собственных BIOS и BMC.

Постоянный URL: http://servernews.ru/1131585
29.10.2025 [18:08], Руслан Авдеев

NVIDIA и General Atomics создали виртуальный терморядерный реактор с помощью ИИ

NVIDIA совместно с General Atomics и группой других партнёров создали цифровой двойник термоядерного реактора с использованием ИИ-технологий. В проекте приняли участие Суперкомпьютерный центр Сан-Диего (SDSC), вычислительный центр ALCF при Аргоннской национальной лаборатории (ANL) и вычислительный центр при Национальной лаборатории им. Лоуренса в Беркли (LBNL), сообщает пресс-служба NVIDIA.

Проект построен на платформе NVIDIA Omniverse с использованием CUDA-X. Суперкомпьютеры Polaris в ALCF и Perlmutter в NERSC использовались для обучения трёх «суррогатных» ИИ-моделей, призванных имитировать работу более сложных систем. Проект призван помочь учёным создать работающие в земных условиях коммерческие термоядерные технологии. В General Atomics уверены, что возможность виртуальных исследований с помощью цифровых двойников — настоящий прорыв в термоядерной энергетике, а взаимодействие с NVIDIA позволяет тестировать, совершенствовать и проверять идеи на порядок быстрее, чем обычно. Это ускорит путь к коммерческой термоядерной энергетике.

В термоядерных реакторах используется плазма, разогретая до миллионов градусов, поэтому прогнозирование её поведения достаточно быстро для поддержания работы реакторов — сложнейшая задача. ИИ позволяет радикально сократить время моделирования процессов внутри реактора, что даёт возможность виртуально «взаимодействовать», изучая различные сценарии работы без риска повреждения самого реактора. Если в норме на моделирование поведения плазмы уходят недели даже на быстрейших суперкомпьютерах, то суррогатные ИИ-модели, обученные на десятилетиях реальных данных, считают всё за секунды и продолжают совершенствоваться.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Модели, включая EFIT (для равновесия плазмы), CAKE (для границы плазмы) и ION ORB (для плотности теплового потока от испускаемых ионов), способны помочь операторам поддерживать стабильность плазмы в реальном времени, снижая риск повреждения и ускоряя исследования. Сейчас NVIDIA и General Atomics создают полностью интерактивного цифрового двойника токамака DIII-D в среде Omniverse на базе серверов RTX PRO и DGX Spark.

Виртуальный реактор объединяет данные датчиков, данные физического моделирования, инженерные модели и «суррогатные» ИИ-модели, создавая единую интерактивную среду в реальном времени, которая позволяет быстро принимать решения. Двойник синхронизирован с физическим реактором DIII-D, что позволяет международной команде из 700 ученых, представляющих 100 организаций, проверять идеи и запускать различные сценарии без применения реального оборудования. Ключевые элементы управления можно изучить с помощью цифрового двойника. Это позволяет лучше подготовиться к реальным экспериментам.

Термоядерные технологии чрезвычайно востребованы на рынке. В январе разработчик термоядерных реакторов Helion, имеющий долгосрочный договор с Microsoft, привлёк $425 млн. В мае сообщалось, что Microsoft надеется, что ИИ ускорит создание термоядерных реакторов, которые смогут запитать ещё больше ИИ ЦОД. В июне появилась информация, что Google вложилась в разработчика термоядерных реакторов TAE Technologies.

Постоянный URL: http://servernews.ru/1131564
29.10.2025 [16:53], Владимир Мироненко

В США построят семь новых ИИ-компьютеров на чипах NVIDIA по заказу Министерства энергетики США

NVIDIA объявила о сотрудничестве с национальными лабораториями Министерства энергетики США (DoE) и ведущими компаниями с целью развития ИИ-инфраструктуры страны, в рамках которого будет построено семь новых суперкомпьютеров в Аргоннской (ANL) и Лос-Аламосской (LANL) национальных лабораториях.

На первом этапе проекта NVIDIA и Oracle совместно построят в Аргоннской национальной лаборатории (ANL) два новых суперкомпьютера Equinox и Solstice с суммарной ИИ-производительность 2,2 Зфлопс. Также ANL планирует запустить ещё три новые ИИ-системы на базе технологий NVIDIA: Tara, Minerva и Janus. Не вдаваясь в подробности по поводу спецификаций систем, руководство лаборатории заявило, что суперкомпьютеры призваны расширить доступ исследователям в сфере ИИ из других центров по всей стране.

Лос-Аламосская национальная лаборатория (LANL) получит ИИ-системы Mission и Vision нового поколения, которые будут разработаны и поставлены компанией HPE. Уже известно, что они будут базироваться на платформе NVIDIA Vera Rubin с сетевой фабрикой Quantum‑X800 InfiniBand. Как сообщает NVIDIA, система Vision основана на достижениях суперкомпьютера Venado, созданного для несекретных исследований. Как уточнили в лаборатории, Vision будет использоваться для несекретных задач в области национальной безопасности, материаловедения и ядерной науки, энергетического моделирования и биомедицинских исследований, сообщили в лаборатории, пишет The Register.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Mission — пятая система ATS5 (Advanced Technology System) в рамках программы усовершенствованного моделирования и вычислений (Advanced Simulation and Computing) Национального управления ядерной безопасности США (The National Nuclear Security Administration, NNSA), поддерживаемой LANL. Система предназначена для запуска секретных приложений, её ввод в эксплуатацию состоится в конце 2027 года. Vera Rubin в сочетании с Quantum‑X800 позволит учёным проводить сложное моделирование в области материаловедения, моделирования климата и квантовых вычислений. «Использование такого уровня вычислительной производительности критически важно для решения некоторых из самых сложных научных задач и задач национальной безопасности», — заявил Том Мейсон (Thom Mason), директор LANL.

Постоянный URL: http://servernews.ru/1131565
29.10.2025 [16:01], Сергей Карасёв

NVIDIA представила проект Omniverse DSX для ускоренного создания ИИ-фабрик гигаваттного масштаба

NVIDIA анонсировала Omniverse DSX Blueprint — референсный проект, ориентированный на создание дата-центров гигаваттного масштаба для обучения и запуска наиболее крупных моделей ИИ. По общей мощности такие объекты будут сопоставимы с ядерными реакторами.

Проект предполагает создание цифровых двойников в Omniverse с использованием реальных инженерных данных. Благодаря этому формируется единая среда, в которой партнёры могут планировать, прорабатывать и оптимизировать каждый аспект масштабного дата-центра для ресурсоёмких задач ИИ — от систем электропитания и охлаждения до вычислительных и сетевых компонентов.

На практике Omniverse DSX Blueprint выступает в качестве эталонной архитектуры и программного уровня управления для ЦОД, мощность которых может варьироваться от 100 МВт до нескольких ГВт. Решение протестировано в исследовательском центре NVIDIA AI Factory на площадке Digital Realty в Манассасе (Manassas) в Вирджинии (США). Проект лежит в основе реальных дата-центров, включая площадку Switch мощностью 2 ГВт в Джорджии и площадку Stargate мощностью 1,2 ГВт в Абилине (Техас).

Одним из ключевых элементов Omniverse DSX Blueprint является DSX Flex — это внешняя система, связывающая ЦОД с региональными электросетями и источниками возобновляемой энергии для задействования около 100 ГВт недоиспользуемой мощности сети путём динамической балансировки спроса и предложения. Ещё один компонент — DSX Boost: данная система регулирует управление питанием и распределение рабочей нагрузки в дата-центре, что позволяет добиться либо снижения энергопотребления примерно на 30 %, либо повышения пропускной способности GPU до 30 % при том же уровне энергопотребления. Третий элемент — DSX Exchange — выступает в качестве защищённой инфраструктурной среды передачи данных и управления.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

Референсный проект Omniverse DSX Blueprint призван помочь компаниям создавать масштабные ИИ-фабрики с нуля, используя оборудование NVIDIA и её партнёров. При этом гарантируется совместимость вычислительных и сетевых компонентов, а также инженерного оборудования. После виртуального проектирования объекта партнёры NVIDIA, такие как Bechtel и Vertiv, поставляют готовые к подключению модули, протестированные на заводе. Это значительно сокращает время сборки и обеспечивает масштабируемость, помогая быстрее достичь окупаемости. Архитектура проекта подразумевает, что после запуска физической ИИ-фабрики её цифровой двойник можно будет использовать в качестве операционной среды для мониторинга, проверки и дальнейшей оптимизации процессов.

Постоянный URL: http://servernews.ru/1131558