Материалы по тегу: ии

31.10.2025 [13:49], Сергей Карасёв

NVIDIA представила платформу IGX Thor для «физического ИИ» на периферии

Компания NVIDIA анонсировала аппаратную платформу IGX Thor, предназначенную для «переноса» ИИ из цифрового мира в физический. Решение разработано специально для промышленных, робототехнических и медицинских сред. IGX Thor позволяет проектировать периферийные устройства с ИИ-функциями, поддерживающие получение информации от различных датчиков.

В семейство IGX Thor входят комплекты для разработчиков IGX Thor Developer Kit и IGX Thor Developer Kit Mini, а также решения IGX T7000 (плата Micro-ATX) и IGX T5000 («система на модуле»). Комплекты IGX Thor Developer Kit, в свою очередь, представлены в версиях с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition и NVIDIA RTX Pro Blackwell 5000. Вариант IGX Thor Developer Kit Mini не предполагает наличие дискретного GPU.

Старшая из новинок, IGX Thor Developer Kit с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition, содержит GPU на архитектуре Blackwell с 24 064 ядрами. Предусмотрено 96 Гбайт памяти GDDR7 с пропускной способностью до 1792 Гбайт/с. Заявленная ИИ-производительность достигает 5581 Тфлопс в режиме FP4-Sparse.

Модификация IGX Thor Developer Kit на базе NVIDIA RTX Pro Blackwell 5000 несёт на борту GPU поколения Blackwell с 14 080 ядрами. Объём встроенной памяти составляет 48 Гбайт, её пропускная способность — 1344 Гбайт/с. Быстродействие ИИ достигает 4293 Тфлопс (FP4-Sparse).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Все три новинки, включая версию Mini (обладает ИИ-быстродействием 2070 Тфлопс), располагают интегрированным GPU на архитектуре Blackwell с 2560 ядрами и максимальной частотой 1,57 ГГц. Присутствует CPU с 14 ядрами Arm Neoverse-V3AE с частотой до 2,6 ГГц. Изделия оборудованы 128 Гбайт памяти LPDDR5X с пропускной способностью 273 Гбайт/с, а также накопителем M.2 NVMe (PCIe 5.0 x2) вместимостью 1 Тбайт. Старшие модели наделены двумя слотами PCIe 5.0 (x8 и x16), младшая — разъёмом M.2 Key E, в который установлен комбинированный адаптер Wi-Fi 6e / Bluetooth.

Изделия поддерживают различные интерфейсы, включая (в зависимости от модели) USB 3.2 Gen2 Type-C, USB-3.2 Gen2 Type-A, DisplayPort 1.4a, HDMI 2.0b, 1/5GbE (RJ45), 25GbE (QSFP28), 100GbE (QSFP28) и пр. Для новинок гарантированы 10-летний жизненный цикл и долгосрочная поддержка программного стека NVIDIA AI. В продажу все изделия поступят в декабре нынешнего года.

Постоянный URL: http://servernews.ru/1131690
31.10.2025 [01:02], Андрей Крупин

Positive Technologies выпустила Runtime Radar — Open Source-решение для защиты контейнеров

Компания Positive Technologies опубликовала на площадке GitHub открытое решение Runtime Radar, предназначенное для мониторинга безопасности и реагирования на инциденты в контейнерных средах. Продукт предназначен для работы с платформой Kubernetes в среде Linux.

В основу Runtime Radar положены технологии eBPF и Tetragon для глубокого анализа событий, связанных с работой контейнеров, — процессов, сетевых соединений и изменений прав доступа, — что позволяет немедленно обнаруживать подозрительную активность. Инструмент предлагает централизованное управление всей инфраструктурой, включая работу с несколькими кластерами, и настраивается с помощью готовых политик безопасности. Для расследования инцидентов предусмотрен графический интерфейс, а для интеграции в существующие процессы мониторинга поддерживаются стандартные протоколы и механизмы, такие как syslog, SMTP и webhook.

 Пользовательский интерфейс Runtime Radar (источник изображения: runtimeradar.com)

Пользовательский интерфейс Runtime Radar (источник изображения: runtimeradar.com)

По словам Positive Technologies, контейнерные технологии, в первую очередь платформа Kubernetes, стали отраслевым стандартом для развёртывания приложений и управления ими. Их повсеместное распространение сделало среду выполнения новой целью для атак злоумышленников. Существующие меры защиты часто сосредоточены на стадиях разработки и сборки, и запущенные контейнеры остаются уязвимыми для таких угроз, как несанкционированное использование ресурса, эскалация привилегий и утечка конфиденциальных данных. В результате многие компании сталкиваются с необходимостью мониторинга сложных инфраструктур в реальном времени, но не имеют для этого простых и доступных инструментов. Runtime Radar призван решить эту проблему.

Подчёркивается, что запуск Runtime Radar — это ещё один вклад Positive Technologies в развитие отечественного Open Source-сообщества. Компания планирует и дальше активно развивать проект, дополняя его новыми функциями.

Постоянный URL: http://servernews.ru/1131666
31.10.2025 [00:24], Владимир Мироненко

Google вынуждена отказывать клиентам из-за нехватки ИИ-ускорителей — разобраны даже TPU прошлых поколений

Холдинг Alphabet, включающий компанию Google, объявил финансовые результаты III квартала 2025 года, которые превзошли прогнозы аналитиков, в том числе благодаря успешной работе облачного подразделения на фоне высокого спроса на ИИ-сервисы. Спрос настолько велик, что у компании нет свободных TPU-ускорителей, а ожидаемые капзатраты до конца года вырастут ещё на $6–$8 млрд. Акционеры должны радоваться — согласно данным Bloomberg, с начала года ценные бумаги Google выросли на 45 %.

Выручка Alphabet в минувшем квартале, закончившемся 30 сентября, выросла год к году на 16 %, впервые превысив рубеж в $100 млрд и составив $102,3 млрд. Это выше консенсус-прогноза аналитиков, опрошенных LSEG, равного $99,89 млрд. Холдинг отметил, что рост выручки Google Cloud, поискового бизнеса Google, YouTube от рекламы исчисляется двузначными числами в процентах. Скорректированная прибыль на разводнённую акцию составила $3,10 при прогнозе от LSEG в размере $2,33.

Чистая прибыль холдинга выросла на 33 % до $34,98 млрд, прибыль на акцию — на 35 % до $2,87. В сентябре Google была оштрафована антимонопольными органами Европейского союза на $3,45 млрд из-за антиконкурентной практики в рекламном бизнесе, что отразилось на величине чистой прибыли.

Выручка облачного подразделения Google Cloud увеличилась год к году на 34 % до $15,16 млрд, превысив прогноз StreetAccount в размере $14,74 млрд, в основном за счёт роста доходов Google Cloud Platform (GCP) по основным продуктам GCP, ИИ-инфраструктуре и решениям для генеративного ИИ. Операционная прибыль от облачных технологий выросла на 85 % до $3,6 млрд, а маржа увеличилась с 17,1 % в III квартале 2024 года до 23,7 % в III квартале 2025 года.

 Источник изображений: Google

Источник изображений: Google

Объём невыполненных работ по контрактам Google Cloud увеличился на 46 % по сравнению с предыдущим кварталом до $155 млрд, что, по словам финансового директора Alphabet Анат Ашкенази (Anat Ashkenazi), вызвано высоким спросом на корпоративную ИИ-инфраструктуру, включая чипы, и спросом на ИИ-чат-бот Gemini 2.5. Число ежемесячных пользователей Gemini превысило 650 млн.

Генеральный директор Сундар Пичаи (Sundar Pichai) сообщил, что число клиентов облачных сервисов увеличилось почти на 34 % в годовом исчислении, причём более 70 % использует ИИ-продукты. Пичаи отметил, что компания в минувшем квартале заключила больше сделок стоимостью более $1 млрд каждая, чем за предыдущие два года вместе взятые. В том числе речь идёт о крупном контракте с Anthropic, подписанном ранее в этом месяце, и шестилетнем контракте с Meta на сумму более $10 млрд, заключённом в августе.

Ашкенази сообщила, что Google снова повышает прогноз капитальных затрат на 2025 год до $91–$93 млрд с предыдущего в размере $85 млрд. Капзатртаты компании в отчётном квартале составили $24 млрд, что больше, чем $22,4 млрд во II квартале и $17,2 млрд в I квартале. По словам Ашкенази, «подавляющее большинство» капитальных затрат ушло на техническую инфраструктуру: около 60 % — на серверы и 40 % — на ЦОД сетевое оборудование, пишет Data Center Dynamics. Ресурс уточнил, что крупные инвестиции в ЦОД, объявленные в этом квартале, включают $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд в Бельгии и по $9 млрд в Южной Каролине, Оклахоме и Вирджинии (США).

Согласно прогнозу Ашкенази, напряжённая ситуация с удовлетворением высокого спроса на ИИ-инфраструктуру сохранится в четвёртом квартале и в 2026 году. Пичаи отметил запуск инстансов A4X Max на базе NVIDIA GB300, а также то, что TPU седьмого поколения — Ironwood — скоро станет общедоступным. Ранее, выступая на мероприятии венчурного фонда Andreessen Horowitz (a16z) вице-президент и генеральный директор Google по ИИ и инфраструктуре Амин Вахдат (Amin Vahdat) заявил, что спрос на TPU настолько велик, что компании приходится отказывать клиентам.

Даже TPU прошлых поколений, вышедшие семь-восемь лет назад, загружены на 100 %. При этом компания, с одной стороны, готова арендовать у CoreWeave, своего прямого конкурента в области ИИ-облаков, ускорители NVIDIA Blackwell, которые фактически достанутся OpenAI, а с другой — готова, по слухам, предоставить малым облачным провайдерам свои TPU.

Говоря о проблемах, с которыми сталкиваются гиперскейлеры, особенно при строительстве ЦОД, Вахдат сообщил, что отрасль в настоящее время ограничена такими факторами, как ограниченные ресурсы электроэнергии, доступность земли, получение разрешений и проблемы с цепочкой поставок. В качестве одной из ответных мер компания пошла на перезапуск АЭС Duane Arnold Energy Center (DAEC).

Постоянный URL: http://servernews.ru/1131661
30.10.2025 [18:24], Сергей Карасёв

OpenYard представила объектное хранилище Vortex Object на платформе Intel

Российский разработчик и производитель серверного оборудования OpenYard сообщил о выпуске объектного хранилища Vortex Object, которое, по словам компании, предназначено для масштабируемого и отказоустойчивого хранения неструктурированных данных.

Программно-аппаратный комплекс базируется на 2U-сервере OpenYard RS201I-68R. Устройство оснащается процессорами Intel Xeon Gold 6342 поколения Ice Lake-SP (24C/48T) с максимальной частотой 3,5 ГГц. Объём оперативной памяти DDR4 составляет 512 Гбайт на узел. Сервер допускает установку 12 накопителей LFF (173 Тбайт «сырой» ёмкости) и двух накопителей SFF. Упомянуты три слота PCIe 4.0 x16, пять разъёмов PCIe 4.0 x8, по одному слоту OCP 3.0 и OCP 2.0. Есть четыре сетевых порта 25GbE и выделенный сетевой порт 1GbE BMC. Питание обеспечивают два блока мощностью 1600 Вт с резервированием.

Решение совместимо с Amazon S3 API, в том числе с расширениями, а также с GeeseFS. Реализованы различные средства безопасности (SAML, тенанты, RBAC, ACL/Policy) и защиты данных (геораспределённый кластер, фактор реплицированния для бакетов или объектов, EC). Управление системой осуществляется через интерфейс UI и CLI-инструменты, а мониторинг и сбор метрик в реальном времени выполняются с помощью Prometheus и Grafana.

 Источник изображения: OpenYard

Источник изображения: OpenYard

Объектное хранилище может применяться в облачных, локальных и гибридных средах. В число возможных сценариев использования входят резервное копирование и архивирование, сбор и аналитика данных, системы видеонаблюдения, хостинг статических сайтов, хранение мультимедийных данных и пр. Минимальная конфигурация включает четыре узла, но допускается масштабирование до десятков стоек.

«Релиз Vortex Object — это важный шаг для OpenYard. Мы выходим на новый для нас рынок систем хранения данных, формируя портфель продуктов, способный закрывать все потребности заказчиков. OpenYard двигается от модели производителя серверного оборудования к модели поставщика конечных решений. VortexObject сочетает надёжность, масштабируемость, отказоустойчивость и производительность, востребованные в государственном секторе, больших корпорациях и сервис-провайдерах», — говорит компания.

Постоянный URL: http://servernews.ru/1131639
30.10.2025 [17:36], Андрей Крупин

Релиз «Кибер Бэкап» 18.0: поддержка новых источников данных, защита Linux от вирусов-шифровальщиков, API и многое другое

Компания «Киберпротект» сообщила о выпуске новой версии программного комплекса «Кибер Бэкап» 18.0, предназначенного для резервного копирования IT-систем любой сложности.

Обновлённый продукт подвергся существенным доработкам в плане производительности и масштабируемости. В частности, в новой редакции системы максимальное количество почтовых ящиков, которые могут находиться под защитой одного экземпляра сервера управления «Кибер Бэкапа», выросло до 60 тыc., а виртуальных машин — до 20 тыс. Свой вклад в повышение скорости работы программного комплекса внесла первая версия многопоточного полного резервного копирования инстансов PostgreSQL и СУБД на её основе. Новая технология файлового резервного копирования существенно ускоряет процесс, минимизируя требуемое окно при защите больших баз данных в ряде сценариев.

 Здесь и далее источник изображений: «Киберпротект» / cyberprotect.ru

Здесь и далее источник изображений: «Киберпротект» / cyberprotect.ru

Дополнительно разработчиками была актуализирована поддержка операционных системы семейства Linux — теперь «Кибер Бэкап» поддерживает платформы с версиями ядра вплоть до 6.14. Кроме того, в агент для ОС Linux теперь входит модуль активной защиты от вирусов-шифровальщиков, позволяющий распознавать типичные паттерны действий вредоносного ПО. Модуль агента резервного копирования способен в реальном времени выявлять подозрительные операции, останавливать процессы и разрывать удалённые подключения, а также автоматически восстанавливать повреждённые данные.

С релизом «Кибер Бэкап» 18.0 список поддерживаемых на уровне гипервизора систем виртуализации пополнился Proxmox VE и платформой на её основе — «Альт Виртуализация». Также появилась поддержка аппаратных моментальных снимков виртуальных машин средствами СХД YADRO TATLIN.UNIFIED в сценарии размещения ВМ под управлением VMware.

Значительным доработкам подверглись средства интеграции с отечественной платформой CommuniGate Pro — была добавлена поддержка многосерверных кластерных конфигураций для крупных инсталляций коммуникационного сервиса с возможностью гранулярного восстановления — вплоть до уровня почтовых ящиков, сообщений электронной почты и их вложений. Также добавлена защита сервиса Mailion, включая восстановление до уровней почтовых ящиков и отдельных писем в оригинальное расположение.

Для ознакомления в установочный комплект «Кибер Бэкап» 18.0 добавлена MVP-версия нового медиасервера «Кибер Медиасервер», призванного по мере своего развития заменить «Узел хранения» — актуальный медиасервер системы, обеспечивающий централизованный доступ к хранилищам резервных копий и их защиту, масштабирование, в том числе в условиях географически распределённых инфраструктур, реализацию других сценариев, связанных с хранением резервных копий.

Особенностями «Кибер Медиасервера» являются «прямая» отправка резервных копий в объектные хранилища S3, поддержка Linux-дистрибутива «Ред ОС» 7.3, протоколов SMB/CIFS, NFS, iSCSI, FC и востребованных в корпоративной среде аппаратных и программных хранилищ данных.

В числе прочего «Кибер Бэкап» 18.0 содержит ряд других важных улучшений, касающихся улучшенной совместимости со сторонними решениями дедупликации резервных копий, возможностей информирования и аудита, управления нагрузкой на вычислительные ресурсы хоста агента при защищённой передаче резервных копий, а также поддержки ленточных хранилищ.

Ещё одно нововведение — API управления планами защиты. В дополнение к инструментам веб-консоли, интерфейсу командной строки и загрузочному носителю разработчики реализовали программный интерфейс управления с функциями, относящимися к работе с заданиями (планами) резервного копирования.

Продукт зарегистрирован в реестре российского ПО Минцифры России и может использоваться для реализации стратегии технологической независимости от импортных решений. В настоящий момент программный комплекс «Кибер Бэкап» 18.0 проходит сертификацию ФСТЭК России, завершение которой и получение соответствующих документов ожидается до конца 2025 года.

Постоянный URL: http://servernews.ru/1131643
30.10.2025 [17:24], Руслан Авдеев

МТС вложит 10 млрд руб. в развитие облачного направления MWS Cloud

МТС запустила публичное, импортонезависимое облако MWS Cloud Platform собственной разработки, которое соответствует требованиям регуляторов РФ. По словам компании, платформа позволит заказчикам размещать и обрабатывать в облаке данные любого объёма и формата с неограниченным масштабированием. На развитие своего облачного направления компания МТС намерена потратить более 10 млрд руб. в 2025 году, сообщает Forbes со ссылкой на главу МТС Web Services. По его словам, инвестиции в MWS Cloud предназначены для развития облачной платформы, инфраструктуры для облака и дата-центров.

Разработанная компанией платформа с июня работала в режиме закрытого тестирования с ограниченным количеством сервисов, а сейчас полноценно выходит на рынок. Уже доступны сервисы Compute, VPC, CDN, Object Storage и IAM. В режиме превью запущены Artifact Registry (Docker), Certificate Manager (SSL/TLS), а также Managed PostgreSQL, Managed Kafka, Managed Kubernetes, KMS (управление криптографическими ключами), Secret Manager и сервис для использования LLM MWS GPT в облачной платформе. В 2026 году будет продолжено развитие IaaS/PaaS. Также со времением возможно появление направления периферийных вычислений.

 Источник изображения: MWS

Источник изображения: MWS

По оценкам iKS-Consulting, российский рынок облачных инфраструктурных сервисов растёт хорошими темпами, в текущем году он должен вырасти на 36 % до 229 млрд руб. MWS работает в сегментах IaaS и PaaS много лет, и в I полугодии она занимала пятое место среди крупнейших облачных провайдеров страны (доля 5 %). Предполагается, что соответствующий рынок до 2030 года будет расти в среднем на 27 % в год, а отдельные сегменты, особенно связанные с ИИ, растут особенно активно и потенциал рынка ещё не исчерпан. Особенно отмечен сегмент PaaS, именно в нём MWS намерена предлагать широкий спектр услуг, передаёт Forbes.

В январе сообщалось, что почти все крупные компании России используют облачные сервисы, а в июне появилась новость, что инфраструктура в публичном облаке России ежегодно увеличивается почти на треть. В сентябре MWS Cloud заявила, что направит на развитие дата-центров 6,5 млрд руб.

Постоянный URL: http://servernews.ru/1131631
30.10.2025 [16:56], Руслан Авдеев

AWS инвестирует не менее $5 млрд в ЦОД Южной Кореи

По данным администрации президента Южной Кореи, Amazon Web Services (AWS) инвестирует в страну как минимум $5 млрд. Средства будут потрачены на новые ИИ ЦОД — Сеул намерен стать одним из ключевых ИИ-хабов в Азии, сообщает Reuters.

Объявление было сделано в ходе встречи генерального директора AWS Мэтта Гармана (Matt Garman) с президентом Южной Кореи Ли Чжэ Мёном (Lee Jae Myung) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС). Amazon является одной из семи компаний глобального уровня, чьи лидеры посетили групповую встречу с Ли и пообещали инвестировать в страну $9 млрд в следующие пять лет.

Как заявил президент, инвестиции Amazon ускорят рост экосистемы для ИИ-индустрии в Южной Корее, поскольку страна намерена войти в тройку лидеров в сфере ИИ. Гарман в ответ подчеркнул, что что его компания уже инвестировала и намерена инвестировать дополнительные $40 млрд в 14 страны Азиатско-Тихоокеанского региона (АТР) до 2028 года. При этом такие инвестиции обеспечат экономике США $45 млрд.

 Источник изображения: Mos Sukjaroenkraisri/unsplash.com

Источник изображения: Mos Sukjaroenkraisri/unsplash.com

В июне AWS представила план инвестиций $4 млрд в Южную Корею в рамках проекта SK Group по строительству крупнейшего в стране дата-центра в Ульсане (Ulsan). Также анонсированы инвестиции в другие страны региона, включая Японию, Австралию и Сингапур. Ранее в этом месяце сообщалось, что OpenAI намеревалась открыть в Южной Корее совместные предприятия с Samsung и SK для строительства двух ЦОД, корейского вариант Stargate с изначальной мощностью 20 МВт. OpenAI заявила, что Южная Корея — один из рекордсменов по числу подписчиков GhatGPT, в этом отношении она уступает только США. Также OpenAI заключила сделки для приобретения чипов памяти для своих дата-центров у Samsung Electronics и SK Hynix.

Постоянный URL: http://servernews.ru/1131628
30.10.2025 [16:18], Руслан Авдеев

Полмиллиона ускорителей Trainium2: AWS развернула для Anthropic один из крупнейших в мире ИИ-кластеров Project Rainier

AWS объявила о запуске одного из крупнейших в мире ИИ-кластеров Project Rainier. Фактически амбициозный проект представляет собой распределённый между несколькими ЦОД ИИ-суперкомпьютер — это важная веха в стремлении AWS к развитию ИИ-инфраструктуры, сообщает пресс-служба Amazon. Платформа создавалась под нужды Anthropic, которая буквально на днях подписала многомиллиардный контракт на использование Google TPU.

В рамках Project Rainier компания AWS сотрудничала со стартапом Anthropic. В проекте задействовано около 500 тыс. чипов Trainium2, а вычислительная мощность в пять раз выше той, что Anthropic использовала для обучения предыдущих ИИ-моделей. Project Rainier применяется Anthropic для создания и внедрения моделей семейства Claude. К концу 2025 года предполагается использование более миллиона чипов Trainium2 для обучения и инференса.

В рамках Project Rainier в AWS уже создали инфраструктуру на основе Tranium2, на 70 % превосходящую любую другую вычислительную ИИ-платформу в истории AWS. Проект охватывает несколько дата-центров в США и не имеет аналогов среди инициатив AWS. Он задуман как гигантский кластер EC2 UltraCluster из серверов Trainium2 UltraServer. UltraServer объединяет четыре физических сервера, каждый из которых имеет 16 чипов Trainium2. Они взаимодействуют через фирменный интерконнект NeuronLink, обеспечивающий быстрые соединения внутри системы, что значительно ускоряет вычисления на всех 64 чипах. Десятки тысяч UltraServer объединяются в UltraCluster посредством фабрики EFA.

Эксплуатация такого ЦОД требует повышенной надёжности. В отличие от большинства облачных провайдеров, AWS создаёт собственное оборудование и может контролировать каждый компонент, от чипов до систем охлаждения и архитектуру дата-центров в целом. Управляющие ЦОД команды уделяют повышенное внимание энергоэффективности, от компоновки стоек до распределения энергии и выбора методов охлаждения. Кроме того, в 2023 году вся энергия, потребляемая Amazon, полностью компенсировалась электричеством из возобновляемых источников. В Amazon утверждают, что в последние пять лет компания является крупнейшим покупателем возобновляемой энергии и стремится к достижению нулевых выбросов к 2040 году.

 Источник изображения: AWS

Источник изображения: AWS

Миллиарды долларов инвестируются в ядерную энергетику и АКБ, а также крупные проекты в области возобновляемой энергетики для ЦОД. В 2024 году компания объявила о внедрении новых компонентов для ЦОД, сочетающих технологии электропитания, охлаждения и аппаратного обеспечения, причём не только для строящихся, но и уже для имеющихся объектов. Новые компоненты, предположительно, позволят снизить энергопотребление некоторых компонентов до -46 % и сократить углеродный след используемого бетона на 35 %.

 Источник изображения: AWS

Источник изображения: AWS

Для новых объектов, строящихся в рамках Project Rainier и за его пределами, предусмотрено использование целого ряда новых технологий для повышения энергоэффективности и экоустойчивости. Некоторые технологии связаны с рациональным использованием водных ресурсов. AWS проектирует объекты так, чтобы использовать минимум воды, или вовсе не использовать её. Один из способов — отказ от её применения в системах охлаждения на многих объектах большую часть года, с переходом на охлаждение наружным воздухом.

 Источник изображения: AWS

Источник изображения: AWS

Так, один из объектов Project Rainier в Индиане будет максимально использовать именно уличный воздух, а с октября по март дата-центры вовсе не станут использовать воду для охлаждения, с апреля по сентябрь в среднем вода будет применяться по несколько часов в день. Согласно отчёту Национальной лаборатории им. Лоуренса в Беркли (LBNL), стандартный показатель WUE для ЦОД 0,375 л/кВт·ч. В AWS этот показатель равен 0,15 л/кВт·ч, что на 40 % лучше, чем в 2021 году.

Постоянный URL: http://servernews.ru/1131617
30.10.2025 [13:51], Владимир Мироненко

От Nearline SSD до HBF: SK hynix анонсировала NAND-решения AIN для ИИ-платформ

Компания SK hynix представила стратегию развития решений хранения на базе NAND нового поколения. SK hynix заявила, что в связи с быстрым ростом рынка ИИ-инференса спрос на хранилища на базе NAND, способных быстро и эффективно обрабатывать большие объёмы данных, стремительно растёт. Для удовлетворения этого спроса компания разрабатывает серию решений AIN (AI-NAND), оптимизированных для ИИ. Семейство будет включать решения AIN P, AIN B и AIN D, оптимизированные по производительности, пропускной способности и плотности соответственно.

 Источник изображений: SK hynix

Источник изображений: SK hynix

AIN P (Performance) — это решение для эффективной обработки больших объёмов данных, генерируемых в рамках масштабных рабочих нагрузок ИИ-инференса. Продукт значительно повышает скорость обработки и энергоэффективность, минимизируя узкие места между хранилищем и ИИ-операциями. SK hynix разрабатывает NAND-память и контроллеры с новыми возможностями и планирует выпустить образцы к концу 2026 года.

Как пишет Blocks & Files, накопитель AIN P, как ожидается, получит поддержку PCIe 6.0 и обеспечит 50 млн IOPS на 512-байт блоках, тогда как сейчас производительность случайного чтения и записи с 4-Кбайт блоками составляет порядка 7 млн IOPS у накопителей PCIe 6.0. То есть AIN P будет в семь раз быстрее, чем нынешние корпоративные PCIe 6.0 SSD, и, по заявлению SK hynix, достичь 100 млн IOPS можно будет уже в 2027 году. Такой SSD будет выполнен в форм-факторе EDSFF E3.x и оснащён контроллером, предназначенным для выполнения как обычных рабочих нагрузок, так и с высоким показателем IOPS.

AIN D (Density) — это высокоплотное решение Nearline (NL) SSD для хранения больших объёмов данных с низкими энергопотреблением и стоимостью, подходящее для хранения ИИ-данных. Компания стремится увеличить плотность QLC SSD с Тбайт до Пбайт, создав решение среднего уровня, сочетающее в себе скорость SSD и экономичность HDD. AIN D от SK hynix как раз предназначен для замены жёстких дисков. Компания также упоминает некий стандарт JEDEC-NLF (Near Line Flash?), который пока не существует. При этом SK hynix пока не упоминает PLC NAND и не приводит данные о ёмкости AIN D.

AIN B (Bandwidth) — это HBF-память с увеличенной за счёт вертикального размещения нескольких модулей NAND пропускной способностью. Ключевым в данном случае является сочетание структуры стекирования HBM с высокой плотностью и экономичностью флеш-памяти NAND. AIN B предложит большую ёмкость, чем HBM, примерно на уровне ёмкости SSD. AIN B может увеличить эффективную ёмкость памяти GPU и, таким образом, устранить необходимость покупки/аренды дополнительных GPU для увеличения ёмкости HBM, например, для хранения содержимого KV-кеша.

Компания рассматривает различные стратегии развития AIN B, например, совместное использование с HBM для повышения общей ёмкости системы, поскольку стек HBF может быть совмещён со стеком HBM на одном интерпозере. SK hynix и Sandisk работают над продвижением стандарта HBF. Они провели в рамках 2025 OCP Global Summit мероприятие HBF Night, посвящённое этому вопросу. Рании компании подписали меморандум о стандартизации HBF в целях расширения технологической экосистемы.

«Благодаря OCP Global Summit и HBF Night мы смогли продемонстрировать настоящее и будущее SK hynix как глобального поставщика решений памяти, процветающего на быстро развивающемся ИИ-рынке», — заявила SK hynix, добавив, что на рынке устройств хранения данных на базе NAND следующего поколения SK hynix будет тесно сотрудничать с клиентами и партнёрами, чтобы стать ключевым игроком.

Постоянный URL: http://servernews.ru/1131611
30.10.2025 [12:20], Сергей Карасёв

ASUS представила ИИ-сервер XA NB3I-E12 на базе NVIDIA HGX B300

Компания ASUS анонсировала сервер XA NB3I-E12 на аппаратной платформе NVIDIA HGX B300, предназначенный для интенсивных нагрузок ИИ. В качестве потенциальных заказчиков системы названы предприятия, которые работают с большими языковыми моделями (LLM) и НРС-приложениями: это могут быть научно-исследовательские структуры и финансовые организации, компании автомобильного сектора и пр.

Сервер выполнен в форм-факторе 9U. Возможна установка двух процессоров Intel Xeon 6700P поколения Granite Rapids с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM / 3DS RDIMM. Во фронтальной части расположены 10 посадочных мест на SFF-накопителей (NVMe). Предусмотрены четыре слота расширения PCIe 5.0 х16 и один слот PCIe 5.0 х8.

Система имеет архитектуру 8-GPU (NVIDIA HGX B300 288GB 8-GPU). Задействованы сетевые адаптеры NVIDIA ConnectX-8 и DPU NVIDIA BlueField-3. Реализованы два сетевых порта 10GbE с разъёмами RJ45 на основе контроллера Intel X710-AT2 и выделенный сетевой порт управления (RJ45). Питание обеспечивают 10 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Применяется воздушное охлаждение; диапазон рабочих температур — от +10 до +35 °C.

 Источник изображения: ASUS

Источник изображения: ASUS

ASUS отмечает, что сервер имеет модульную конструкцию, благодаря чему минимизируется использование кабелей, упрощается обслуживание и повышается ремонтопригодность. Габариты устройства составляют 945 × 447 × 394,5 мм, масса — примерно 120 кг без установленных накопителей.

Постоянный URL: http://servernews.ru/1131613

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;