Материалы по тегу: hardware

31.10.2025 [13:49], Сергей Карасёв

NVIDIA представила платформу IGX Thor для «физического ИИ» на периферии

Компания NVIDIA анонсировала аппаратную платформу IGX Thor, предназначенную для «переноса» ИИ из цифрового мира в физический. Решение разработано специально для промышленных, робототехнических и медицинских сред. IGX Thor позволяет проектировать периферийные устройства с ИИ-функциями, поддерживающие получение информации от различных датчиков.

В семейство IGX Thor входят комплекты для разработчиков IGX Thor Developer Kit и IGX Thor Developer Kit Mini, а также решения IGX T7000 (плата Micro-ATX) и IGX T5000 («система на модуле»). Комплекты IGX Thor Developer Kit, в свою очередь, представлены в версиях с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition и NVIDIA RTX Pro Blackwell 5000. Вариант IGX Thor Developer Kit Mini не предполагает наличие дискретного GPU.

Старшая из новинок, IGX Thor Developer Kit с ускорителем NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition, содержит GPU на архитектуре Blackwell с 24 064 ядрами. Предусмотрено 96 Гбайт памяти GDDR7 с пропускной способностью до 1792 Гбайт/с. Заявленная ИИ-производительность достигает 5581 Тфлопс в режиме FP4-Sparse.

Модификация IGX Thor Developer Kit на базе NVIDIA RTX Pro Blackwell 5000 несёт на борту GPU поколения Blackwell с 14 080 ядрами. Объём встроенной памяти составляет 48 Гбайт, её пропускная способность — 1344 Гбайт/с. Быстродействие ИИ достигает 4293 Тфлопс (FP4-Sparse).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Все три новинки, включая версию Mini (обладает ИИ-быстродействием 2070 Тфлопс), располагают интегрированным GPU на архитектуре Blackwell с 2560 ядрами и максимальной частотой 1,57 ГГц. Присутствует CPU с 14 ядрами Arm Neoverse-V3AE с частотой до 2,6 ГГц. Изделия оборудованы 128 Гбайт памяти LPDDR5X с пропускной способностью 273 Гбайт/с, а также накопителем M.2 NVMe (PCIe 5.0 x2) вместимостью 1 Тбайт. Старшие модели наделены двумя слотами PCIe 5.0 (x8 и x16), младшая — разъёмом M.2 Key E, в который установлен комбинированный адаптер Wi-Fi 6e / Bluetooth.

Изделия поддерживают различные интерфейсы, включая (в зависимости от модели) USB 3.2 Gen2 Type-C, USB-3.2 Gen2 Type-A, DisplayPort 1.4a, HDMI 2.0b, 1/5GbE (RJ45), 25GbE (QSFP28), 100GbE (QSFP28) и пр. Для новинок гарантированы 10-летний жизненный цикл и долгосрочная поддержка программного стека NVIDIA AI. В продажу все изделия поступят в декабре нынешнего года.

Постоянный URL: http://servernews.ru/1131690
31.10.2025 [10:24], Сергей Карасёв

Eswin выпустила плату EBC7702 формата Mini-DTX с процессором RISC-V

Компания Eswin Computing в партнёрстве с Canonical, по сообщению CNX Software, подготовила к выпуску компактную плату для разработчиков EBC7702. Новинка подходит для работы с ИИ-задачами и приложениями, предполагающими локальную обработку данных.

Решение выполнено в форм-факторе Mini-DTX с размерами 203 × 170 мм. Основой служит двухкристальная SoC Eswin EIC7702X, в состав которой входит процессор с восемью ядрами RV64GC на архитектуре RISC-V с частотой 1,4–1,8 ГГц. Предусмотрен встроенный нейропроцессорный модуль (NPU), обеспечивающий производительность до 40 TOPS на операциях INT8, до 20 TOPS в режиме INT16 и до 20 Тфлопс FP16. Графический движок обеспечивает поддержку OpenGL ES 3.2, OpenCL 1.2/2.1 EP2, Vulkan 1.2, EGL 1.4 и Android NN HAL. Возможно декодирование видеоматериалов в формате H.265 до 8K (100 к/с) или 64 потоков 1080p30, а также кодирование видео H.265 до 8K (50 к/с) или 26 потоков 1080p30.

 Источник изображения: CNX Software

Источник изображения: CNX Software

Плата может нести на борту 32 или 64 Гбайт памяти LPDDR5-6400. В оснащение входят флеш-модуль eMMC вместимостью 32 Гбайт, 16 Мбайт памяти SPI Flash, слот microSD, коннектор M.2 M-Key для SSD с интерфейсом SATA, порт SATA, разъём M.2 E-Key M2230 для адаптера Wi-Fi / Bluetooth и два слота PCIe 3.0 x16. Присутствуют четыре сетевых порта 1GbE и контроллер Wi-Fi 5 (802.11ac) с частотными диапазонами 2,4/5 ГГц.

Модель EBC7702 получила по два порта USB 3.0 Type-A и USB 2.0 Type-A, четыре гнезда RJ45 для сетевых кабелей, два интерфейса HDMI, порт USB 2.0 Type-C, стандартные аудиогнёзда на 3,5 мм. Есть два интерфейса MIPI DSI (4 линии), четыре интерфейса MIPI CSI (4 линии) и 40-контактная колодка GPIO с поддержкой I2C, I2S, SPI, UART. Для подачи питания предусмотрены 24-контактный разъём ATX и 8-контактный разъём ARX.

Плата будет поставляться с предустановленной ОС Ubuntu 24.04 LTS. Приём предварительных заказов начнётся в ближайшее время. Ориентировочная цена — $700 за вариант с 32 Гбайт ОЗУ.

Постоянный URL: http://servernews.ru/1131671
31.10.2025 [00:24], Владимир Мироненко

Google вынуждена отказывать клиентам из-за нехватки ИИ-ускорителей — разобраны даже TPU прошлых поколений

Холдинг Alphabet, включающий компанию Google, объявил финансовые результаты III квартала 2025 года, которые превзошли прогнозы аналитиков, в том числе благодаря успешной работе облачного подразделения на фоне высокого спроса на ИИ-сервисы. Спрос настолько велик, что у компании нет свободных TPU-ускорителей, а ожидаемые капзатраты до конца года вырастут ещё на $6–$8 млрд. Акционеры должны радоваться — согласно данным Bloomberg, с начала года ценные бумаги Google выросли на 45 %.

Выручка Alphabet в минувшем квартале, закончившемся 30 сентября, выросла год к году на 16 %, впервые превысив рубеж в $100 млрд и составив $102,3 млрд. Это выше консенсус-прогноза аналитиков, опрошенных LSEG, равного $99,89 млрд. Холдинг отметил, что рост выручки Google Cloud, поискового бизнеса Google, YouTube от рекламы исчисляется двузначными числами в процентах. Скорректированная прибыль на разводнённую акцию составила $3,10 при прогнозе от LSEG в размере $2,33.

Чистая прибыль холдинга выросла на 33 % до $34,98 млрд, прибыль на акцию — на 35 % до $2,87. В сентябре Google была оштрафована антимонопольными органами Европейского союза на $3,45 млрд из-за антиконкурентной практики в рекламном бизнесе, что отразилось на величине чистой прибыли.

Выручка облачного подразделения Google Cloud увеличилась год к году на 34 % до $15,16 млрд, превысив прогноз StreetAccount в размере $14,74 млрд, в основном за счёт роста доходов Google Cloud Platform (GCP) по основным продуктам GCP, ИИ-инфраструктуре и решениям для генеративного ИИ. Операционная прибыль от облачных технологий выросла на 85 % до $3,6 млрд, а маржа увеличилась с 17,1 % в III квартале 2024 года до 23,7 % в III квартале 2025 года.

 Источник изображений: Google

Источник изображений: Google

Объём невыполненных работ по контрактам Google Cloud увеличился на 46 % по сравнению с предыдущим кварталом до $155 млрд, что, по словам финансового директора Alphabet Анат Ашкенази (Anat Ashkenazi), вызвано высоким спросом на корпоративную ИИ-инфраструктуру, включая чипы, и спросом на ИИ-чат-бот Gemini 2.5. Число ежемесячных пользователей Gemini превысило 650 млн.

Генеральный директор Сундар Пичаи (Sundar Pichai) сообщил, что число клиентов облачных сервисов увеличилось почти на 34 % в годовом исчислении, причём более 70 % использует ИИ-продукты. Пичаи отметил, что компания в минувшем квартале заключила больше сделок стоимостью более $1 млрд каждая, чем за предыдущие два года вместе взятые. В том числе речь идёт о крупном контракте с Anthropic, подписанном ранее в этом месяце, и шестилетнем контракте с Meta на сумму более $10 млрд, заключённом в августе.

Ашкенази сообщила, что Google снова повышает прогноз капитальных затрат на 2025 год до $91–$93 млрд с предыдущего в размере $85 млрд. Капзатртаты компании в отчётном квартале составили $24 млрд, что больше, чем $22,4 млрд во II квартале и $17,2 млрд в I квартале. По словам Ашкенази, «подавляющее большинство» капитальных затрат ушло на техническую инфраструктуру: около 60 % — на серверы и 40 % — на ЦОД сетевое оборудование, пишет Data Center Dynamics. Ресурс уточнил, что крупные инвестиции в ЦОД, объявленные в этом квартале, включают $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд в Бельгии и по $9 млрд в Южной Каролине, Оклахоме и Вирджинии (США).

Согласно прогнозу Ашкенази, напряжённая ситуация с удовлетворением высокого спроса на ИИ-инфраструктуру сохранится в четвёртом квартале и в 2026 году. Пичаи отметил запуск инстансов A4X Max на базе NVIDIA GB300, а также то, что TPU седьмого поколения — Ironwood — скоро станет общедоступным. Ранее, выступая на мероприятии венчурного фонда Andreessen Horowitz (a16z) вице-президент и генеральный директор Google по ИИ и инфраструктуре Амин Вахдат (Amin Vahdat) заявил, что спрос на TPU настолько велик, что компании приходится отказывать клиентам.

Даже TPU прошлых поколений, вышедшие семь-восемь лет назад, загружены на 100 %. При этом компания, с одной стороны, готова арендовать у CoreWeave, своего прямого конкурента в области ИИ-облаков, ускорители NVIDIA Blackwell, которые фактически достанутся OpenAI, а с другой — готова, по слухам, предоставить малым облачным провайдерам свои TPU.

Говоря о проблемах, с которыми сталкиваются гиперскейлеры, особенно при строительстве ЦОД, Вахдат сообщил, что отрасль в настоящее время ограничена такими факторами, как ограниченные ресурсы электроэнергии, доступность земли, получение разрешений и проблемы с цепочкой поставок. В качестве одной из ответных мер компания пошла на перезапуск АЭС Duane Arnold Energy Center (DAEC).

Постоянный URL: http://servernews.ru/1131661
30.10.2025 [18:24], Сергей Карасёв

OpenYard представила объектное хранилище Vortex Object на платформе Intel

Российский разработчик и производитель серверного оборудования OpenYard сообщил о выпуске объектного хранилища Vortex Object, которое, по словам компании, предназначено для масштабируемого и отказоустойчивого хранения неструктурированных данных.

Программно-аппаратный комплекс базируется на 2U-сервере OpenYard RS201I-68R. Устройство оснащается процессорами Intel Xeon Gold 6342 поколения Ice Lake-SP (24C/48T) с максимальной частотой 3,5 ГГц. Объём оперативной памяти DDR4 составляет 512 Гбайт на узел. Сервер допускает установку 12 накопителей LFF (173 Тбайт «сырой» ёмкости) и двух накопителей SFF. Упомянуты три слота PCIe 4.0 x16, пять разъёмов PCIe 4.0 x8, по одному слоту OCP 3.0 и OCP 2.0. Есть четыре сетевых порта 25GbE и выделенный сетевой порт 1GbE BMC. Питание обеспечивают два блока мощностью 1600 Вт с резервированием.

Решение совместимо с Amazon S3 API, в том числе с расширениями, а также с GeeseFS. Реализованы различные средства безопасности (SAML, тенанты, RBAC, ACL/Policy) и защиты данных (геораспределённый кластер, фактор реплицированния для бакетов или объектов, EC). Управление системой осуществляется через интерфейс UI и CLI-инструменты, а мониторинг и сбор метрик в реальном времени выполняются с помощью Prometheus и Grafana.

 Источник изображения: OpenYard

Источник изображения: OpenYard

Объектное хранилище может применяться в облачных, локальных и гибридных средах. В число возможных сценариев использования входят резервное копирование и архивирование, сбор и аналитика данных, системы видеонаблюдения, хостинг статических сайтов, хранение мультимедийных данных и пр. Минимальная конфигурация включает четыре узла, но допускается масштабирование до десятков стоек.

«Релиз Vortex Object — это важный шаг для OpenYard. Мы выходим на новый для нас рынок систем хранения данных, формируя портфель продуктов, способный закрывать все потребности заказчиков. OpenYard двигается от модели производителя серверного оборудования к модели поставщика конечных решений. VortexObject сочетает надёжность, масштабируемость, отказоустойчивость и производительность, востребованные в государственном секторе, больших корпорациях и сервис-провайдерах», — говорит компания.

Постоянный URL: http://servernews.ru/1131639
30.10.2025 [17:24], Руслан Авдеев

МТС вложит 10 млрд руб. в развитие облачного направления MWS Cloud

МТС запустила публичное, импортонезависимое облако MWS Cloud Platform собственной разработки, которое соответствует требованиям регуляторов РФ. По словам компании, платформа позволит заказчикам размещать и обрабатывать в облаке данные любого объёма и формата с неограниченным масштабированием. На развитие своего облачного направления компания МТС намерена потратить более 10 млрд руб. в 2025 году, сообщает Forbes со ссылкой на главу МТС Web Services. По его словам, инвестиции в MWS Cloud предназначены для развития облачной платформы, инфраструктуры для облака и дата-центров.

Разработанная компанией платформа с июня работала в режиме закрытого тестирования с ограниченным количеством сервисов, а сейчас полноценно выходит на рынок. Уже доступны сервисы Compute, VPC, CDN, Object Storage и IAM. В режиме превью запущены Artifact Registry (Docker), Certificate Manager (SSL/TLS), а также Managed PostgreSQL, Managed Kafka, Managed Kubernetes, KMS (управление криптографическими ключами), Secret Manager и сервис для использования LLM MWS GPT в облачной платформе. В 2026 году будет продолжено развитие IaaS/PaaS. Также со времением возможно появление направления периферийных вычислений.

 Источник изображения: MWS

Источник изображения: MWS

По оценкам iKS-Consulting, российский рынок облачных инфраструктурных сервисов растёт хорошими темпами, в текущем году он должен вырасти на 36 % до 229 млрд руб. MWS работает в сегментах IaaS и PaaS много лет, и в I полугодии она занимала пятое место среди крупнейших облачных провайдеров страны (доля 5 %). Предполагается, что соответствующий рынок до 2030 года будет расти в среднем на 27 % в год, а отдельные сегменты, особенно связанные с ИИ, растут особенно активно и потенциал рынка ещё не исчерпан. Особенно отмечен сегмент PaaS, именно в нём MWS намерена предлагать широкий спектр услуг, передаёт Forbes.

В январе сообщалось, что почти все крупные компании России используют облачные сервисы, а в июне появилась новость, что инфраструктура в публичном облаке России ежегодно увеличивается почти на треть. В сентябре MWS Cloud заявила, что направит на развитие дата-центров 6,5 млрд руб.

Постоянный URL: http://servernews.ru/1131631
30.10.2025 [16:56], Руслан Авдеев

AWS инвестирует не менее $5 млрд в ЦОД Южной Кореи

По данным администрации президента Южной Кореи, Amazon Web Services (AWS) инвестирует в страну как минимум $5 млрд. Средства будут потрачены на новые ИИ ЦОД — Сеул намерен стать одним из ключевых ИИ-хабов в Азии, сообщает Reuters.

Объявление было сделано в ходе встречи генерального директора AWS Мэтта Гармана (Matt Garman) с президентом Южной Кореи Ли Чжэ Мёном (Lee Jae Myung) на полях саммита Азиатско-Тихоокеанского экономического сотрудничества (АТЭС). Amazon является одной из семи компаний глобального уровня, чьи лидеры посетили групповую встречу с Ли и пообещали инвестировать в страну $9 млрд в следующие пять лет.

Как заявил президент, инвестиции Amazon ускорят рост экосистемы для ИИ-индустрии в Южной Корее, поскольку страна намерена войти в тройку лидеров в сфере ИИ. Гарман в ответ подчеркнул, что что его компания уже инвестировала и намерена инвестировать дополнительные $40 млрд в 14 страны Азиатско-Тихоокеанского региона (АТР) до 2028 года. При этом такие инвестиции обеспечат экономике США $45 млрд.

 Источник изображения: Mos Sukjaroenkraisri/unsplash.com

Источник изображения: Mos Sukjaroenkraisri/unsplash.com

В июне AWS представила план инвестиций $4 млрд в Южную Корею в рамках проекта SK Group по строительству крупнейшего в стране дата-центра в Ульсане (Ulsan). Также анонсированы инвестиции в другие страны региона, включая Японию, Австралию и Сингапур. Ранее в этом месяце сообщалось, что OpenAI намеревалась открыть в Южной Корее совместные предприятия с Samsung и SK для строительства двух ЦОД, корейского вариант Stargate с изначальной мощностью 20 МВт. OpenAI заявила, что Южная Корея — один из рекордсменов по числу подписчиков GhatGPT, в этом отношении она уступает только США. Также OpenAI заключила сделки для приобретения чипов памяти для своих дата-центров у Samsung Electronics и SK Hynix.

Постоянный URL: http://servernews.ru/1131628
30.10.2025 [16:25], Руслан Авдеев

В России намерены построить 15 электростанций совокупной мощностью 3,2 ГВт

15 электростанций совокупной мощностью 3,2 ГВт намерены построить в Российской Федерации. Объекты возведут на юге страны, в Москве и Подмосковье, сообщает «Коммерсантъ». По данным издания, планы строительства новой энергетической инфраструктуры раскрыты в сообщении правительства, посвящённого итогам совещания о вопросах развития электроэнергетики. Заявляется, что новые электростанции призваны обеспечить «растущие потребности данных субъектов в электроэнергии».

Особое внимание участники мероприятия посвятили состоянию энергетической системы Сибири. Сообщается, что для удовлетворения спроса на электроэнергию в регионе в будущем планируется построить энергомост постоянного тока (HVDC). Пропускная способность проекта составит до 1,5 ГВт, предусмотрено и создание новых генерирующих мощностей более чем на 1 ГВт.

 Источник изображения: Etienne Girardet/unsplash.com

Источник изображения: Etienne Girardet/unsplash.com

Тема дефицита электроснабжения ЦОД стала актуальной на территории Российской Федерации. Так, в середине октября президент РФ призвал ориентировать «объекты локальной генерации» на снабжение электричеством местных дата-центров, в числе прочего речь шла об использовании угольных электростанций.

Постоянный URL: http://servernews.ru/1131635
30.10.2025 [16:18], Руслан Авдеев

Полмиллиона ускорителей Trainium2: AWS развернула для Anthropic один из крупнейших в мире ИИ-кластеров Project Rainier

AWS объявила о запуске одного из крупнейших в мире ИИ-кластеров Project Rainier. Фактически амбициозный проект представляет собой распределённый между несколькими ЦОД ИИ-суперкомпьютер — это важная веха в стремлении AWS к развитию ИИ-инфраструктуры, сообщает пресс-служба Amazon. Платформа создавалась под нужды Anthropic, которая буквально на днях подписала многомиллиардный контракт на использование Google TPU.

В рамках Project Rainier компания AWS сотрудничала со стартапом Anthropic. В проекте задействовано около 500 тыс. чипов Trainium2, а вычислительная мощность в пять раз выше той, что Anthropic использовала для обучения предыдущих ИИ-моделей. Project Rainier применяется Anthropic для создания и внедрения моделей семейства Claude. К концу 2025 года предполагается использование более миллиона чипов Trainium2 для обучения и инференса.

В рамках Project Rainier в AWS уже создали инфраструктуру на основе Tranium2, на 70 % превосходящую любую другую вычислительную ИИ-платформу в истории AWS. Проект охватывает несколько дата-центров в США и не имеет аналогов среди инициатив AWS. Он задуман как гигантский кластер EC2 UltraCluster из серверов Trainium2 UltraServer. UltraServer объединяет четыре физических сервера, каждый из которых имеет 16 чипов Trainium2. Они взаимодействуют через фирменный интерконнект NeuronLink, обеспечивающий быстрые соединения внутри системы, что значительно ускоряет вычисления на всех 64 чипах. Десятки тысяч UltraServer объединяются в UltraCluster посредством фабрики EFA.

Эксплуатация такого ЦОД требует повышенной надёжности. В отличие от большинства облачных провайдеров, AWS создаёт собственное оборудование и может контролировать каждый компонент, от чипов до систем охлаждения и архитектуру дата-центров в целом. Управляющие ЦОД команды уделяют повышенное внимание энергоэффективности, от компоновки стоек до распределения энергии и выбора методов охлаждения. Кроме того, в 2023 году вся энергия, потребляемая Amazon, полностью компенсировалась электричеством из возобновляемых источников. В Amazon утверждают, что в последние пять лет компания является крупнейшим покупателем возобновляемой энергии и стремится к достижению нулевых выбросов к 2040 году.

 Источник изображения: AWS

Источник изображения: AWS

Миллиарды долларов инвестируются в ядерную энергетику и АКБ, а также крупные проекты в области возобновляе5мой энергетики для ЦОД. В 2024 году компания объявила о внедрении новых компонентов для ЦОД, сочетающих технологии электропитания, охлаждения и аппаратного обеспечения, причём не только для строящихся, но и уже для имеющихся объектов. Новые компоненты, предположительно, позволят снизить энергопотребление некоторых компонентов до -46 % и сократить углеродный след используемого бетона на 35 %.

 Источник изображения: AWS

Источник изображения: AWS

Для новых объектов, строящихся в рамках Project Rainier и за его пределами, предусмотрено использование целого ряда новых технологий для повышения энергоэффективности и экоустойчивости. Некоторые технологии связаны с рациональным использованием водных ресурсов. AWS проектирует объекты так, чтобы использовать минимум воды, или вовсе не использовать её. Один из способов — отказ от её применения в системах охлаждения на многих объектах большую часть года, с переходом на охлаждение наружным воздухом.

 Источник изображения: AWS

Источник изображения: AWS

Так, один из объектов Project Rainier в Индиане будет максимально использовать именно уличный воздух, а с октября по март дата-центры вовсе не станут использовать воду для охлаждения, с апреля по сентябрь в среднем вода будет применяться по несколько часов в день. Согласно отчёту Национальной лаборатории им. Лоуренса в Беркли (LBNL), стандартный показатель WUE для ЦОД 0,375 л/кВт·ч. В AWS этот показатель равен 0,15 л/кВт·ч, что на 40 % лучше, чем в 2021 году.

Постоянный URL: http://servernews.ru/1131617
30.10.2025 [13:51], Владимир Мироненко

От Nearline SSD до HBF: SK hynix анонсировала NAND-решения AIN для ИИ-платформ

Компания SK hynix представила стратегию развития решений хранения на базе NAND нового поколения. SK hynix заявила, что в связи с быстрым ростом рынка ИИ-инференса спрос на хранилища на базе NAND, способных быстро и эффективно обрабатывать большие объёмы данных, стремительно растёт. Для удовлетворения этого спроса компания разрабатывает серию решений AIN (AI-NAND), оптимизированных для ИИ. Семейство будет включать решения AIN P, AIN B и AIN D, оптимизированные по производительности, пропускной способности и плотности соответственно.

 Источник изображений: SK hynix

Источник изображений: SK hynix

AIN P (Performance) — это решение для эффективной обработки больших объёмов данных, генерируемых в рамках масштабных рабочих нагрузок ИИ-инференса. Продукт значительно повышает скорость обработки и энергоэффективность, минимизируя узкие места между хранилищем и ИИ-операциями. SK hynix разрабатывает NAND-память и контроллеры с новыми возможностями и планирует выпустить образцы к концу 2026 года.

Как пишет Blocks & Files, накопитель AIN P, как ожидается, получит поддержку PCIe 6.0 и обеспечит 50 млн IOPS на 512-байт блоках, тогда как сейчас производительность случайного чтения и записи с 4-Кбайт блоками составляет порядка 7 млн IOPS у накопителей PCIe 6.0. То есть AIN P будет в семь раз быстрее, чем нынешние корпоративные PCIe 6.0 SSD, и, по заявлению SK hynix, достичь 100 млн IOPS можно будет уже в 2027 году. Такой SSD будет выполнен в форм-факторе EDSFF E3.x и оснащён контроллером, предназначенным для выполнения как обычных рабочих нагрузок, так и с высоким показателем IOPS.

AIN D (Density) — это высокоплотное решение Nearline (NL) SSD для хранения больших объёмов данных с низкими энергопотреблением и стоимостью, подходящее для хранения ИИ-данных. Компания стремится увеличить плотность QLC SSD с Тбайт до Пбайт, создав решение среднего уровня, сочетающее в себе скорость SSD и экономичность HDD. AIN D от SK hynix как раз предназначен для замены жёстких дисков. Компания также упоминает некий стандарт JEDEC-NLF (Near Line Flash?), который пока не существует. При этом SK hynix пока не упоминает PLC NAND и не приводит данные о ёмкости AIN D.

AIN B (Bandwidth) — это HBF-память с увеличенной за счёт вертикального размещения нескольких модулей NAND пропускной способностью. Ключевым в данном случае является сочетание структуры стекирования HBM с высокой плотностью и экономичностью флеш-памяти NAND. AIN B предложит большую ёмкость, чем HBM, примерно на уровне ёмкости SSD. AIN B может увеличить эффективную ёмкость памяти GPU и, таким образом, устранить необходимость покупки/аренды дополнительных GPU для увеличения ёмкости HBM, например, для хранения содержимого KV-кеша.

Компания рассматривает различные стратегии развития AIN B, например, совместное использование с HBM для повышения общей ёмкости системы, поскольку стек HBF может быть совмещён со стеком HBM на одном интерпозере. SK hynix и Sandisk работают над продвижением стандарта HBF. Они провели в рамках 2025 OCP Global Summit мероприятие HBF Night, посвящённое этому вопросу. Рании компании подписали меморандум о стандартизации HBF в целях расширения технологической экосистемы.

«Благодаря OCP Global Summit и HBF Night мы смогли продемонстрировать настоящее и будущее SK hynix как глобального поставщика решений памяти, процветающего на быстро развивающемся ИИ-рынке», — заявила SK hynix, добавив, что на рынке устройств хранения данных на базе NAND следующего поколения SK hynix будет тесно сотрудничать с клиентами и партнёрами, чтобы стать ключевым игроком.

Постоянный URL: http://servernews.ru/1131611
30.10.2025 [12:20], Сергей Карасёв

ASUS представила ИИ-сервер XA NB3I-E12 на базе NVIDIA HGX B300

Компания ASUS анонсировала сервер XA NB3I-E12 на аппаратной платформе NVIDIA HGX B300, предназначенный для интенсивных нагрузок ИИ. В качестве потенциальных заказчиков системы названы предприятия, которые работают с большими языковыми моделями (LLM) и НРС-приложениями: это могут быть научно-исследовательские структуры и финансовые организации, компании автомобильного сектора и пр.

Сервер выполнен в форм-факторе 9U. Возможна установка двух процессоров Intel Xeon 6700P поколения Granite Rapids с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5-6400 RDIMM / 3DS RDIMM. Во фронтальной части расположены 10 посадочных мест на SFF-накопителей (NVMe). Предусмотрены четыре слота расширения PCIe 5.0 х16 и один слот PCIe 5.0 х8.

Система имеет архитектуру 8-GPU (NVIDIA HGX B300 288GB 8-GPU). Задействованы сетевые адаптеры NVIDIA ConnectX-8 и DPU NVIDIA BlueField-3. Реализованы два сетевых порта 10GbE с разъёмами RJ45 на основе контроллера Intel X710-AT2 и выделенный сетевой порт управления (RJ45). Питание обеспечивают 10 блоков мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Применяется воздушное охлаждение; диапазон рабочих температур — от +10 до +35 °C.

 Источник изображения: ASUS

Источник изображения: ASUS

ASUS отмечает, что сервер имеет модульную конструкцию, благодаря чему минимизируется использование кабелей, упрощается обслуживание и повышается ремонтопригодность. Габариты устройства составляют 945 × 447 × 394,5 мм, масса — примерно 120 кг без установленных накопителей.

Постоянный URL: http://servernews.ru/1131613

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus