Материалы по тегу:

24.11.2025 [22:25], Владимир Мироненко

Внедрение облачных технологий увеличивает прибыль компаний, показало исследование Yandex B2B Tech и «Яков и Партнёры»

Согласно совместному исследованию консалтинговой компании «Яков и Партнёры» и Yandex B2B Tech «Облачные технологии: тренды и перспективы развития», российские компании продолжают наращивать масштабы использования облачных сервисов, получая от внедрения облачных решений заметный финансовый эффект. В основу исследования легли результаты опроса руководителей 200 крупных российских компаний из 17 отраслей.

По оценкам экспертов, большей частью высоким уровнем внедрения ИИ могут похвастать компании с высоким уровнем использования облаков — таких 30 %. При низком уровне использования облаков уровень внедрения ИИ составляет не более 2 %.

Около половины компаний оценивают эффект от внедрения облачных решений как превышающий 3 % их EBITDA, что значительно больше затрат на облако. В цифровых отраслях финансовый эффект ещё выше: более 5 % EBITDA у компаний в сфере ИТ и технологий электронной коммерции, а также телекоме и медиа. У 73 % респондентов эффект превысил затраты, у 2 % — он оказался выше 25 %, но 23 % опрошенных всё ещё не могут его оценить.

 Источник изображений: Yandex B2B Tech / «Яков и Партнёры»

Источник изображений: Yandex B2B Tech / «Яков и Партнёры»

При этом главный результат внедрения компании видят не в прямой экономии, а в улучшение масштабируемости, повышении доступности данных и надёжности инфраструктуры. В этих условиях около половины компаний тратят на облачные решения более 5 % от годового ИТ-бюджета, а свыше 30 % планируют увеличить расходы в будущем.

Большинство участников опроса (94 %) планируют и дальше использовать облачные технологии, причем 44 % намерены масштабировать существующие решения, 28 % — применять технологии в новых сценариях, 26 % — использовать облачные технологии в тех же объёмах.

Половина компаний планирует увеличить количество провайдеров облачных услуг. При этом ключевым критерием при выборе компании называют качество платформы и сопутствующих сервисов, превышающим по значимости цену и модель ценообразования. Согласно опросу, компании быстро переходят к гибридной модели: более 70 % используют одновременно публичное облако и on-premise инфраструктуру. Проникновение решений PaaS и SaaS составляет 65–66 %, при этом свыше половины компаний (52 %) комбинируют IaaS-, PaaS- и SaaS.

Компании активно используют PaaS для ускорения разработки, анализа данных и внедрения AI-технологий, в большинстве случаев — несколько типов. Наиболее востребованы решения для хранения и обработки данных (78 % респондентов), инструменты для разработчиков (76 %), сервисы в области ML и ИИ (65 %), оркестрация, управление контейнерными кластерами (40 %) и инструменты аналитики и визуализации данных (27 %).

Отмечено, что аналитические платформы ускоряют подготовку отчётов более чем в два раза, автоматизация консультаций снижает нагрузку на клиентскую поддержку на 20 %, а генеративные сервисы для создания карточек товаров увеличивают скорость публикации в десятки раз.

В исследовании отмечено, что глобальный рынок публичных облаков увеличился с 2020 по 2024 гг. почти втрое, до почти $600 млрд, и, согласно прогнозу, достигнет $1,26 трлн в 2028 году. По словам «Яков и Партнёры», на публичные облака приходится больше 60 % мирового рынка ПО, и при позитивном сценарии к 2030 году доля может составить порядка 80 %. При этом в России этот рынок всё ещё является недостаточно зрелым, занимая около 35 % рынка ПО. Вместе с тем прогнозируемые темпы его роста будут превышать мировые, и в течение следующих пяти лет рынок вырастет приблизительно в три раза, практически сравнявшись с on-premise.

Согласно прогнозу экспертов, в 2030 году российский рынок облаков по основным типам решений достигнет рекордных 1,24 трлн руб. Основными драйверами его роста являются цифровизация отраслей и спрос на гибкие решения. Рынок включает в себя все облачные решения ПО, а также потребление частных облаков и внутригрупповое потребление решений облачных провайдеров. На внешнее потребление приходится около 70 %.

Постоянный URL: http://servernews.ru/1132876
24.11.2025 [18:08], Андрей Крупин

Российская служба каталогов ALD Pro дополнилась ИИ-помощником для системных администраторов

«Группа Астра» представила новую разработку — ИИ-ассистент для службы каталогов ALD Pro.

Программный комплекс ALD Pro предназначен для автоматизации и централизованного управления рабочими станциями, иерархией подразделений и групповыми политиками, а также прикладными сервисами для IT-инфраструктур организаций различного масштаба. Продукт может использоваться в качестве замены Microsoft Active Directory и учитывает интересы администраторов и пользователей компаний, переходящих на отечественный софт. ALD Pro включён в дорожную карту «Новое общесистемное программное обеспечение»; решению присвоен статус «особо важного продукта» в рамках программы Минцифры России. Система соответствует требованиям ФСТЭК по 2-му уровню доверия и может использоваться в организациях, предъявляющих высокие требования к безопасности корпоративного ПО.

 Архитектура платформы ALD Pro (источник изображений: astra.ru)

Архитектура платформы ALD Pro (источник изображений: astra.ru)

Встроенный в ALD Pro интеллектуальный ассистент избавляет системных администраторов от необходимости вручную искать информацию: теперь точный ответ на любой вопрос по работе со службой каталогов можно получить буквально за несколько секунд. Для формулировки запроса не требуется знание специальных команд или терминов. ИИ-помощник обеспечивает мгновенный доступ к знаниям, минимизируя простои в работе, и автоматизирует рутинный поиск, высвобождая время сотрудников для более важных задач. Кроме того, ассистент значительно ускоряет адаптацию новых сотрудников, предоставляя им встроенную экспертную поддержку и сокращая время на обучение.

«На кейсе ALD Pro мы доказали, что локально размещённые большие языковые модели, настроенные под конкретные задачи, демонстрируют свыше 70 % качественных ответов и значительно снижают нагрузку на техническую поддержку. ИИ-помощник — незаменимый инструмент для компаний на этапе импортозамещения, позволяющий им быстро адаптироваться к изменениям. Внедрение таких решений позволяет ускорить онбординг сотрудников и повысить общую продуктивность команд на 30–40 %», — отмечает «Группа Астра».

Постоянный URL: http://servernews.ru/1132867
24.11.2025 [17:46], Владимир Мироненко

Nokia инвестирует $4 млрд в производство и исследования в США

Компания Nokia в сотрудничестве с администрацией президента США объявила о планах инвестировать в течение нескольких лет $4 млрд в программы по расширению своих научно-исследовательских и производственных мощностей в США, чтобы ускорить разработки в области технологий мобильного и фиксированного доступа, IP, оптических сетей и сетей для ИИ ЦОД.

Компания отметила, что этот шаг дополняет её инвестиции в производство, исследования и разработки в США в размере $2,3 млрд в рамках покупки Infinera. Кроме того, ранее Infinera объявила об инвестициях в размере $456 млн в строительство производственных мощностей в Сан-Хосе (San Jose, Калифорния) и предприятия по тестированию и упаковке в Бетлехеме (Bethlehem, Пенсильвания).

$3,5 млрд из объявленной суммы инвестиций Nokia направит на поддержку исследований и разработок в США в области передовых сетевых технологий, включая автоматизацию, квантово-безопасные сети, производство полупроводников, тестирование и упаковку, а также современные материаловедческие разработки. Оставшаяся часть в размере $500 млн будет инвестирована в производство, исследования и разработки в США, в том числе в Техасе, Нью-Джерси и Пенсильвании.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Nokia отметила, что эта инициатива укрепляет её внутренние производственные возможности в области мобильных, фиксированных, IP-, оптических и оборонных систем. В минувшую пятницу президент и исполнительный директор Nokia Джастин Хотард (Justin Hotard) заявил, что новые вложения позволят укрепить сетевую инфраструктуру на фоне роста инвестиций в ИИ, сообщил ресурс The Wall Street Journal.

На прошлой неделе компания объявила на мероприятии 2025 Capital Markets Day для акционеров и инвесторов о масштабной «перезагрузке», в рамках которой оптимизирует свою деятельность, произведёт перестановки в руководящей команде и будет стремиться к расширению совместных партнёрских отношений в области инноваций в рамках курса на развитие ИИ и облачных вычислений. Добавим, что в конце октября NVIDIA сообщила о намерении приобрести пакет акций финской компании стоимостью $1 млрд.

Постоянный URL: http://servernews.ru/1132861
24.11.2025 [16:21], Руслан Авдеев

PLDT оснастит базовые станции роборуками и ИИ, чтобы оптимизировать покрытие сети в реальном времени

Smart Communications, дочерняя структура филиппинской телеком-компании PLDT, проводит пилотные испытания дистанционно управляемых роботизированных рук для базовых станций сотовой связи. Они помогут оптимизировать зону покрытия и повысить производительность сетевых подключений, сообщает Datacenter Dynamics. Особенно это актуально для удалённых районов, куда отправить живого техника сложно и дорого.

Компания использует систему Optical Compass and Robot Arm (OCRA) от Humax Networks при поддержке интегратора Telkha. Отмечается, что благодаря этой системе операторы способны удалённо менять положение антенны в пространстве, благодаря чему корректировать настройки можно в режиме реального времени, в том числе во время пиковых дневных нагрузок.

 Источник изображения: Humax Networks

Источник изображения: Humax Networks

PLDT и Smart совместно с производителем OCRA — Humax Networks и системным интегратором Telkha запустили пилотную версию системы. Первую роборуку OCRA установили на действующей базовой станции, обслуживающей два объекта — больницу и близлежащий многоэтажный жилой комплекс. Испытания продемонстрировали улучшение уровня сигнала, качества и скорости в обоих локациях.

Благодаря использованию OCRA компания сможет точно настраивать положение антенн и оптимизировать покрытие в режиме реального времени. Этот сократит время простоев и поднимет качество обслуживания клиентов. Особенно подчёркивается, что технология позволит инвестировать сэкономленные за счёт её внедрения средства в расширение и совершенствование сети, в конечном счёте это должно принести пользу конечным потребителям. В будущем планируется совместить возможность удалённого управления антеннами с ИИ-системой, что позволит отслеживать и корректировать состояние сети в реальном времени.

Постоянный URL: http://servernews.ru/1132847
24.11.2025 [15:50], Андрей Крупин

IXcellerate построит в Московском регионе кампус на 130 МВт для размещения двух новых ЦОД

IXcellerate, оператор коммерческих дата-центров России, завершил сделку по покупке участка земли площадью 5,5 га и приступил к реализации своего третьего кампуса Vёshki. Проект финансируется как из собственных средств компании, так и за счёт заёмного капитала.

Новый кампус будет развёрнут рядом с посёлком Вёшки в городском округе Мытищи Московской области на расстоянии 6 км по прямой от кампуса IXcellerate Moscow North в районе Алтуфьево. IXcellerate Vёshki объединит на своей территории два новых дата-центра — MOS11 и MOS12. Общая ёмкость объекта составит 7500 стойко-мест, мощность — 130 МВт. Помимо ЦОД на площадке разместятся склады и клиентские офисы.

 Кампус IXcellerate Vёshki (источник изображения: ixcellerate.ru)

Кампус IXcellerate Vёshki (источник изображения: ixcellerate.ru)

Первый дата-центр — MOS11 — на 2500 стойко-мест будет открыт на основе существующего здания по технологии Brownfield. Бесперебойность объекта будет обеспечиваться за счёт двойного резервирования (2N) через два независимых ввода от двух городских подстанций с использованием ДГУ и ИБП. Доступность электричества составит 40 МВт, средняя нагрузка на стойку — 12 кВт с возможностью увеличения до 44 кВт для размещения высокопроизводительных систем. Охлаждение машинных залов будет осуществляться по технология низкоскоростной циркуляции воздуха (Low Speed Ventilation, LSV) с использованием чиллеров с фрикулингом и предохлаждением. Система накопления энергии позволит поддерживать среднегодовой коэффициент энергоэффективности (PUE) на уровне 1,33. Для защиты от возгорания будет развёрнута комбинированная система пожаротушения газом и тонкораспылённой водой. Проектом также предусмотрен технологический водоём с ливневой водой для адиабатики. Запуск первой очереди MOS11 запланирован на лето 2026 года.

Запуск строительства второго центра обработки данных — MOS12 — на территории кампуса IXcellerate Vёshki запланирован на 2027 год с поэтапным вводом мощностей в 2029–2030 гг.

Постоянный URL: http://servernews.ru/1132857
24.11.2025 [15:14], Сергей Карасёв

Технологии тысячеядерного RISC-V-ускорителя Esperanto будут переданы в open source

Стартап Ainekko, специализирующийся на разработке аппаратных и программных решений в сфере ИИ, по сообщению EE Times, приобрёл интеллектуальную собственность и некоторые активы компании Esperanto Technologies. Речь идёт о дизайне чипов, программных инструментах и фреймворке.

Фирма Esperanto, основанная в 2014 году, специализировалась на создании высокопроизводительных ускорителей с архитектурой RISC-V для задач НРС и ИИ. В частности, было представлено изделие ET-SoC-1, объединившее 1088 энергоэффективных ядер ET-Minion и четыре высокопроизводительных ядра ET-Maxion. Основной сферой применения чипа был заявлен инференс для рекомендательных систем, в том числе на периферии. Однако в июле нынешнего года стало известно, что Esperanto сворачивает деятельность и ищет покупателя на свои разработки — ключевых инженеров переманили крупные компании. А продать чипы Meta, в чём, по-видимому, и заключался изначальный план, не удалось.

Как рассказала соучредитель Ainekko Таня Дадашева (Tanya Dadasheva), её компания работает с чипами Esperanto в течение примерно полугода. Изначально компания планировала использовать чипы Esperanto для запуска своего софтверного стека. В частности, удалось перенести llama.cpp up и tinygrad. Когда стало понятно, что Esperanto вряд ли выживет, было принято решение выкупить разработки стартапа. Во всяком случае, это лучше, чем просто закрыть компанию, оставив её заказчиков ни с чем, как поступила AMD с Untether AI.

 Источник изображения: Esperanto

Источник изображения: Esperanto

Ainekko планирует передать сообществу open source технологии Esperanto, связанные с многоядерной архитектурой RISC-V, включая RTL, референсные проекты и инструменты разработки. Предполагается, что решения Esperanto будут востребованы прежде всего в области периферийных устройств, где большое значение имеет энергоэффективность. Архитектура Esperanto, как утверждается, подходит для таких задач, как робототехника и дроны, системы безопасности, встраиваемое оборудование с ИИ-функциями и пр.

Второй соучредитель Ainekko Роман Шапошник (Roman Shaposhnik) добавляет, что многоядерная архитектура Esperanto подходит не только для разработки ИИ-чипов, но и для создания «универсальной вычислительной платформы». Сама Ainekko намерена выпустить чип с восемью ядрами Esperanto и 16 Мбайт памяти MRAM, разработанной стартапом Veevx. Отмечается, что соучредитель и генеральный директор Veevx, ветеран Broadcom Даг Смит (Doug Smith), является ещё одним сооснователем Ainekko. В дальнейшие планы входит разработка процессора с 256 ядрами: по производительности он будет сопоставим с чипом Broadcom BCM2712 (4 × 64-бит Arm Cortex-A76), лежащим в основе Raspberry Pi 5, но оптимизирован для инференса.

Постоянный URL: http://servernews.ru/1132841
24.11.2025 [12:23], Руслан Авдеев

США рассматривают продажу в Китай ИИ-ускорителей NVIDIA H200

Администрация США рассматривает возможность дать «зелёный свет» продажам ИИ-чипов NVIDIA H200 в КНР — по данным источников, некоторая двухсторонняя «разрядка» способствует обсуждению продаж передовых американских технологий в Китай, сообщает Reuters. Впрочем, H200 вряд ли можно назвать «новейшими» — в ходу уже совсем другие решения.

В Белом Доме отказались комментировать ситуацию, но заявили, что американская администрация стремится «обеспечению американского технологического лидерства и защите национальной безопасности». Ранее глава NVIDIA Дженсен Хуанг (Jensen Huang) предупреждал, что именно запреты на продажу передовых решений могут угрожать технологическому лидерству США в мире. Теперь в NVIDIA не прокомментировали ситуацию прямо, но заявили, что текущие правила не позволяют продавать в Китае конкурентоспособные чипы, оставляя этот рынок на откуп быстро развивающимся иностранным конкурентам.

Данные источников косвенно свидетельствуют о смягчении подхода США к отношениям с Китаем после того, как китайский Лидер Си Цзиньпин (Xi Jinping) в прошлом месяце заключил «перемирие» в технологической и торговой войнах. Антикитайские политики в Вашингтоне обеспокоены тем, что поставки более передовых чипов в Китай могут помочь Пекину «перезагрузить» военную машину, именно поэтому прошлая администрация в своё время ужесточила экспортный контроль в отношении Поднебесной.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Столкнувшись с ограничениями Пекина на экспорт редкоземельных металлов, критически важных для производства многих высокотехнологичных продуктов, в этом году США пригрозили ввести новые технологические ограничения, но в итоге отказались от них в большинстве случаев.

Чипы H200 представили два года назад, они получили более быструю и ёмкую память в сравнении с оригинальными H100, что позволяет быстрее обрабатывать данные ИИ-серверами. По имеющимся оценкам, модели H200 вдвое производительнее, чем варианты H20, разрешённые для экспорта в Китай Трампом после короткого тотального запрета.

В отношении ближневосточных стран, которым тоже долго не разрешали закупать ускоритли из-за опасений, что они в итоге достанутся Китаю, послабления были объявлены на днях. В частности, Министерство торговли США уже одобрило поставку в страну эквивалент до 70 тыс. чипов NVIDIA Blackwell компаниям Humain и G42 из Саудовской Аравии и ОАЭ соответственно.

Постоянный URL: http://servernews.ru/1132844
24.11.2025 [12:09], Сергей Карасёв

Broadcom представила FC128-коммутаторы с постквантовым шифрованием

Компания Broadcom анонсировала коммутаторы Brocade X8 Director и Brocade G820. Это, как утверждается, первые на рынке решения Fibre Channel 128G (FC128), разработанные специально для критически важных рабочих нагрузок и корпоративных приложений ИИ.

Особенностью устройств является поддержка квантово-устойчивого 256-бит шифрования и других постквантовых алгоритмов криптографии. Благодаря таким инструментам обеспечивается защита от сложных угроз нового поколения, основанных на ИИ и квантовых вычислениях.

 Источник изображений: Broadcom

Источник изображений: Broadcom

Brocade X8 Director — это модульная платформа, ориентированная на крупномасштабные среды обработки и хранения данных. Доступны варианты Brocade X8-8 Director (14U) и Brocade X8-4 Director (9U) с восемью и четырьмя слотами для blade-модулей, каждый из которых содержит 48 портов FC128 (режимы 128G, 64G, 32G и 16G или 100GbE, 50GbE, 25GbE и 10GbE). Таким образом, в общей сложности доступны до 384 и 192 портов FC128G соответственно. Кроме того, реализованы 16 и 8 портов UltraScale ICL для соединения шасси в высокоскоростных инфраструктурах хранения данных. Суммарная пропускная способность достигает 62 Тбит/с у старшей версии и 31 Тбит/с у младшей. За питание отвечают блоки мощностью 3000 Вт (шесть у Brocade X8-8 Director и четыре у Brocade X8-4 Director) с сертификатом 80 Plus Titanium.

В свою очередь, коммутатор Brocade G820 типоразмера 1U специально разработан для удовлетворения растущих потребностей современных дата-центров. Он располагает 56 портами FC128 SFP+, обеспечивая пропускную способность до 7,168 Тбит/с. Применены два блока питания с сертификатом 80 Plus Platinum.

Во всех коммутаторах применяется воздушное охлаждение. Диапазон рабочих температур простирается от 0 до +40 °C. Новинки поддерживают технологию Adaptive Traffic Optimizer для динамической балансировки нагрузки. Этот инструмент также помогает избежать снижения производительности приложений, автоматически изолируя трафик, негативно влияющий на другие потоки. Поставки Brocade X8 Director и Brocade G820 уже начались.

Постоянный URL: http://servernews.ru/1132837
24.11.2025 [10:17], Руслан Авдеев

Перекрыть потоки: NVIDIA усиливает контроль над цепочкой поставок СЖО для Vera Rubin

NVIDIA намерена серьёзно изменить управление цепочкой поставок для серверной платформы новейшего поколения Vera Rubin. Она ужесточает контроль над сборкой и поставкой ключевых компонентов систем охлаждения, что связано с ростом энергопотребления и обязательным применением СЖО, сообщает DigiTimes. Это ещё один шаг в процессе усиления контроля над выпуском ИИ-платформ. NVIDIA уже давно внимательно следит за цепочками поставок для ускорителей и плат, но теперь намерена перейти на новый уровень.

Источники сообщают, что компания намерена отобрать четырёх поставщиков водоблоков, перейти к координации производства и централизованным закупкам. Предполагается, что это будут Cooler Master, Asia Vital Components (AVC), Auras Technology и Delta Electronics. Ранее СЖО для NVIDIA занимались, в основном, Cooler Master, AVC и некоторые другие поставщики.

Ожидается, что для Vera Rubin вместо поставки лишь отдельных компонентов (L6), NVIDIA будет участвовать в процессе и на более позднем этапе (L10), взяв ответственность за интеграцию и сборку готовых серверных шкафов. В целом окончательную сборку поручат Foxconn, Wistron и Quanta. Из-за необходимости быстрого выпуска продукции на поставщиков легла дополнительная нагрузка. Некоторые из них в частном порядке жалуются, что NVIDIA настаивает на запуске массового производства ещё до утверждения окончательного дизайна платформ, а новое поколение платформ часто появляется до того, как предыдущее достигло стабильного уровня производства и качества.

Централизованные закупки помогут NVIDIA оптимизировать поставки и контролировать качество, но рентабельность работы поставщиков может пострадать, поскольку NVIDIA сама будет управлять спросом и торговаться по поводу цен. При этом отказ от подобных условий практически невозможен, учитывая доминирующее положение компании на рынке ИИ-инфраструктуры. В результате снижается самостоятельность как ODM, так и облачных провайдеров. Из-за этого же, как считается, во многом замедлено и развитие погружных СЖО — NVIDIA попросту не готова сертифицировать такие системы.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Эксперты всё чаще говорят о росте напряжённости, которая со временем приведёт к открытому конфликту. Новый подход NVIDIA, вероятно, повлияет на цепочку поставок двумя путями. Во-первых, контракты на сборку консолидируются вокруг небольшого пула производителей, а выпуск водоблоков сконцентрируется в руках трёх-четырёх компаний. Облачным провайдерам, вероятно, тоже придётся идти на поводу NVIDIA при размещении крупных оптовых заказов, хотя они как раз предпочитают создавать собственные СЖО, что в целом тоже негативно влияет на некоторых игроков.

Во-вторых, рост объёмов поставок не гарантирует роста рентабельности. Поставщики предполагают, что цена за единицу продукции в рамках попыток NVIDIA сконцентрировать производителей уменьшится, а более жёсткий контроль над проектированием снизит и стратегическую ценность индивидуальных разработок. Компании уже шутят, что статус крупнейшего поставщика NVIDIA может буквально навредить, поскольку по мере роста объёмов обычно растут и дисконты.

Ожидается, что стойки поколения Vera Rubin обеспечат значительно более высокую плотность вычислений, чем уже доступные платформы GB200 и GB300, а для традиционного воздушного охлаждения места уже не останется. В отрасли ожидают, что Vera Rubin представят во II половине 2026 года. Платформа представляет собой важный шаг к созданию ИИ-инфраструктуры с полностью жидкостным охлаждением. Новейшая стратегия NVIDIA, касающаяся цепочек поставок, свидетельствует о решимости компании усилить прямой контроль качества, поставок и их стоимости по мере роста плотности мощности.

В JPMorgan утверждают, что NVIDIA станет напрямую поставлять системы L10. Компания унифицирует конструкцию и заставит подрядчиков строго придерживаться предлагаемых чертежей и дизайна без использования проприетарных архитектур, созданных самими подрядчиками. Для NVIDIA это выгодно, поскольку позволяет значительно ускорить отгрузки и кратно сократить сроки развёртывания ИИ-инфраструктур (до 3 мес. вместо 9 мес.), опираясь на единые стандарты — от одного узла до целой ИИ-фабрики. При этом AWS, вероятно, придётся тяжелее всех, поскольку она пытается снизить зависимость от NVIDIA и в то же время не является активным сторонником OCP.

Постоянный URL: http://servernews.ru/1132823
24.11.2025 [09:09], Сергей Карасёв

IBM утроила вместимость СХД Storage Scale System 6000 — до 47 Пбайт на стойку

Корпорация IBM объявила о выпуске обновлённой СХД Storage Scale System 6000, предназначенной для работы с ресурсоёмкими ИИ-приложениями, а также с нагрузками, которым требуется интенсивный обмен большими объёмами информации.

Платформа Storage Scale System 6000 дебютировала в конце 2024 года. Устройство типоразмера 4U оснащено двумя контроллерами, работающими в режиме «активный — активный». Применяются процессоры AMD EPYC Genoa 7642 (48C/96T; 2,3–3,3 ГГц; 225 Вт) или EPYC Embedded 9454 (48C/96T; 2,75–3,8 ГГц; 290 Вт), а максимальный объём оперативной памяти в расчёте на систему составляет 3072 Гбайт. Допускается установка 48 NVMe-накопителей. Также поддерживаются фирменные FCM-модули со сжатием на лету.

Вместимость оригинальной версии достигала 2,2 Пбайт (при использовании комбинации SSD на 30 и 60 Тбайт). При подключении девяти дополнительных JBOD-массивов показатель вырастал до 15 Пбайт. Заявленная производительность — до 13 млн IOPS. Пропускная способность при чтении — до 330 Гбайт/с, при записи — до 155 Гбайт/с.

 Источник изображения: IBM

Источник изображения: IBM

В случае обновлённой модификации Storage Scale System 6000 реализована поддержка QLC-накопителей вместимостью до 122 Тбайт. Кроме того, представлены новые модули расширения All-Flash Expansion Enclosure стандарта 2U, рассчитанные на 26 двухпортовых накопителей QLC. В результате, общая ёмкость СХД в конфигурации в виде стойки 42U достигает 47 Пбайт, что примерно втрое больше по сравнению с оригинальным вариантом. При этом быстродействие поднялось до 28 млн IOPS, а пропускная способность в режиме чтения — до 340 Гбайт/с.

В состав All-Flash Expansion Enclosure входят DPU NVIDIA BlueField-3 (до 4 шт.). Каждый модуль расширения может обеспечить пропускную способность до 100 Гбайт/с. Решение оптимизировано для обучения больших языковых моделей, инференса, НРС-задач и пр. В продажу изделие поступит в декабре; тогда же станет доступно улучшенное ПО для СХД — IBM Storage Scale System 7.0.0.

Постоянный URL: http://servernews.ru/1132815

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus