Материалы по тегу:
|
24.11.2025 [22:25], Владимир Мироненко
Внедрение облачных технологий увеличивает прибыль компаний, показало исследование Yandex B2B Tech и «Яков и Партнёры»Согласно совместному исследованию консалтинговой компании «Яков и Партнёры» и Yandex B2B Tech «Облачные технологии: тренды и перспективы развития», российские компании продолжают наращивать масштабы использования облачных сервисов, получая от внедрения облачных решений заметный финансовый эффект. В основу исследования легли результаты опроса руководителей 200 крупных российских компаний из 17 отраслей. По оценкам экспертов, большей частью высоким уровнем внедрения ИИ могут похвастать компании с высоким уровнем использования облаков — таких 30 %. При низком уровне использования облаков уровень внедрения ИИ составляет не более 2 %. Около половины компаний оценивают эффект от внедрения облачных решений как превышающий 3 % их EBITDA, что значительно больше затрат на облако. В цифровых отраслях финансовый эффект ещё выше: более 5 % EBITDA у компаний в сфере ИТ и технологий электронной коммерции, а также телекоме и медиа. У 73 % респондентов эффект превысил затраты, у 2 % — он оказался выше 25 %, но 23 % опрошенных всё ещё не могут его оценить. При этом главный результат внедрения компании видят не в прямой экономии, а в улучшение масштабируемости, повышении доступности данных и надёжности инфраструктуры. В этих условиях около половины компаний тратят на облачные решения более 5 % от годового ИТ-бюджета, а свыше 30 % планируют увеличить расходы в будущем. Большинство участников опроса (94 %) планируют и дальше использовать облачные технологии, причем 44 % намерены масштабировать существующие решения, 28 % — применять технологии в новых сценариях, 26 % — использовать облачные технологии в тех же объёмах. Половина компаний планирует увеличить количество провайдеров облачных услуг. При этом ключевым критерием при выборе компании называют качество платформы и сопутствующих сервисов, превышающим по значимости цену и модель ценообразования. Согласно опросу, компании быстро переходят к гибридной модели: более 70 % используют одновременно публичное облако и on-premise инфраструктуру. Проникновение решений PaaS и SaaS составляет 65–66 %, при этом свыше половины компаний (52 %) комбинируют IaaS-, PaaS- и SaaS. Компании активно используют PaaS для ускорения разработки, анализа данных и внедрения AI-технологий, в большинстве случаев — несколько типов. Наиболее востребованы решения для хранения и обработки данных (78 % респондентов), инструменты для разработчиков (76 %), сервисы в области ML и ИИ (65 %), оркестрация, управление контейнерными кластерами (40 %) и инструменты аналитики и визуализации данных (27 %). Отмечено, что аналитические платформы ускоряют подготовку отчётов более чем в два раза, автоматизация консультаций снижает нагрузку на клиентскую поддержку на 20 %, а генеративные сервисы для создания карточек товаров увеличивают скорость публикации в десятки раз. В исследовании отмечено, что глобальный рынок публичных облаков увеличился с 2020 по 2024 гг. почти втрое, до почти $600 млрд, и, согласно прогнозу, достигнет $1,26 трлн в 2028 году. По словам «Яков и Партнёры», на публичные облака приходится больше 60 % мирового рынка ПО, и при позитивном сценарии к 2030 году доля может составить порядка 80 %. При этом в России этот рынок всё ещё является недостаточно зрелым, занимая около 35 % рынка ПО. Вместе с тем прогнозируемые темпы его роста будут превышать мировые, и в течение следующих пяти лет рынок вырастет приблизительно в три раза, практически сравнявшись с on-premise. Согласно прогнозу экспертов, в 2030 году российский рынок облаков по основным типам решений достигнет рекордных 1,24 трлн руб. Основными драйверами его роста являются цифровизация отраслей и спрос на гибкие решения. Рынок включает в себя все облачные решения ПО, а также потребление частных облаков и внутригрупповое потребление решений облачных провайдеров. На внешнее потребление приходится около 70 %.
24.11.2025 [18:08], Андрей Крупин
Российская служба каталогов ALD Pro дополнилась ИИ-помощником для системных администраторов«Группа Астра» представила новую разработку — ИИ-ассистент для службы каталогов ALD Pro. Программный комплекс ALD Pro предназначен для автоматизации и централизованного управления рабочими станциями, иерархией подразделений и групповыми политиками, а также прикладными сервисами для IT-инфраструктур организаций различного масштаба. Продукт может использоваться в качестве замены Microsoft Active Directory и учитывает интересы администраторов и пользователей компаний, переходящих на отечественный софт. ALD Pro включён в дорожную карту «Новое общесистемное программное обеспечение»; решению присвоен статус «особо важного продукта» в рамках программы Минцифры России. Система соответствует требованиям ФСТЭК по 2-му уровню доверия и может использоваться в организациях, предъявляющих высокие требования к безопасности корпоративного ПО.
Архитектура платформы ALD Pro (источник изображений: astra.ru) Встроенный в ALD Pro интеллектуальный ассистент избавляет системных администраторов от необходимости вручную искать информацию: теперь точный ответ на любой вопрос по работе со службой каталогов можно получить буквально за несколько секунд. Для формулировки запроса не требуется знание специальных команд или терминов. ИИ-помощник обеспечивает мгновенный доступ к знаниям, минимизируя простои в работе, и автоматизирует рутинный поиск, высвобождая время сотрудников для более важных задач. Кроме того, ассистент значительно ускоряет адаптацию новых сотрудников, предоставляя им встроенную экспертную поддержку и сокращая время на обучение. «На кейсе ALD Pro мы доказали, что локально размещённые большие языковые модели, настроенные под конкретные задачи, демонстрируют свыше 70 % качественных ответов и значительно снижают нагрузку на техническую поддержку. ИИ-помощник — незаменимый инструмент для компаний на этапе импортозамещения, позволяющий им быстро адаптироваться к изменениям. Внедрение таких решений позволяет ускорить онбординг сотрудников и повысить общую продуктивность команд на 30–40 %», — отмечает «Группа Астра».
24.11.2025 [17:46], Владимир Мироненко
Nokia инвестирует $4 млрд в производство и исследования в СШАКомпания Nokia в сотрудничестве с администрацией президента США объявила о планах инвестировать в течение нескольких лет $4 млрд в программы по расширению своих научно-исследовательских и производственных мощностей в США, чтобы ускорить разработки в области технологий мобильного и фиксированного доступа, IP, оптических сетей и сетей для ИИ ЦОД. Компания отметила, что этот шаг дополняет её инвестиции в производство, исследования и разработки в США в размере $2,3 млрд в рамках покупки Infinera. Кроме того, ранее Infinera объявила об инвестициях в размере $456 млн в строительство производственных мощностей в Сан-Хосе (San Jose, Калифорния) и предприятия по тестированию и упаковке в Бетлехеме (Bethlehem, Пенсильвания). $3,5 млрд из объявленной суммы инвестиций Nokia направит на поддержку исследований и разработок в США в области передовых сетевых технологий, включая автоматизацию, квантово-безопасные сети, производство полупроводников, тестирование и упаковку, а также современные материаловедческие разработки. Оставшаяся часть в размере $500 млн будет инвестирована в производство, исследования и разработки в США, в том числе в Техасе, Нью-Джерси и Пенсильвании. Nokia отметила, что эта инициатива укрепляет её внутренние производственные возможности в области мобильных, фиксированных, IP-, оптических и оборонных систем. В минувшую пятницу президент и исполнительный директор Nokia Джастин Хотард (Justin Hotard) заявил, что новые вложения позволят укрепить сетевую инфраструктуру на фоне роста инвестиций в ИИ, сообщил ресурс The Wall Street Journal. На прошлой неделе компания объявила на мероприятии 2025 Capital Markets Day для акционеров и инвесторов о масштабной «перезагрузке», в рамках которой оптимизирует свою деятельность, произведёт перестановки в руководящей команде и будет стремиться к расширению совместных партнёрских отношений в области инноваций в рамках курса на развитие ИИ и облачных вычислений. Добавим, что в конце октября NVIDIA сообщила о намерении приобрести пакет акций финской компании стоимостью $1 млрд.
24.11.2025 [16:21], Руслан Авдеев
PLDT оснастит базовые станции роборуками и ИИ, чтобы оптимизировать покрытие сети в реальном времениSmart Communications, дочерняя структура филиппинской телеком-компании PLDT, проводит пилотные испытания дистанционно управляемых роботизированных рук для базовых станций сотовой связи. Они помогут оптимизировать зону покрытия и повысить производительность сетевых подключений, сообщает Datacenter Dynamics. Особенно это актуально для удалённых районов, куда отправить живого техника сложно и дорого. Компания использует систему Optical Compass and Robot Arm (OCRA) от Humax Networks при поддержке интегратора Telkha. Отмечается, что благодаря этой системе операторы способны удалённо менять положение антенны в пространстве, благодаря чему корректировать настройки можно в режиме реального времени, в том числе во время пиковых дневных нагрузок.
Источник изображения: Humax Networks PLDT и Smart совместно с производителем OCRA — Humax Networks и системным интегратором Telkha запустили пилотную версию системы. Первую роборуку OCRA установили на действующей базовой станции, обслуживающей два объекта — больницу и близлежащий многоэтажный жилой комплекс. Испытания продемонстрировали улучшение уровня сигнала, качества и скорости в обоих локациях. Благодаря использованию OCRA компания сможет точно настраивать положение антенн и оптимизировать покрытие в режиме реального времени. Этот сократит время простоев и поднимет качество обслуживания клиентов. Особенно подчёркивается, что технология позволит инвестировать сэкономленные за счёт её внедрения средства в расширение и совершенствование сети, в конечном счёте это должно принести пользу конечным потребителям. В будущем планируется совместить возможность удалённого управления антеннами с ИИ-системой, что позволит отслеживать и корректировать состояние сети в реальном времени.
24.11.2025 [15:50], Андрей Крупин
IXcellerate построит в Московском регионе кампус на 130 МВт для размещения двух новых ЦОДIXcellerate, оператор коммерческих дата-центров России, завершил сделку по покупке участка земли площадью 5,5 га и приступил к реализации своего третьего кампуса Vёshki. Проект финансируется как из собственных средств компании, так и за счёт заёмного капитала. Новый кампус будет развёрнут рядом с посёлком Вёшки в городском округе Мытищи Московской области на расстоянии 6 км по прямой от кампуса IXcellerate Moscow North в районе Алтуфьево. IXcellerate Vёshki объединит на своей территории два новых дата-центра — MOS11 и MOS12. Общая ёмкость объекта составит 7500 стойко-мест, мощность — 130 МВт. Помимо ЦОД на площадке разместятся склады и клиентские офисы.
Кампус IXcellerate Vёshki (источник изображения: ixcellerate.ru) Первый дата-центр — MOS11 — на 2500 стойко-мест будет открыт на основе существующего здания по технологии Brownfield. Бесперебойность объекта будет обеспечиваться за счёт двойного резервирования (2N) через два независимых ввода от двух городских подстанций с использованием ДГУ и ИБП. Доступность электричества составит 40 МВт, средняя нагрузка на стойку — 12 кВт с возможностью увеличения до 44 кВт для размещения высокопроизводительных систем. Охлаждение машинных залов будет осуществляться по технология низкоскоростной циркуляции воздуха (Low Speed Ventilation, LSV) с использованием чиллеров с фрикулингом и предохлаждением. Система накопления энергии позволит поддерживать среднегодовой коэффициент энергоэффективности (PUE) на уровне 1,33. Для защиты от возгорания будет развёрнута комбинированная система пожаротушения газом и тонкораспылённой водой. Проектом также предусмотрен технологический водоём с ливневой водой для адиабатики. Запуск первой очереди MOS11 запланирован на лето 2026 года. Запуск строительства второго центра обработки данных — MOS12 — на территории кампуса IXcellerate Vёshki запланирован на 2027 год с поэтапным вводом мощностей в 2029–2030 гг.
24.11.2025 [15:14], Сергей Карасёв
Технологии тысячеядерного RISC-V-ускорителя Esperanto будут переданы в open sourceСтартап Ainekko, специализирующийся на разработке аппаратных и программных решений в сфере ИИ, по сообщению EE Times, приобрёл интеллектуальную собственность и некоторые активы компании Esperanto Technologies. Речь идёт о дизайне чипов, программных инструментах и фреймворке. Фирма Esperanto, основанная в 2014 году, специализировалась на создании высокопроизводительных ускорителей с архитектурой RISC-V для задач НРС и ИИ. В частности, было представлено изделие ET-SoC-1, объединившее 1088 энергоэффективных ядер ET-Minion и четыре высокопроизводительных ядра ET-Maxion. Основной сферой применения чипа был заявлен инференс для рекомендательных систем, в том числе на периферии. Однако в июле нынешнего года стало известно, что Esperanto сворачивает деятельность и ищет покупателя на свои разработки — ключевых инженеров переманили крупные компании. А продать чипы Meta✴, в чём, по-видимому, и заключался изначальный план, не удалось. Как рассказала соучредитель Ainekko Таня Дадашева (Tanya Dadasheva), её компания работает с чипами Esperanto в течение примерно полугода. Изначально компания планировала использовать чипы Esperanto для запуска своего софтверного стека. В частности, удалось перенести llama.cpp up и tinygrad. Когда стало понятно, что Esperanto вряд ли выживет, было принято решение выкупить разработки стартапа. Во всяком случае, это лучше, чем просто закрыть компанию, оставив её заказчиков ни с чем, как поступила AMD с Untether AI.
Источник изображения: Esperanto Ainekko планирует передать сообществу open source технологии Esperanto, связанные с многоядерной архитектурой RISC-V, включая RTL, референсные проекты и инструменты разработки. Предполагается, что решения Esperanto будут востребованы прежде всего в области периферийных устройств, где большое значение имеет энергоэффективность. Архитектура Esperanto, как утверждается, подходит для таких задач, как робототехника и дроны, системы безопасности, встраиваемое оборудование с ИИ-функциями и пр. Второй соучредитель Ainekko Роман Шапошник (Roman Shaposhnik) добавляет, что многоядерная архитектура Esperanto подходит не только для разработки ИИ-чипов, но и для создания «универсальной вычислительной платформы». Сама Ainekko намерена выпустить чип с восемью ядрами Esperanto и 16 Мбайт памяти MRAM, разработанной стартапом Veevx. Отмечается, что соучредитель и генеральный директор Veevx, ветеран Broadcom Даг Смит (Doug Smith), является ещё одним сооснователем Ainekko. В дальнейшие планы входит разработка процессора с 256 ядрами: по производительности он будет сопоставим с чипом Broadcom BCM2712 (4 × 64-бит Arm Cortex-A76), лежащим в основе Raspberry Pi 5, но оптимизирован для инференса.
24.11.2025 [12:23], Руслан Авдеев
США рассматривают продажу в Китай ИИ-ускорителей NVIDIA H200Администрация США рассматривает возможность дать «зелёный свет» продажам ИИ-чипов NVIDIA H200 в КНР — по данным источников, некоторая двухсторонняя «разрядка» способствует обсуждению продаж передовых американских технологий в Китай, сообщает Reuters. Впрочем, H200 вряд ли можно назвать «новейшими» — в ходу уже совсем другие решения. В Белом Доме отказались комментировать ситуацию, но заявили, что американская администрация стремится «обеспечению американского технологического лидерства и защите национальной безопасности». Ранее глава NVIDIA Дженсен Хуанг (Jensen Huang) предупреждал, что именно запреты на продажу передовых решений могут угрожать технологическому лидерству США в мире. Теперь в NVIDIA не прокомментировали ситуацию прямо, но заявили, что текущие правила не позволяют продавать в Китае конкурентоспособные чипы, оставляя этот рынок на откуп быстро развивающимся иностранным конкурентам. Данные источников косвенно свидетельствуют о смягчении подхода США к отношениям с Китаем после того, как китайский Лидер Си Цзиньпин (Xi Jinping) в прошлом месяце заключил «перемирие» в технологической и торговой войнах. Антикитайские политики в Вашингтоне обеспокоены тем, что поставки более передовых чипов в Китай могут помочь Пекину «перезагрузить» военную машину, именно поэтому прошлая администрация в своё время ужесточила экспортный контроль в отношении Поднебесной.
Источник изображения: NVIDIA Столкнувшись с ограничениями Пекина на экспорт редкоземельных металлов, критически важных для производства многих высокотехнологичных продуктов, в этом году США пригрозили ввести новые технологические ограничения, но в итоге отказались от них в большинстве случаев. Чипы H200 представили два года назад, они получили более быструю и ёмкую память в сравнении с оригинальными H100, что позволяет быстрее обрабатывать данные ИИ-серверами. По имеющимся оценкам, модели H200 вдвое производительнее, чем варианты H20, разрешённые для экспорта в Китай Трампом после короткого тотального запрета. В отношении ближневосточных стран, которым тоже долго не разрешали закупать ускоритли из-за опасений, что они в итоге достанутся Китаю, послабления были объявлены на днях. В частности, Министерство торговли США уже одобрило поставку в страну эквивалент до 70 тыс. чипов NVIDIA Blackwell компаниям Humain и G42 из Саудовской Аравии и ОАЭ соответственно.
24.11.2025 [12:09], Сергей Карасёв
Broadcom представила FC128-коммутаторы с постквантовым шифрованиемКомпания Broadcom анонсировала коммутаторы Brocade X8 Director и Brocade G820. Это, как утверждается, первые на рынке решения Fibre Channel 128G (FC128), разработанные специально для критически важных рабочих нагрузок и корпоративных приложений ИИ. Особенностью устройств является поддержка квантово-устойчивого 256-бит шифрования и других постквантовых алгоритмов криптографии. Благодаря таким инструментам обеспечивается защита от сложных угроз нового поколения, основанных на ИИ и квантовых вычислениях.
Источник изображений: Broadcom Brocade X8 Director — это модульная платформа, ориентированная на крупномасштабные среды обработки и хранения данных. Доступны варианты Brocade X8-8 Director (14U) и Brocade X8-4 Director (9U) с восемью и четырьмя слотами для blade-модулей, каждый из которых содержит 48 портов FC128 (режимы 128G, 64G, 32G и 16G или 100GbE, 50GbE, 25GbE и 10GbE). Таким образом, в общей сложности доступны до 384 и 192 портов FC128G соответственно. Кроме того, реализованы 16 и 8 портов UltraScale ICL для соединения шасси в высокоскоростных инфраструктурах хранения данных. Суммарная пропускная способность достигает 62 Тбит/с у старшей версии и 31 Тбит/с у младшей. За питание отвечают блоки мощностью 3000 Вт (шесть у Brocade X8-8 Director и четыре у Brocade X8-4 Director) с сертификатом 80 Plus Titanium. ![]() В свою очередь, коммутатор Brocade G820 типоразмера 1U специально разработан для удовлетворения растущих потребностей современных дата-центров. Он располагает 56 портами FC128 SFP+, обеспечивая пропускную способность до 7,168 Тбит/с. Применены два блока питания с сертификатом 80 Plus Platinum. Во всех коммутаторах применяется воздушное охлаждение. Диапазон рабочих температур простирается от 0 до +40 °C. Новинки поддерживают технологию Adaptive Traffic Optimizer для динамической балансировки нагрузки. Этот инструмент также помогает избежать снижения производительности приложений, автоматически изолируя трафик, негативно влияющий на другие потоки. Поставки Brocade X8 Director и Brocade G820 уже начались.
24.11.2025 [10:17], Руслан Авдеев
Перекрыть потоки: NVIDIA усиливает контроль над цепочкой поставок СЖО для Vera Rubin
cooler master
delta electronics
foxconn
hardware
nvidia
odm
qct
vr200
wistron
водоблок
ии
производство
сжо
NVIDIA намерена серьёзно изменить управление цепочкой поставок для серверной платформы новейшего поколения Vera Rubin. Она ужесточает контроль над сборкой и поставкой ключевых компонентов систем охлаждения, что связано с ростом энергопотребления и обязательным применением СЖО, сообщает DigiTimes. Это ещё один шаг в процессе усиления контроля над выпуском ИИ-платформ. NVIDIA уже давно внимательно следит за цепочками поставок для ускорителей и плат, но теперь намерена перейти на новый уровень. Источники сообщают, что компания намерена отобрать четырёх поставщиков водоблоков, перейти к координации производства и централизованным закупкам. Предполагается, что это будут Cooler Master, Asia Vital Components (AVC), Auras Technology и Delta Electronics. Ранее СЖО для NVIDIA занимались, в основном, Cooler Master, AVC и некоторые другие поставщики. Ожидается, что для Vera Rubin вместо поставки лишь отдельных компонентов (L6), NVIDIA будет участвовать в процессе и на более позднем этапе (L10), взяв ответственность за интеграцию и сборку готовых серверных шкафов. В целом окончательную сборку поручат Foxconn, Wistron и Quanta. Из-за необходимости быстрого выпуска продукции на поставщиков легла дополнительная нагрузка. Некоторые из них в частном порядке жалуются, что NVIDIA настаивает на запуске массового производства ещё до утверждения окончательного дизайна платформ, а новое поколение платформ часто появляется до того, как предыдущее достигло стабильного уровня производства и качества. Централизованные закупки помогут NVIDIA оптимизировать поставки и контролировать качество, но рентабельность работы поставщиков может пострадать, поскольку NVIDIA сама будет управлять спросом и торговаться по поводу цен. При этом отказ от подобных условий практически невозможен, учитывая доминирующее положение компании на рынке ИИ-инфраструктуры. В результате снижается самостоятельность как ODM, так и облачных провайдеров. Из-за этого же, как считается, во многом замедлено и развитие погружных СЖО — NVIDIA попросту не готова сертифицировать такие системы. Эксперты всё чаще говорят о росте напряжённости, которая со временем приведёт к открытому конфликту. Новый подход NVIDIA, вероятно, повлияет на цепочку поставок двумя путями. Во-первых, контракты на сборку консолидируются вокруг небольшого пула производителей, а выпуск водоблоков сконцентрируется в руках трёх-четырёх компаний. Облачным провайдерам, вероятно, тоже придётся идти на поводу NVIDIA при размещении крупных оптовых заказов, хотя они как раз предпочитают создавать собственные СЖО, что в целом тоже негативно влияет на некоторых игроков. Во-вторых, рост объёмов поставок не гарантирует роста рентабельности. Поставщики предполагают, что цена за единицу продукции в рамках попыток NVIDIA сконцентрировать производителей уменьшится, а более жёсткий контроль над проектированием снизит и стратегическую ценность индивидуальных разработок. Компании уже шутят, что статус крупнейшего поставщика NVIDIA может буквально навредить, поскольку по мере роста объёмов обычно растут и дисконты. Ожидается, что стойки поколения Vera Rubin обеспечат значительно более высокую плотность вычислений, чем уже доступные платформы GB200 и GB300, а для традиционного воздушного охлаждения места уже не останется. В отрасли ожидают, что Vera Rubin представят во II половине 2026 года. Платформа представляет собой важный шаг к созданию ИИ-инфраструктуры с полностью жидкостным охлаждением. Новейшая стратегия NVIDIA, касающаяся цепочек поставок, свидетельствует о решимости компании усилить прямой контроль качества, поставок и их стоимости по мере роста плотности мощности. В JPMorgan утверждают, что NVIDIA станет напрямую поставлять системы L10. Компания унифицирует конструкцию и заставит подрядчиков строго придерживаться предлагаемых чертежей и дизайна без использования проприетарных архитектур, созданных самими подрядчиками. Для NVIDIA это выгодно, поскольку позволяет значительно ускорить отгрузки и кратно сократить сроки развёртывания ИИ-инфраструктур (до 3 мес. вместо 9 мес.), опираясь на единые стандарты — от одного узла до целой ИИ-фабрики. При этом AWS, вероятно, придётся тяжелее всех, поскольку она пытается снизить зависимость от NVIDIA и в то же время не является активным сторонником OCP.
24.11.2025 [09:09], Сергей Карасёв
IBM утроила вместимость СХД Storage Scale System 6000 — до 47 Пбайт на стойкуКорпорация IBM объявила о выпуске обновлённой СХД Storage Scale System 6000, предназначенной для работы с ресурсоёмкими ИИ-приложениями, а также с нагрузками, которым требуется интенсивный обмен большими объёмами информации. Платформа Storage Scale System 6000 дебютировала в конце 2024 года. Устройство типоразмера 4U оснащено двумя контроллерами, работающими в режиме «активный — активный». Применяются процессоры AMD EPYC Genoa 7642 (48C/96T; 2,3–3,3 ГГц; 225 Вт) или EPYC Embedded 9454 (48C/96T; 2,75–3,8 ГГц; 290 Вт), а максимальный объём оперативной памяти в расчёте на систему составляет 3072 Гбайт. Допускается установка 48 NVMe-накопителей. Также поддерживаются фирменные FCM-модули со сжатием на лету. Вместимость оригинальной версии достигала 2,2 Пбайт (при использовании комбинации SSD на 30 и 60 Тбайт). При подключении девяти дополнительных JBOD-массивов показатель вырастал до 15 Пбайт. Заявленная производительность — до 13 млн IOPS. Пропускная способность при чтении — до 330 Гбайт/с, при записи — до 155 Гбайт/с.
Источник изображения: IBM В случае обновлённой модификации Storage Scale System 6000 реализована поддержка QLC-накопителей вместимостью до 122 Тбайт. Кроме того, представлены новые модули расширения All-Flash Expansion Enclosure стандарта 2U, рассчитанные на 26 двухпортовых накопителей QLC. В результате, общая ёмкость СХД в конфигурации в виде стойки 42U достигает 47 Пбайт, что примерно втрое больше по сравнению с оригинальным вариантом. При этом быстродействие поднялось до 28 млн IOPS, а пропускная способность в режиме чтения — до 340 Гбайт/с. В состав All-Flash Expansion Enclosure входят DPU NVIDIA BlueField-3 (до 4 шт.). Каждый модуль расширения может обеспечить пропускную способность до 100 Гбайт/с. Решение оптимизировано для обучения больших языковых моделей, инференса, НРС-задач и пр. В продажу изделие поступит в декабре; тогда же станет доступно улучшенное ПО для СХД — IBM Storage Scale System 7.0.0. |
|

