Материалы по тегу: схд

01.04.2025 [16:05], Руслан Авдеев

В Лондоне появится экобезопасный ЦОД AWS для ленточных накопителей

На территории технопарка Silverdale Industrial Estate на западе «Большого Лондона» в ближайшие годы появится экобезопасный и энергоэффективный дата-центр компании Amazon (AWS). Проект разрабатывается архитектурным бюро MCA Architects для инвесторов из Mulhaven Properties и представляет собой передовое решение для хранения данных, сообщает портал Blocks & Files.

Как сообщается в презентации MCA Architects, предусмотрена полная рекультивация участка площадью 0,44 га — сейчас там находится пустой складской комплекс. На его месте появятся современные здания.

В частности, речь идёт об основном здании высотой более 13 м (речь идёт о комплексе на несколько этажей). Рядом разместится офисное здание высотой около 6 м. Общая площадь застройки — около 3200 м², будут созданы раздельные въезды и выезды для грузового транспорта. Также предусмотрено внедрение современной системы безопасности и ограждений высотой 2,3–4 м.

 Источник изображения: MCA Architects

Источник изображения: MCA Architects

Новый дата-центр предназначен для размещения ленточных накопителей вместо традиционных серверов. Также ЦОД будет использовать резервный генератор на 1,08 МВт. Предусмотрено использование системы поддержания микроклимата (температура 16–25 °C, влажность 20–50 %). Водопотребление для обычного ЦОД крайне невелико — менее 150 м³ в год, такими объёмами можно буквально пренебречь при расчётах.

Особое внимание уделили минимизации воздействия на окружающую среду. Так, выбросы углекислого газа должны быть уменьшены на 15 % в сравнении с нормами правил Part L 2021 Building Regulations.

Одной из главных целей является получение сертификата BREEAM Excellent, одного из самых престижных в области экологического строительства. Дополнительно планируется сбор дождевой воды, использование засухостойких растений, вертикального озеленения фасадов и др.

Проект имеет для региона большие перспективы. Общий объём инвестиций AWS в связанные с ЦОД процессы в Великобритании в следующие пять лет составит £8 млрд, а с 2020 года компания уже вложила £3 млрд в британскую инфраструктуру. В целом с 2010 года инвестиции AWS в Великобритании превысили £56 млрд.

 Источник изображения: MCA Architects

Источник изображения: MCA Architects

Также предусмотрено создание 14 тыс. рабочих мест в цепочке поставок, поддержка местного строительного бизнеса, инженерных и телекоммуникационных компаний. Также будут применяться программы переподготовки кадров в области облачных технологий. В ближайшие пять лет вклад в экономику Великобритании должен составить £38 млрд.

Проект уже вызвал интерес экспертного сообщества. Он демонстрирует возможности интеграции высокотехнологичной инфраструктуры в промышленную застройку и одни из самых передовых экорешений в Европе. Приветствуют новые инвестиции и местные власти.

Пока проект находится на стадии согласования с местными властями, строительство может начаться уже в 2025 году, а ввод объекта в эксплуатацию — в 2027 году. Это лишь один из расширяющейся сети ЦОД AWS в Великобритании, включающей уже несколько крупных кампусов, в том числе строящийся к югу от участка комплекс.

В январе Trendfocus сообщала, что по итогам 2024 года спрос на ленточные накопители вырос на 12 %.

Постоянный URL: http://servernews.ru/1120619
01.04.2025 [14:03], Сергей Карасёв

XenData представила 1U-устройство Z20 на базе Windows 11 Pro для доступа к облачным хранилищам

Компания XenData анонсировала стоечное решение Z20 Cloud Appliance, призванное повысить удобство управления медиафайлами, хранящимися на облачных платформах. Система функционирует под управлением Windows 11 Pro, а доступ к объектам предоставляется через интуитивно понятный веб-интерфейс.

Решение XenData Z20 выполнено в форм-факторе 1U. Применён неназванный процессор Intel Xeon с четырьмя ядрами, работающий в тандеме с 16 Гбайт оперативной памяти. В оснащение входят системный SSD вместимостью 480 Гбайт и SSD на 3,84 Тбайт для локального хранилища. При необходимости могут быть установлены ещё два SSD ёмкостью 3,84 Тбайт каждый.

Стандартная конфигурация включает четыре сетевых порта 1GbE. В тыльной части корпуса располагаются три слота OCP, в которые могут устанавливаться двухпортовые адаптеры 10GbE или 10/25GbE SFP+. Предусмотрены один фронтальный и четыре тыльных порта USB 3.2, интерфейсы DisplayPort и D-Sub. Устройство заключено в корпус глубиной 387 мм, а масса составляет 9,5 кг. Базовая конфигурация включает один блок питания мощностью 500 Вт, но при необходимости может быть установлен второй такой же блок.

Система XenData Z20 поддерживает работу с публичными облачными хранилищами AWS S3, Microsoft Azure Blob Storage, Seagate Lyve и Wasabi. При этом обеспечивается управление различными уровнями объектного хранилища, доступными в AWS и Azure. Многопользовательский веб-интерфейс позволяет просматривать эскизы изображений, воспроизводить видео-превью, искать нужный контент и пр. Несмотря на то, что устройство оптимизировано для работы именно с медиаконтентом, оно поддерживает файлы любых других типов — от XML до документов Word. Приобрести решение можно по ориентировочной цене $9880. 

Постоянный URL: http://servernews.ru/1120590
29.03.2025 [10:44], Сергей Карасёв

OWC представила хранилища данных Jellyfish B24 и S24 для создателей контента

Компания Other World Computing (OWC) анонсировала стоечные СХД Jellyfish B24 и Jellyfish S24, рассчитанные прежде всего на создателей контента. Обе новинки допускают подключение модулей расширения, что позволяет наращивать вместимость по мере необходимости.

Модель Jellyfish B24 на основе HDD представляет собой упрощённую версию мощного решения Jellyfish R24, разработанную для совместной работы небольших команд. Допускается установка 24 накопителей формата LFF суммарной вместимостью до 576 Тбайт. При необходимости можно подключить до четырёх модулей расширения Jellyfish B24-E посредством интерфейса mini-SAS, получив хранилище общей ёмкостью до 2,8 Пбайт.

 Источник изображений: OWC

Источник изображений: OWC

Устройство Jellyfish B24 выполнено в форм-факторе 4U. Задействован неназванный процессор Intel Xeon Silver, работающий в тандеме с 64 Гбайт оперативной памяти DDR4 ECC. В оснащение входит кеширующий SSD на 2 Тбайт. Есть два порта 1GbE, а при необходимости могут быть добавлены сетевые интерфейсы 10GbE (RJ45/SFP+), 25GbE (QSFP), 50GbE (QSFP28) и 100GbE (QSFP28). Предусмотрены четыре порта USB 3.0 и разъём D-Sub. За питание отвечает блок мощностью 875 Вт с резервированием. Габариты СХД составляют 432 × 318 × 198 мм, масса — 15,9 кг без установленных накопителей. Поддерживаются протоколы SMB, NFS, FTP и SSH.

Вариант Jellyfish S24, в свою очередь, рассчитан на 24 SSD формата SFF. При подключении модуля расширения Jellyfish S24-E можно получить суммарную вместимость до 736 Тбайт на основе твердотельных накопителей. Добавив четыре модуля Jellyfish R24-E или B24-E, можно создать гибридное хранилище ёмкостью до 2,3 Пбайт. СХД располагает двумя портами 10GbE RJ45 и двумя блоками питания мощностью 650 Вт с возможностью горячей замены. Форм-фактор — 2U. Упомянуты протоколы SMB, NFS, FTP и SSH.

Постоянный URL: http://servernews.ru/1120492
28.03.2025 [13:24], Руслан Авдеев

5 Экзабайт для ИИ: OpenAI может построить специальный дата-центр для хранения за миллиарды долларов

Компания OpenAI может построить дата-центр для хранения данных стоимостью миллиарды долларов, желая снизить зависимость от облачных провайдеров. Разработчик ChatGPT намерен закупить комплектующие и ПО для хранения 5 Эбайт, сообщает The Information.

Для размещения необходимой инфраструктуры рассматривается строительство нового дата-центра, доложили журналистам анонимные источники. Впрочем, план также может быть частью стратегии по давлению на Microsoft и других облачных провайдеров для заключения с ними сделок на более выгодных условиях. Не так давно Microsoft, имеющая договорные обязательства с OpenAI, разрешила той пользоваться сторонними облаками.

Руководство OpenAI, по слухам, заявило сотрудникам, что компания намерена увеличить объём доступных вычислительных ресурсов для разработчиков до конца года — без учёта ускорителей и сопутствующие инфраструктуры для работы ChatGPT и других продуктов. Также компания надеется утроить общую ёмкость ЦОД, доведя её до 2 ГВт. Сюда входят облачные серверы, которые она арендует у Microsoft.

 Источник изображения: Mariia Shalabaieva/unsplash.com

Источник изображения: Mariia Shalabaieva/unsplash.com

Разработка новых ИИ-моделей требует больших СХД. Если новый ЦОД будет построен, он, вероятно, будет напрямую связан с ИИ-мегапроектом Stargate, совместной инициативой OpenAI, SoftBank и Oracle, а также арабского инвестора MGX — предполагается потратить на инфраструктуру до $500 млрд. ЦОД для хранения данных стремятся строить на территории кампусов с прочей цифровой инфраструктурой, а не выделять отдельные площадки.

OpenAI рассматривает возможность размещения хранилища возле объекта первой фазы проекта Stargate, который уже строится в Техасе. Как именно компания намеревается финансировать эти покупки и дополнительное строительство, пока неизвестно. В прошлом году она привлекла $6,6 млрд и теперь ожидает раунд финансирования на $40 млрд, который обеспечит ей капитализацию в $340 млрд.

Microsoft была единственным облачным провайдером OpenAI с тех пор, как начала инвестировать в компанию в 2023 году, но требования к вычислительным мощностям растут так быстро, что теперь OpenAI пришлось дополнительно вести дела с Oracle и CoreWeave для обеспечения работы Stargate.

Постоянный URL: http://servernews.ru/1120456
27.03.2025 [09:11], Алексей Степин

Seagate представила свежие прототипы NVMe HDD

Seagate представила своё видение СХД для ИИ-фабрик. Компания отмечает, что объёмы данных, используемых при обучении современных моделей, огромны и, согласно Seagate, хранить их целиком на флеш-массивах невыгодно для большинства предприятий и стартапов. Ответом являются гибридные массивы, сочетающие флеш-память и традиционную дисковую механику. Идея таких СХД не нова сама по себе, но реализация, предлагаемая Seagate, лишена атавизмов — проприетарных контроллеров, преобразования протоколов и всего прочего, на чём держится традиционная инфраструктура SAS/SATA.

Основой новой архитектуры станет стандарт NVMe с единым драйвером, который вкупе со средствами ОС позволит слаженно работать SSD и HDD. Это важное отличие от уже имеющихся решений, например, от StorONE, где HDD действительно могут быть использованы в составе хранилища NVM-oF, но подключаются они всё равно по SAS/SATA. На уровне отдельных механических дисков сам по себе переход на NVMe выигрыша не принесёт, поскольку ограничивающим фактором останется время поиска дорожки, но на уровне массива с поддержкой GPUDirect и NVMe-oF выигрыш будет существенным. NVMe-oF упростит масштабирование таких систем и позволит реализовать распределённую архитектуру хранения данных в полной мере, отмечает Blocks & Files.

 Источник изображений: Seagate

Источник изображений: Seagate

Гибридные массивы в этой схеме напрямую подключаются к GPU-серверам. За счёт агрегации доступа ко множеству накопителей скорость может быть существенно увеличена (о чём говорила когда-то и Toshiba), а простота подключения будет достигнута за счёт единого стандарта — NVMe. В новых массивах предусмотрено место для DPU, благодаря которым и будет реализована поддержка RDMA и GPUDirect. На конференции NVIDIA GTC 2025 Seagate уже продемонстрировала прототип такого массива на базе BlueField-3 и MiniIO AIStore v2.0.

Данный прототип был оснащён восемью инженерными образцами NVMe HDD и четырьмя NVMe SSD. Даже будучи на уровне концепта, он показал, что прямое сообщение между ускорителями и подсистемой хранения данных позволяет снизить латентность доступа в ИИ-сценариях. Также благотворное влияние на производительность при обучении ИИ-моделей оказывает применение средств динамического кеширования и иерархизации (tiering).

Seagate считает, что у традиционных жёстких дисков с интерфейсом NVMe есть большое будущее, и они найдут своё место во многих отраслях, от медицины и финансовой аналитики до самоуправляемого транспорта и ИИ-фабрик гиперскейлеров. В сравнении с SSD называются следующие преимущества:

  • Десятикратно меньший выброс углерода в пересчёте на терабайт;
  • Вчетверо меньшее удельное энергопотребление, снижающее стоимость затрат ЦОД на питание;
  • Меньшая удельная стоимость на терабайт, снижающая совокупную стоимость владения (TCO).

В планах компании значится создание NVMe HDD на базе HAMR объёмом до 36 Тбайт и более на платформе Mozaic, а также разработка референсных архитектур и дальнейшее продвижение технологии NVMe-oF. Надо сказать, что опыт создания жёстких дисков с этим интерфейсом у Seagate есть — ещё в ноябре 2021 году компания продемонстрировала дисковую полку с 12 LFF HDD, доступ к которой осуществлялся с помощью PCIe 3.0. За основу была взята модель Exos объёмом 18 Тбайт.

Toshiba и Western Digital на тот момент инициативу Seagate не поддержали, и на данный момент ситуация пока остаётся прежней — два других крупных производителя HDD хранят молчание о планах по внедрению NVMe в механические накопители. Если конкуренты всё-таки предложат свою альтернативу, потенциальные заказчики смогут избежать привязки к вендору, да и на популяризации самой технологии NVMe-массивов это скажется благотворно. Тем более что поддержка HDD уже давно прописана в стандарте NVMe 2.0.

Постоянный URL: http://servernews.ru/1120353
25.03.2025 [17:08], Сергей Карасёв

Керамические накопители Cerabyte заинтересовали In-Q-Tel, инвестирующую в перспективные технологии в интересах ЦРУ и др.

Немецкая компания Cerabyte, специализирующаяся на разработке систем хранения данных на основе керамики, объявила о привлечении инвестиций со стороны компании In-Q-Tel (IQT), косвенно связанной с американскими спецслужбами. Полученные средства пойдут на ускорение создания продуктов, которые будут поставляться государственным заказчикам. Объём вложений со стороны IQT не раскрывается.

Технология Cerabyte предполагает применение стекла или плёнки с тонким керамическим покрытием. Информация записывается при помощи лазера в виде наноразмерных «ямок» по аналогии с QR-кодами: заявленная скорость достигает 2 млн бит на лазерный импульс. Считывание также осуществляется посредством лазера.

Одним из ключевых преимуществ технологии Cerabyte является долговечность: данные на таких накопителях могут храниться практически неограниченное количество времени, заявляет компания. Кроме того, обеспечивается высокая ёмкость: по заявлениям разработчика, технология до 2030 года позволит добиться вместимости до 100 Пбайт на стойку при использовании картриджей CeraMemory.

 Источник изображения: Cerabyte

Источник изображения: Cerabyte

In-Q-Tel — американская некоммерческая венчурная фирма, базирующаяся в Арлингтоне (Вирджиния). Она инвестирует в перспективные компании с тем, чтобы обеспечить ЦРУ и другие структуры США передовыми технологическими разработками. Ожидается, что американский государственный сектор будет оперировать огромными объемами данных, сопоставимыми с теми, которыми управляют ведущие интернет-корпорации, включая Meta и Amazon. Причём основная часть такой информации у госструктур будет находиться в «холодном» хранилище в течение длительных периодов времени. Таким образом, технология Cerabyte обеспечит эффективное решение как с точки зрения долговечности, так и с точки зрения вместимости.

Нужно отметить, что ранее Cerabyte привлекла инвестиции от компании Pure Storage, которая занимается разработкой All-Flash СХД. Кроме того, Cerabyte получила финансовую поддержку в рамках программы-акселератора Европейского совета по инновациям (EIC).

Постоянный URL: http://servernews.ru/1120269
24.03.2025 [09:03], Владимир Мироненко

От СХД напрямую к ИИ: NVIDIA анонсировала эталонную платформу AI Data Platform для быстрого извлечения данных во время инференса

NVIDIA анонсировала NVIDIA AI Data Platform — настраиваемую эталонную архитектуру, которую ведущие поставщики смогут использовать для создания нового класса ИИ-инфраструктуры для требовательных рабочих нагрузок ИИ-инференса: корпоративных платформ хранения со специализированными ИИ-агентами, использующих ускорители, сетевые решения и ПО NVIDIA.

Эти агенты помогут генерировать ответы из имеющихся данных практически в реальном времени, используя ПО NVIDIA AI Enterprise — включая микросервисы NVIDIA NIM для новых моделей NVIDIA Llama Nemotron, а также NVIDIA AI-Q Blueprint. Провайдеры хранилищ смогут оптимизировать свою инфраструктуру для обеспечения работы этих агентов с помощью ускорителей NVIDIA Blackwell, DPU BlueField, сетей Spectrum-X и библиотеки инференса с открытым исходным кодом NVIDIA Dynamo.

Ведущие провайдеры платформ данных и хранилищ, включая DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data и WEKA, сотрудничают с NVIDIA для создания настраиваемых ИИ-платформ данных, которые могут использовать корпоративные данные для рассуждений и ответов на сложные запросы.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

NVIDIA Blackwell, DPU BlueField и сетевое оборудование Spectrum-X предоставляют механизм для ускорения доступа ИИ-агентов запроса к данным, хранящимся в корпоративных системах. DPU BlueField обеспечивают производительность до 1,6 раз выше, чем хранилища на базе ЦП, при этом снижая энергопотребление до 50 %, а Spectrum-X ускоряет доступ к хранилищам до 48 % по сравнению с традиционным Ethernet, применяя адаптивную маршрутизацию и контроль перегрузки, говорит NVIDIA.

ИИ-агенты, созданные с помощью AI-Q Blueprint, подключаются к данным во время инференса, чтобы предоставлять более точные, контекстно-зависимые ответы. Они могут быстро получать доступ к большим объёмам информации и обрабатывать различные типы данных, включая структурированные, полуструктурированные и неструктурированные данные из нескольких источников, в том числе текст, PDF, изображения и видео.

Сертифицированные партнёры NVIDIA в области СХД уже сотрудничают с NVIDIA в деле создания новых ИИ-платформ:

  • DDN внедряет возможности AI Data Platform в свою платформу ИИ DDN Infinia.
  • Dell создаёт вариант AI Data Platform для своего семейства решений Dell PowerScale и Project Lightning.
  • HPE внедряет возможности AI Data Platform в HPE Private Cloud для ИИ, HPE Data Fabric, HPE Alletra Storage MP и HPE GreenLake для хранения файлов.
  • Hitachi Vantara интегрирует AI Data Platform в экосистему Hitachi IQ, помогая клиентам внедрять инновации с помощью систем хранения и предложений данных, которые обеспечивают ощутимые результаты работы ИИ.
  • IBM интегрирует AI Data Platform как часть своих возможностей хранения с учётом содержимого с технологиями IBM Fusion и IBM Storage Scale для ускорения приложений генеративного ИИ с расширенным извлечением данных.
  • NetApp совершенствует хранилище для агентского ИИ с помощью решения NetApp AIPod, созданного на базе AI Data Platform.
  • Nutanix Cloud Platform с Nutanix Unified Storage будет интегрированы с NVIDIA AI Data Platform, что позволит выполнять инференс и агентские рабочие процессы, развёрнутые на периферии, в ЦОД и публичном облаке.
  • Pure Storage предоставит возможности AI Data Platform с Pure Storage FlashBlade.
  • VAST Data работает с AI Data Platform для сбора аналитических данных в реальном времени с помощью VAST InsightEngine.
Постоянный URL: http://servernews.ru/1120186
20.03.2025 [15:58], Сергей Карасёв

Supermicro анонсировала петабайтное 1U-хранилище All-Flash на базе Arm-суперчипа NVIDIA Grace

Компания Supermicro представила сервер ARS-121L-NE316R в форм-факторе 1U, на базе которого могут формироваться системы хранения данных петабайтной вместимости. В основу новинки положен суперчип NVIDIA Grace со 144 ядрами Arm Neoverse V2 и 960 Гбайт памяти LPDDR5x.

Устройство оборудовано 16 фронтальными отсеками для NVMe-накопителей E3.S 1T. При использовании SSD ёмкостью 61,44 Тбайт суммарная вместимость может достигать 983 Тбайт. При этом до 40 серверов могут быть установлены в одну стойку, что обеспечит 39,3 Пбайт «сырой» ёмкости.

Новинка располагает двумя внутренними посадочными местами для M.2 NVMe SSD и двумя слотами PCIe 5.0 x16 для карт типоразмера FHHL. Присутствуют сетевой порт управления 1GbE (RJ45), порт USB 3.0 Type-A и разъём mini-DP. Габариты сервера составляют 772,15 × 438,4 × 43,6 мм, масса — 19,8 кг без установленных накопителей.

 Источник изображения: Supermicro

Источник изображения: Supermicro

Питание обеспечивают два блока мощностью 1600 Вт с сертификатом 80 Plus Titanium. Применена система воздушного охлаждения с восемью съёмными вентиляторами диаметром 40 мм. Диапазон рабочих температур — от +10 до +35 °C.

При необходимости сервер может быть оснащён двумя DPU NVIDIA BlueField-3 или двумя адаптерами ConnectX-8. Система подходит для поддержания рабочих нагрузок с интенсивным обменом данными, таких как ИИ-инференс, аналитика и пр. Отмечается, что при создании новинки Supermicro тесно сотрудничала с NVIDIA и WEKA (разработчик платформ хранения данных).

Постоянный URL: http://servernews.ru/1120028
17.03.2025 [11:09], Сергей Карасёв

Toshiba открыла в Германии лабораторию инноваций в области HDD

Корпорация Toshiba Electronics Europe GmbH объявила о создании лаборатории инноваций в области жёстких дисков в Дюссельдорфе (Германия). Специалисты HDD Innovation Lab займутся оценкой конфигураций систем на базе HDD для крупных IT-развёртываний, таких как сети хранения данных (SAN), масштабные сетевые хранилища (NAS), платформы видеонаблюдения и облачные сервисы.

Как отмечает Райнер Каезе (Rainer Kaese), старший менеджер по развитию HDD-направления Toshiba, SSD обеспечивают существенные преимущества перед HDD в плане скоростных показателей. Однако при хранении огромных массивов данных, например, для приложений ИИ, формирование систем большой ёмкости на основе SSD оказывается нецелесообразным с финансовой точки зрения: стоимость изделий на базе флеш-памяти примерно в семь раз выше по сравнению с HDD при сопоставимой вместимости.

 Источник изображения: Toshiba

Источник изображения: Toshiba

Кроме того, по словам Каезе, корпорация Toshiba продемонстрировали, что 60 жёстких дисков в программно-определяемом хранилище ZFS могут заполнить всю пропускную способность сети 100GbE. Таким образом, для определённых типов задач применение HDD оказывается более выгодным, нежели использование дорогостоящих, но скоростных SSD.

Лаборатория HDD Innovation Lab сфокусируется на оценках конфигураций RAID и масштабируемых СХД для корпоративных клиентов, дата-центров и облачных провайдеров. Ключевой особенностью площадки является возможность осуществлять тестирование для различных архитектур. Лаборатория объединяет все основные компоненты СХД на базе жёстких дисков, такие как различные серверы, массивы JBOD, шасси, контроллеры, кабели и сопутствующее ПО. В частности, задействованы одноузловые серверы, поддерживающие до 78 HDD суммарной вместимостью до 2 Пбайт при установке современных накопителей большой ёмкости. Площадка оснащена точным оборудованием для анализа энергопотребления.

Лаборатория займётся выполнением оценочных работ для клиентов и партнёров в Европе и на Ближнем Востоке. Результаты тестирования в виде технических документов и отчётов будут доступны на сайте Toshiba Storage.

Постоянный URL: http://servernews.ru/1119827
12.03.2025 [14:45], Сергей Карасёв

10+ Тбайт/с: Pure Storage представила высокопроизводительную All-Flash СХД FlashBlade//EXA для ИИ и НРС

Компания Pure Storage анонсировала систему FlashBlade//EXA: это, как утверждается, самая производительная на сегодняшний день платформа хранения данных, разработанная специально для наиболее требовательных нагрузок ИИ и HPC.

Отмечается, что стандартные СХД оптимизированы для традиционных сред HPC с предсказуемыми операциями. Такие системы разрабатываются с прицелом на масштабирование «чистой производительности». Однако современные нагрузки ИИ являются гораздо более сложными и многомодальными: они предусматривают обработку данных разного типа — текстов, изображений и видео — одновременно на десятках тысяч ускорителей. Из-за этого возникает необходимость в оптимизации обработки метаданных наряду с масштабированием производительности.

FlashBlade//EXA, по заявлениям Pure Storage, устраняет узкие места традиционных СХД в плане работы с метаданными. Архитектура новой платформы даёт возможность масштабировать ресурсы для обработки обычных данных и метаданных независимо друг от друга. Эффективная обработка метаданных имеет решающее значение для поддержания высокой производительности, надёжности и эффективности в крупномасштабных средах ИИ.

 Источник изображений: Pure Storage

Источник изображений: Pure Storage

Сегмент метаданных Metadata Core в составе FlashBlade//EXA может объединять от 1 до 10 5U-шасси с десятью blade-узлами в каждом. В каждом узле размещается от одного до четырёх фирменных 37.5-Тбайт модуля DFM. Ещё 2U приходится на пару XFM (External Fabric Modules), которые дают 16 подключений 400GbE. Metadata Core работает с фирменной ОС Purity//FB, общается напрямую с GPU-кластером (NFSv4.1 over TCP) и управляет потоками данных между узлами хранения и кластером (NFSv3 over RDMA).

Узлы хранения Data Node обладают неограниченной масштабируемостью. Причём эти узлы могут быть самыми обычными x86-серверами любых вендоров. Каждый такой узел должен содержать 32-ядерный CPU, 192 Гбайт RAM, от 12 до 16 NVMe SSD (PCIe 4.0/5.0) вместимостью до 61,44 Тбайт, а также пару 400GbE NIC. Архитектура платформы предусматривает использование сетевых адаптеров NVIDIA ConnectX, коммутаторов Spectrum, компонентов LinkX и пр.

Система FlashBlade//EXA обеспечивает производительность свыше 10 Тбайт/с на операциях чтения в одном пространстве имён. В результате, организации могут значительно ускорить процессы обучения ИИ-моделей и инференса, максимально используя потенциал GPU-ускорителей. Это также способствует снижению временных и финансовых затрат на решение ресурсоёмких задач. По-видимому, именно это решение компания и предлагает гиперскейлерам. У самой Pure Storage есть тестовая конфигурация из 300 узлов, которая показывает производительность на уровне 30 Тбайт/с.

Постоянный URL: http://servernews.ru/1119581

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus