WekaIO внедрила поддержку NVIDIA GPUDirect Storage для ускорения ИИ-задач

 

WekaIO разработала готовое решение, помогающее ускорить передачу данных в хранилище в рабочих нагрузках ИИ. Основная особенность нового решения — поддержка NVIDIA GPUDirect Storage хранилищем на базе NVMe-накопителей. WekaIO заявляет, что ее решение может обеспечить пропускную способность в десятки раз больше, чем стандартные решения:

Инфраструктура Weka AI включает в себя настраиваемые эталонные архитектуры и комплекты для разработки программного обеспечения, основанные на GPU NVIDIA, сетевом оборудовании Mellanox (NVIDIA Networks), серверах Supermicro (можно использовать оборудование любых вендоров) и программном обеспечении Weka Matrix.

Weka AI использует технологию GPUDirect Storage, что обеспечивает прямую связь между хранилищем и ускорителями, устраняя узкие места ввода-вывода для приложений ИИ, интенсивно использующих данные. Обеспечивается не только большая пропускная способность, но и низкая задержка ввода-вывода.

На данный момент заявлена поддержка протоколов POSIX, NFS, SMB и S3. Поддерживаются объектные хранилища данных Amazon S3, Cloudian, IBM COS, Quantum (ActiveScale), Scality и SwiftStack S3. Референсная архитектура решения уже доступна для пользователей.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER. | Можете написать лучше? Мы всегда рады новым авторам.

Источник:

Постоянный URL: https://servernews.ru/1018163
Поделиться:  

Комментарии

Система Orphus