Материалы по тегу: gpu

30.06.2020 [23:59], Алексей Степин

Новый GPU-сервер ASUS ESC4000A-E10 поддерживает ускорители NVIDIA A100

Гетерогенные вычисления применяются в современном мире очень активно несмотря на то, что программировать такие системы достаточно сложно. Не столь давно NVIDIA представила новую архитектуру Ampere и ускорители A100 на её основе.

Компания ASUS одной из первых освоила новинку и уже предлагает новый сервер высокопроизводительных вычислений ESC4000A-E10, изначально рассчитанный на использование именно NVIDIA A100. Эта HPC-система подходит для широкого круга задач, от виртуализации до комплексов машинного интеллекта.

Сервер ESC4000A-E10 выполнен в стоечном корпусе высотой 2U, центральную часть занимает узкая системная плата с одним процессорным разъёмом AMD SP3, окружённым восемью слотами DDR4 DIMM (до 2 Тбайт на систему). Ускорители в форм-факторе PCI Express устанавливаются с обеих сторон платы с помощью райзеров. Их количество может быть различным: в случае с полноразмерными A100 поддерживается установка четырёх плат, но однослотовых плат расширения можно установить целых восемь.

Для наиболее полного раскрытия потенциала новой системы ASUS взяла за основу для ESC4000A-E10 процессоры AMD EPYC второго поколения, благо в этой серии имеются и модели с 64 ядрами, например, EPYC 7702P, 7742 или 7H12. Поддерживаются все теплопакеты до 280 Ватт включительно. Столь мощный процессор и набор ускорителей A100 вкупе могут выделять около 1300 Ватт тепла (280+250×4), что требует мощной системы охлаждения. За продувку ESC4000A-E10 отвечает семь высокопроизводительных вентиляторов, все они установлены в специальных корзинах и могут заменяться «на горячую», что упрощает обслуживание системы и снижает время её простоя.

Также в ESC4000A-E10 предусмотрены отдельные слоты PCIe x8, они служат для установки контроллера RAID или высокоскоростного сетевого адаптера в форм-факторе OCP 3.0. Изначально сетевые возможности ESC4000A-E10 достаточно скромны и представлены двумя портами Gigabit Ethernet и выделенным портом Ethernet для удалённого управления. За последнее отвечает популярный базовый контроллер Aspeed AST2500, имеющий также отдельный VGA-выход для локальной настройки сервера. За счёт фирменного модуля KVM-over-IP ASMB9-iKVM и программного обеспечения ASUS Control Center сервер очень удобен в настройке и эксплуатации.

В общей сложности ESC4000A-E10 располагает 11 слотами PCI Express 4.0, что делает его весьма гибким в конфигурировании и позволяет использовать наиболее скоростные на сегодняшний момент платы расширения, будь то вычислительные ускорители или сетевые адаптеры класса 200 или 400G без ущерба для производительности. В передней части сервера имеется восемь стандартных дисковых корзин «горячей замены», совместимых с накопителями формата 2,5″/3,5″, причём четыре из восьми мест могут занимать накопители с интерфейсом NVMe. За питание отвечает пара блоков «горячей замены» мощностью 1600 Ватт каждый. Они имеют сертификацию 80 Plus Platinum.

Почему тем, кто ищет новый вычислительный сервер, стоит обратить внимание именно на ASUS ESC4000A-E10? Во-первых, повторимся, из-за его универсальности, ведь он поддерживает не только ускорители A100, но может комплектоваться и платами Tesla T4 или графическими картами Quadro, причём конфигурация может быть и смешанной, в зависимости от задач, которые ставит заказчик. Имеется сертификация NGC-Ready, подтверждающая полноценную возможность запуска NGC-контейнеров на уровне «чистого железа» (bare metal).

Во-вторых, серверы ASUS славятся своей повышенной энергоэффективностью, и это подтверждено их рейтингом в тестах SPECpower. За счёт технологии Thermal Radar 2.0 управление системами охлаждения сервера выполняется более гибко, вентиляторы всегда работают на минимально достаточной скорости. Это может давать 36% экономию энергии, затрачиваемой на охлаждение в сравнении с менее интеллектуальными решениями.

Технология ASUS Power Balancer следит за энергопотреблением процессоров и управляет им в реальном времени, а для того, чтобы справляться с пиковыми нагрузками, ASUS внедрила технологию Performance Boost. Последняя использует несколько подходов одновременно, от автоматического удержания режима турбо на всех ядрах до тонкого тюнинга, позволяющего безопасно выйти за пределы формальных значений TDP. Иными словами, платформа полностью соответствует девизу компании «В поисках невероятного» — в ней реализованы все средства достижения максимальной производительности при минимально возможных энергозатратах. 

Среди упомянутых в анонсе задач, для которых подходит ESC4000A-E10, упомянута виртуализация — и вовсе не зря. Процессоры NVIDIA A100 интересны тем, что могут работать как в обычном режиме, так и разделяться на несколько (до семи) полностью изолированных и функционирующих независимо друг от друга блоков. Это даёт 28 разделов на полностью укомплектованную систему с четырьмя A100, а значит, она может полноценно обслужить столько же рабочих мест с графическим окружением и поддержкой 3D-ускорения.

Сам процессор A100 изначально создавался NVIDIA с прицелом на мир HPC. Архитектура Ampere вышла удачной настолько, что разработчики говорят о 40-кратном превосходстве над V100 в задачах обучения нейросетей. Поддерживаются все форматы вычислений, от INT4 до традиционного FP64, в последнем случае производительность достигает почти 10 Тфлопс, но при этом A100 благодаря использованию 7-нм техпроцесса имеет теплопакет всего 250 ватт против 400 у предшественника.

Производительность комплексов на базе A100 выше в версии с NVLink за счёт более эффективной системы межсоединений, но такие системы не обладают универсальностью ASUS ESC4000A-E10, в который можно устанавливать любые PCIe-совместимые ускорители. Потери невелики, сама NVIDIA указывает на 90% эффективности от NVLink-варианта A100 в формате SXM4. Потеря не слишком большая и легко окупающаяся за счет универсальности платформы ESC4000A-E10.

Компания ASUS присутствует на рынке серверного оборудования давно и её решения успели завоевать ряд наград, как качественные, надёжные и при этом экономичные системы. Все эти преимущества унаследовал и созданный в рамках партнёрской программы NVIDIA сервер ASUS ESC4000A-E10, став системой компактной, экономичной и универсальной, но вместе с тем, весьма производительной и полностью отвечающей современной концепции высокопроизводительных вычислений.

Новые системы ASUS ESC4000A-E10 уже доступны для приобретения по всему миру, в том числе, и на территории Российской Федерации. Более подробную информацию, в том числе, о стоимости новинки, можно получить в региональном представительстве ASUS.

Постоянный URL: http://servernews.ru/1014591
02.06.2020 [15:35], Юрий Поздеев

Dell EMC представляет GPU-as-a-Service для ускорения ИИ

Dell EMC анонсировала новое решение для ускорения рабочих нагрузок с использованием искусственного интеллекта (AI), которое базируется на VMware Cloud с поддержкой новых функций, таких как Bitfusion.

AI – перспективная технология, которая значительно меняет ИТ, однако есть несколько препятствий для ее эффективной реализации: отсутствие необходимых компетенций у персонала (это без проблем устраняется обучением) и отсутствие необходимой инфраструктуры (либо ее неполное соответствие всем потребностям).

Dell стремится обеспечить поддержку всей необходимой инфраструктуры с помощью своего решения Dell EMC Ready. Использование VMware позволяет ускорить внедрение ИИ и сделать его масштабирование более простым для конечного пользователя. Для внедрения систем искусственного интеллекта Dell предлагает GPU-as-a-Service (GPU как услуга). Это стало возможным, благодаря использованию VMware vSphere 7 с технологией Bitfusion.

Bitfusion позволяет пользователям виртуализировать графические ускорители и использовать их в любых виртуальных серверах, гибко выделяя ресурсы. Один ускоритель может быть поделен на несколько частей, либо несколько ускорителей можно объединить в общий пул. Сертифицированный дизайн Dell EMC для AI: GPUaaS и решение Dell EMC Ready уже доступны. Однако предустановленная VMware с Bitfusion будет доступна в составе систем с серверами PowerEdge только в июле 2020 года.

Постоянный URL: http://servernews.ru/1012456
01.05.2020 [20:17], Юрий Поздеев

AIC представила новые модели GPU-серверов для ИИ и HPC

AIC разработала новые 2U- и 4U-серверы с возможностью размещения большого количества карт расширения PCIe x16: до 10 двухслотовых или 20 однослотовых у старших моделей. Новинки идеально подойдут для высокопроизводительных вычислений (HPC) и для глубокого обучения, ИИ, аналитики и других задач, требующих больших вычислительных мощностей, реализуемых при помощи графических ускорителей (GPU).

Основными потребителями новых моделей серверов будут ЦОДы, предоставляющие облачные услуги, а также крупные компании, которым необходимы значительные вычислительные ресурсы.

В данный момент особенно актуальна видеоаналитика с системами распознавания лиц и объектов, а также прогнозная аналитика, построенная на моделях больших данных с использованием искусственного интеллекта (ИИ). 

Модель SB203-LX в шасси высотой 2U поддерживает установку двух процессоров Intel Xeon Scalable (TDP до 205 Вт) в сопровождении 24 модулей памяти DDR4-2933. Подсистема хранения представлена дисковой корзиной на восемь 3,5” накопителей с возможностью горячей замены, а также парой внутренних дисков 2,5” и M.2 SATA. Сервер может принять на борт два двухслотовых или четыре однослотовых ускорителя, каждый с интерфейсом PCIe 3.0 x16. За питание отвечают два (1+1) блока питания мощностью 800 или 1200 Вт каждый.

Модель CB201-Z1 тоже выполнена в шасси высотой 2U, она поддерживает установку двух процессоров Intel Xeon Scalable, но уже с TPD до 165 Вт. Количество слотов для модулей памяти DDR4-2933 равно 16. Подсистема хранения представлена шестью накопителями 2,5” и одним M.2 SATA. Сервер позволяет установить четыре двухслотовых или восемь однослотовых ускорителя с интерфейсом PCIe 3.0 x16. За питание отвечают два (1+1)1600-Вт БП.

Модель CB401-LX представляет собой более крупное шасси 4U с двумя Intel Xeon Scalable (TPD до 165 Вт) и 24 слотами памяти DDR4-2933. Дисковая подсистема ограничена шестью накопителями 2,5” и двумя M.2 SATA. Возможности по установке ускорителей действительно впечатляют: 10 двухслотовых или 20 однослотовых, каждый с интерфейсом PCIe 3.0 x16. Питание для такой системы требуется серьезное — четыре (2+2) блока питания по 2000 Вт.

Модель CB401-AG является аналогом CB401-LX, но на базе всего одного CPU AMD EPYC серии 7002/70001 в сопровождении 8 слотов памяти DDR4-3200. Она имеет полностью идентичную дисковую подсистему и блоки питания.

Все серверы имеют систему удаленного управление с выделенным портом, обладающую следующими функциями:

  • Поддержка IPMI 2.0
  • iKVM, IPMI over LAN, Serial over LAN
  • Поддержка HTML5
  • Поддержка Redfish
  • Поддержка SMASH
Постоянный URL: http://servernews.ru/1009853
27.04.2020 [22:33], Владимир Мироненко

Поставщики решений для тестирования чипов оказались в выигрыше от бума на GPU для HPC

Компании NVIDIA и AMD наращивают усилия на фоне пандемии коронавируса по продвижению решений на базе чипов для высокопроизводительных вычислений (HPC), сообщил ресурс DigiTimes. Он также отметил, что компания HiSilicon Technologies тоже внедряется на рынок GPU и в другие сегменты HPC с целью расширения возможностей для работы.

Эта тенденция стала драйвером роста доходов тайваньских поставщиков интерфейсов тестирования интегральных схем, включая Chunghwa Precision Test Tech (CHPT), WinWay Technology, MPI и Keystone Microtech.

Спрос на высокопроизводительные чипы для центров обработки данных, серверов, ускорителей искусственного интеллекта и телекоммуникационного оборудования остался в этом году высоким, несмотря на пандемию коронавируса, что привело к значительному росту заказов на разнообразные интерфейсы тестирования от производителей микросхем, изготовителей полупроводниковых пластин и систем, сообщили источники DigiTimes.

В частности, у CHPT поставки VPC (вертикальных зондовых плат) для тестирования HPC-чипов крупным клиентам по всему миру выросли до 20 % от общего объёма VPC, хотя большая часть дохода по-прежнему поступает от поставок решений для тестирования микросхем мобильных аппаратов.

Среди клиентов WinWay — чипмейкеры AMD, NVIDIA и HiSilicon, есть также другие заказчики в США, на Тайване и в Китае. В прошлом году её выручка выросла на 68,22 %, достигнув рекордного уровня в 2,836 млрд новых тайваньских долларов ($93,38 млн) благодаря росту поставок коаксиальных разъёмов.

Также выросла в прошлом году выручка MPI (2,39 %) и Keystone Microtech (27,2 %), причём у последней в этом году ожидается рост дохода ещё на 20 %.

Постоянный URL: http://servernews.ru/1009567
11.03.2020 [18:27], Андрей Галадей

TornadoVM: ускорение Java и Node.js на GPU и FPGA

На QCon London доктор Хуан Фумеро (Juan Fumero) из Университета Манчестера представил демонстрацию реальной работы TornadoVM, ВМ для гетерогенных систем. Это плагин к OpenJDK и GraalVM, позволяющий запускать Java-приложения на GPU и FPGA. Демонстрация показала, что такой подход позволяет в сотни раз ускорять работу приложений.

Отметим, что TornadoVM позволяет запускать приложения, написанные на Java и Node.js, за счёт распараллеливания и выполнения расчётов на разных типах оборудования.

Фумеро показал это на примере макбука, где код выполнялся на CPU, интегрированном GPU и графическом процессоре NVIDIA. Также поддерживаются решения AMD и Intel FPGA. А вот Tensor Processing Units (TPU) пока не поддерживаются, но по словам разработчика, здесь всё упирается в поддержку OpenCL. Создать же дополнительный бэкэнд к TornadoVM — не проблема.

Пока что разработчики не готовы к коммерческому внедрению TornadoVM, хотя система уже используется для ускорения машинного обучения. Эти решения используются для работы с данными о здравоохранении. При этом из-за ограничений в базовой модели программирования, TornadoVM не поддерживает объекты (за исключением тривиальных случаев), рекурсию, динамическое выделение памяти или исключения.

Слайды с демонстрации и исходный код уже доступны для изучения.  

Постоянный URL: http://servernews.ru/1005698
14.11.2019 [08:00], Андрей Созинов

Intel Ponte Vecchio: первый дискретный графический процессор на архитектуре Intel Xe

Компания Intel поделилась с прессой информацией о своих будущих 7-нм графических процессорах на архитектуре Intel Xe с кодовым названием Ponte Vecchio. Ресурс VideoCardz по своему обыкновению поделился этой информацией с широкой общественностью.

Ponte Vecchio или по-русски Понте-Веккьо — старинный и весьма известный мост во Флоренции. Такое кодовое название явно указывает на то, что для этих графических процессоров предполагается работа не поодиночке, а в связках, например, с использованием интерконнекта CXL (Compute Express Link).

Использование интерконнекта говорит о том, что Intel Ponte Vecchio будут использоваться не в игровых видеокартах. Первые графические процессоры с архитектурой Xe лягут в основу ускорителей вычислений для суперкомпьютеров экзафлопсного уровня.

Сообщается, что 17 ноября Intel раскроет подробности о своём новом проекте Aurora (англ. — Аврора) — экзафлопсной суперкомпьютерной платформе на центральных процессорах Xeon Sapphire Rapids, графических процессорах Ponte Vecchio и с новыми средствами разработки OneAPI. Если точнее, то кластер Aurora будет включать:

  • Два процессора Intel Xeon Scalable на микроархитектуре нового поколения Sapphire Rapids
  • Шесть графических процессоров Intel Xe Ponte Vecchio
  • Среду OneAPI

По данным источника, в новых материалах для прессы Intel заявляет, что при создании графических процессоров Ponte Vecchio будет использоваться многокристальная 3D-компоновка Foveros и интерконнект CXL. Сообщается, что графические процессоры Intel Xe будут обладать очень большим объёмом кеша и высокой пропускной способностью памяти. Ещё отмечается, что чипы Ponte Vecchio будут обладать высокой производительностью в вычислениях двойной точности (FP64).

Также в свежих материалах Intel перечисляет все направления, в которых будет представлена графическая архитектура Intel Xe. Это высокопроизводительные вычисления и суперкомпьютеры экзафлопсного уровня, глубокое обучение и ИИ, облачные системы, рабочие станции, игровые компьютеры, а также мобильные и ультрамобильные ПК. То есть, Intel планирует использовать свою новую графику везде.

Постоянный URL: http://servernews.ru/997616
15.10.2019 [19:19], Алексей Степин

AMD представила видеокарты Embedded Radeon E9560 и E9390 для встраиваемых систем

Несмотря на то, что графическому подразделению AMD пока не удаётся выпустить флагманский чип, способный на равных сразиться с аналогичным решением NVIDIA, решения «красных» достаточно популярны и компания активно наращивает своё присутствие не только в секторе игровых решений.

Буквально на днях компания анонсировала два новых графических адаптера в серии Embedded Radeon ‒ E9560 и E9390.  Эти решения предназначены для различных встраиваемых систем, таких как цифровые киоски, рекламные экраны и всевозможные игровые автоматы.

AMD Embedded Radeon E9560 имеет теплопакет 130 ватт и 36 блоков (2304 SP, аналог RX 480), в то время как менее мощный Embedded Radeon E9390 c 28 вычислительными блоками (1792 SP, нет аналога) удалось ограничить значением 75 ватт. В сравнении с предыдущими решениями Embedded Radeon новинки быстрее примерно на 11 % в тестах 3DMark 11

Каждая из новинок может выводить изображение одновременно на четыре экрана с интерфейсом DP 1.4. Обе карты выполнены в однослотовом форм-факторе полной высоты и несут на борту по 8 Гбайт видеопамяти GDDR5 с 256-битной шиной доступа. 

AMD гарантирует доступность новых видеокарт в течение трёх лет. Столь длительный жизненный цикл особенно важен: индустрия переходит на использование GDDR6 и поставки GDDR5 со временем будут сокращаться. Но благодаря решению AMD, тем, кто планирует использовать новые Embedded Radeon, длительное время не придётся искать замену или менять конструкцию используемой платформы.

Постоянный URL: http://servernews.ru/995659
08.08.2019 [10:35], Андрей Созинов

NVIDIA GPUDirect Storage: подключи NVMe-накопители напрямую к GPU

Компания NVIDIA анонсировала новую технологию под названием GPUDirect Storage, которая позволит её графическим процессорам, а точнее ускорителям, напрямую подключаться к NVMe-хранилищам, что обеспечит более быструю передачу и обработку данных.

Сейчас ускорители так или иначе получают данные при посредничестве центрального процессора хост-сервера, который извлекает их из локальных или удалённых устройств хранения. Но ускорители сейчас стали очень мощными и могут простаивать в ожидании информации для обработки, так как перегруженный сервер просто не может снабдить их свежими данными достаточно быстро.

Технология GPUDirect Storage исключает центральный процессор хост-сервера и его память из цепочки, и устанавливает прямую связь между графическим процессором и устройством хранения данных. Причём это могут быть как локальные NVMe-накопители, так и удалённые, подключённые посредством NVMe-oF (NVMe over Fabrics). Фактически это ещё одна реализация (R)DMA. 

В своём блоге компания NVIDIA отметила, что использование технологии GPUDirect Storage в системе NVIDIA DGX-2 позволяет увеличить скорость передачи данных между хранилищем данных и графическим процессором от двух до восьми раз. В частности, указывается, что пропускная способность соединения между системной памятью и графическим процессором в NVIDIA DGX-2 составляет 50 Гбайт/с. А вот пропускная способность при объединении множества накопителей и сетевых адаптеров в том же DGX-2 может превышать 200 Гбайт/с.

Ранее Mellanox и NVIDIA представили GPUDirect RDMA для прямого обмена данными между GPU и сетевыми адаптерами без участия CPU. После покупки Mellanox компания NVIDIA сможет и дальше разивать стек технологий GPUDirect, что позволит ей меньше зависеть от других вендоров. Как знать, возможно, скоро мы увидим ускорители Tesla со встроенными адаптерами InfiniBand. В конце концов, индустрия всё больше засматривается на архитектуру с физическим разделением функциональных блоков в пределах стойки: пару-тройку юнитов на память, ещё несколько на вычислительные узлы разного типа, а остальное под СХД. 

Постоянный URL: http://servernews.ru/992055
20.06.2019 [14:55], Сергей Карасёв

Облачная платформа Linode предлагает в аренду GPU-ресурсы на базе Quadro RTX 6000

Американская компания Linode, предоставляющая облачные усулуги, начала сдавать в аренду вычислительные ресурсы на базе графических ускорителей (GPU).

Речь идёт о картах NVIDIA Quadro RTX 6000, которые созданы на базе архитектуры NVIDIA Turing и платформы NVIDIA RTX. Конфигурация предусматривает использование 4608 ядер CUDA, 576 тензорных ядер и 72 ядер NVIDIA RT. Объём памяти GDDR6 равен 24 Гбайт.

В настоящее время цена ускорителей Quadro RTX 6000 составляет около 4000 долларов США. Компания Linode предоставляет доступ к вычислительным ресурсам этих карт на повременной основе. 

К примеру, за 1000 долларов в месяц будут доступны один ускоритель Quadro RTX 6000, восемь процессорных (CPU) ядер и 32 Гбайт оперативной памяти. А за 4000 долларов США в месяц можно получить доступ к четырём картам Quadro RTX 6000, 24 вычислительным ядрам и 128 Гбайт оперативной памяти.

Пока новые облачные услуги предоставляются в тестовом режиме. Отметим, что Linode одной из последних среди пионеров облачного хостинга стала сдавать в аренду GPU-ресуры.

Постоянный URL: http://servernews.ru/989511
09.04.2019 [20:31], Андрей Крупин

REG.RU предложил почасовую оплату облачных вычислений на базе NVIDIA GPU

Регистратор и хостинг-провайдер REG.RU сообщил пересмотре тарифной сетки на услуги сервиса высокопроизводительных GPU-вычислений, предназначенного для решения задач, связанных с искусственным интеллектом, машинным обучением и анализом больших массивов данных. Теперь пользователям стала доступа почасовая оплата облачных вычислений. Ранее заказать услугу можно было только в формате посуточной или помесячной оплаты.

В основу предлагаемого компанией REG.RU сервиса положены GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения может достигать 125 терафлопс. Исходя из потребностей пользователя, в рамках услуги можно подключить до 8 вычислительных ускорителей к одному виртуальному контейнеру либо арендовать физический сервер целиком. Через панель управления клиент может самостоятельно разворачивать и удалять серверы, выбирать преднастроенные шаблоны виртуального окружения с Ubuntu или Windows и производить базовые действия с сервисом.

Для максимальной производительности и удобства работы при обучении нейросетей облако REG.RU сделано совместимым с контейнерами NVIDIA GPU Cloud (NGC) — это экономит время пользователя на разворачивании и последующей работе с ПО. Репозиторий NGC обеспечивает свободный доступ к каталогу GPU-ускоренных контейнеров, который включает ведущие фреймворки и оптимизированное NVIDIA программное обеспечение для глубокого обучения, инструменты для HPC-визуализации и сторонние HPC-приложения.

Получить доступ к системе облачных вычислений REG.RU на базе NVIDIA GPU можно по ссылке reg.ru/cloud-services/cloud_gpu. На время бета-тестирования, до 1 июня 2019 года, минимальная стоимость пользования сервисом составляет 90 рублей за час работы.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/985596
Система Orphus