Материалы по тегу: dgx

14.05.2020 [18:52], Рамис Мубаракшин

NVIDIA представила ускорители A100 с архитектурой Ampere и систему DGX A100 на их основе

NVIDIA официально представила новую архитектуру графических процессоров под названием Ampere, которая является наследницей представленной осенью 2018 года архитектуры Turing. Основные изменения коснулись числа ядер — их теперь стало заметно больше. Кроме того, новинки получили больший объём памяти, поддержку bfloat16, возможность разделения ресурсов (MIG) и новые интерфейсы: PCIe 4.0 и NVLink третьего поколения. 

NVIDIA A100 выполнен по 7-нанометровому техпроцессу и содержит в себе 54 млрд транзисторов на площади 826 мм2. По словам NVIDIA, A100 с архитектурой Ampere позволяют обучать нейросети в 40 раз быстрее, чем Tesla V100 с архитектурой Turing. 

Характеристики A100

Характеристики A100

Первой основанной на ней вычислительной системой стала фирменная DGX A100, состоящая из восьми ускорителей NVIDIA A100 с NVSwitch, имеющих суммарную производительность 5 Пфлопс. Стоимость одной системы DGX A100 равна $199 тыс., они уже начали поставляться некоторым клиентам. Известно, что они будут использоваться в Аргоннской национальной лаборатории для поддержания работы искусственного интеллекта, изучающего COVID-19 и ищущего от него лекарство.

Так как некоторые группы исследователей не могут себе позволить покупку системы DGX A100 из-за ее высокой стоимости, их планируют купить поставщики услуг по облачным вычислений и предоставлять удалённый доступ к высоким мощностям. На данный момент известно о 18 провайдерах, готовых к использованию систем и ускорителей на основе архитектуры Ampere, и среди них есть Google, Microsoft и Amazon.

Система NVIDIA DGX A100

Система NVIDIA DGX A100

Помимо системы DGX A100, компания NVIDIA анонсировала ускорители NVIDIA EGX A100, предназначенная для периферийных вычислений. Для сегмента интернета вещей компания предложила плату EGX Jetson Xavier NX размером с банковскую карту.

Постоянный URL: http://servernews.ru/1010946
12.07.2019 [17:17], Владимир Мироненко

Программа NVIDIA DGX-Ready Data Center теперь доступна в 24 странах

Анонсированная в январе компанией NVIDIA программа DGX-Ready Data Center получила ещё большее распространение за пределами США, и удвоила число партнёрских центров обработки данных до 19.

Сообщается, что у программы NVIDIA DGX-Ready Data Center появились три новых партнёра в Европе, пять в Азии и два в Северной Америке. В настоящее время программа доступна для компаний из 24 стран.

Среди новых партнёров программы — компания Verne Global, имеющая ЦОД с нулевым уровнем выбросов углерода в Исландии, а также Fujitsu с ЦОД в Иокогаме, где установлено более 60 систем NVIDIA DGX-1 и DGX-2.

Как сообщает компания, программа NVIDIA DGX-Ready Data Center, построенная на системах NVIDIA DGX и поставляемая партнёрами NVIDIA, обеспечивает клиентам возможность значительного продвижения в разработке ИИ на любой платформе.

NVIDIA рекламирует DGX-Ready как решение, упрощающее внедрение вычислений на GPU, предъявляющих повышенные требования к энергопотреблению и охлаждению для вычислительных инфраструктур по сравнению с возможностями многих локальных ЦОД, созданных для традиционных ИТ-вычислений.

Семейство продуктов DGX компании NVIDIA включает серверы с 8 и 16 графическими процессорами. Вместе с тем система NVIDIA DGX SuperPOD, занимающая 22-е место среди суперкомпьютеров в мире по быстродействию (согласно публичному рейтингу Top 500), имеет 96 модулей DGX-2H, содержащих по 16 тензорных ускорителей вычислений Tesla V100 с архитектурой Volta.

Чтобы упростить поиск партнёров, NVIDIA создала портал DGX-Ready Data Center, который позволяет клиентам выполнять поиск в глобальной сети поставщиков с фильтрацией по регионам, поддерживаемым системам и расширенным услугам.

Постоянный URL: http://servernews.ru/990672
11.05.2017 [10:00], Иван Грудцын

Эра NVIDIA Volta началась с ускорителя Tesla V100

На конференции GTC 2017 в американском городе Сан-Хосе компания NVIDIA в лице её генерального директора Дженсена Хуанга (Jen-Hsun Huang) представила ускоритель Tesla V100 для дата-центров на основе графического процессора Volta GV100. Разработка последнего обошлась NVIDIA в $3 млрд, и в результате свет увидел чип площадью 815 мм², содержащий 21,1 млрд транзисторов, более 5000 потоковых процессоров и новые блоки Tensor, повышающие производительность GPU в так называемых матричных вычислениях. Изготовление ядер GV100 было поручено давнему партнёру NVIDIA — тайваньскому полупроводниковому гиганту TSMC. Техпроцесс выпуска — 12-нм FFN. Последняя буква в аббревиатуре FFN обозначает не что иное, как «NVIDIA»: технологическая норма разрабатывалась с учётом требований заказчика.

Tesla V100

Tesla V100

Из года в год сложность архитектуры кремниевых кристаллов для HPC-задач продолжает расти, и теперь, с дебютом NVIDIA Volta, остаётся констатировать, что помимо потоковых процессоров, кеш-памяти первого и второго уровней, текстурных блоков, контроллеров VRAM и системного интерфейса, частью high-end GPU становятся блоки Tensor. У GV100 их по 8 на мультипроцессорный кластер (SM) и 672 в целом.

SM-блок Volta GV100

SM-блок Volta GV100

Матричные вычисления в блоках Tensor увеличивают производительность нового ядра в задачах машинного обучения до 120 Тфлопс. В то же время быстродействие GV100 в FP32-вычислениях составляет 15 Тфлопс, а в FP64-вычислениях — 7,5 Тфлопс.

Ядро Volta GV100

Volta GV100

Ядро Volta GV100 неотделимо от буферной памяти — четырёх микросхем HBM2, взаимодействующих с GPU по 4096-битной шине. Объём каждого чипа составляет 4 Гбайт, пропускная способность подсистемы памяти — 900 Гбайт/с. Кристалл GV100 дебютирует одновременно с ускорителем Tesla V100, являясь его основой. В V100 ядро работает на частоте до 1455 МГц (с учётом динамического разгона) обеспечивая вышеуказанную производительность в FP32-, FP64- и матричных (Tensor) вычислениях. Адаптер с GPU впечатляющих размеров потребляет умеренные 300 Вт — столько же, сколько и Tesla P100.

Спецификации ускорителей NVIDIA Tesla разных лет

Спецификации ускорителей NVIDIA Tesla разных лет

Вычислительные возможности Volta GV100

Вычислительные возможности Volta GV100

По эскизу в начале данной заметки можно было догадаться, что соединение Tesla V100 с такими же ускорителями и центральным процессором обеспечивает интерфейс типа NVLink. В этот раз это не интерфейс первого поколения, а NVLink 2.0 — соответствующие контакты находятся на тыльной поверхности карты. В Tesla V100 реализовано шесть двунаправленных 25-Гбайт соединений (суммарно 300 Гбайт/с), а также функция согласования содержимого кеш-памяти с кешем центрального процессора IBM POWER9.

Распространение новых HPC-ускорителей будет осуществляться по межкорпоративным (B2B) каналам. При этом заказчики получат свободный выбор между готовыми решениями вкупе с сопутствующим программным обеспечением и технической поддержкой. Все три системы — DGX-1, HGX-1 и DGX Station — предназначены для решения задач, связанных с развитием искусственного интеллекта (AI).

С системой глубинного обучения NVIDIA DGX-1 первого поколения мы уже знакомили читателей — она использует восемь ускорителей Tesla P100 с производительностью 170 Тфлопс в вычислениях половинной точности (FP16). Обновлённый сервер DGX-1 содержит восемь карт Tesla V100 с быстродействием 960 Тфлопс (FP16), два центральных процессора Intel Xeon и блок(-и) питания суммарной мощностью не менее 3200 Вт. Такой апгрейд позволяет выполнять не только типичные задачи в области исследования AI, но и переходить к новым, целесообразность решения которых прежде была под вопросом ввиду высокой сложности вычислений.

Предварительный заказ системы NVIDIA DGX-1 второго поколения обойдётся всем желающим в $149 000. Ориентировочный срок начала поставок — третий квартал текущего года.

Сервер HGX-1 на восьми ускорителях Tesla V100 аналогичен DGX-1. Ключевое отличие данной системы заключается в применении жидкостного охлаждения компонентов. Кроме того, NVIDIA HGX-1 проще внедрить с ИТ-инфраструктуру компаний. Помимо глубинного обучения, этот сервер может использоваться в экосистеме GRID, а также для решения широкого круга HPC-задач.

NVIDIA HGX

NVIDIA DGX Station представляет собой высокопроизводительную рабочую станцию с четырьмя картами Tesla V100, центральным процессором Intel Xeon, системой жидкостного охлаждения и 1500-ваттным источником питания. Ускорители NVIDIA в составе DGX Station оснащены интерфейсом NVLink 200 Гбайт/с и тремя разъёмами DisplayPort с поддержкой разрешения 4K.

В матричных Tensor-вычислениях  DGX Station обеспечивает быстродействие на уровне 480 Тфлопс. Стоимость рабочей станции для рынка США равна $69 000.

Постоянный URL: http://servernews.ru/952008
15.11.2016 [19:07], Константин Ходаковский

NVIDIA создаёт новые GPU с помощью своего суперкомпьютера на архитектуре Pascal

Представленный в апреле суперкомпьютер NVIDIA DGX SATURNV занял 28-е место по быстродействию в обновлённом мировом рейтинге Top500 и 1-е место — по энергоэффективности, которая оценивается в 9,46 гигафлопс на ватт. По этому показателю детище NVIDIA на 27 % обходит ближайшего конкурента из Швейцарии в лице Piz Daint. А если сравнивать с аналогичным по производительности суперкомпьютером Intel Camphore 2 на базе процессоров Xeon Phi Knights Landing, вычислительный центр SATURNV потребляет в 2,3 раза меньше энергии.

Именно графические ускорители дали резкий толчок развитию суперкомпьютерных мощностей и технологий искусственного интеллекта. Машинное самообучение открывает новые горизонты в самых разных сферах науки, медицины, финансов, проектирования и даже искусства.

Кластер общей производительностью 3,3 петафлопс включает 124 системы DGX-1, каждая из которых объединяет 8 графических процессоров Tesla P100 на архитектуре Pascal. По оценкам NVIDIA, один модуль DGX-1 способен заменить 250 серверов с процессорами x86. Неудивительно, что компания сама использует преимущества искусственного интеллекта в исследованиях и разработках.

В частности, ИИ-технологии суперкомпьютера SATURNV задействованы в разработке программного обеспечения платформы автономного вождения NVIDIA DRIVE PX 2, которая, например, станет основой автоматического управления электромобилей Tesla Motors. Более того, нейросети помогают инженерам компании проектировать дизайн новых сложноинтегрированных GPU и SoC.

Среди наиболее значимых сторонних применений серверов DGX-1 NVIDIA называет корпорацию SAP, предоставляющую инструменты бизнес-планирования 320 тысячам своих клиентов; разработчика искусственного интеллекта OpenAI; Стэндфордский и Нью-Йоркский университеты; стартап в области медицины BenevolentAI.

Постоянный URL: http://servernews.ru/942758
Система Orphus