Материалы по тегу: dgx

12.07.2019 [17:17], Владимир Мироненко

Программа NVIDIA DGX-Ready Data Center теперь доступна в 24 странах

Анонсированная в январе компанией NVIDIA программа DGX-Ready Data Center получила ещё большее распространение за пределами США, и удвоила число партнёрских центров обработки данных до 19.

Сообщается, что у программы NVIDIA DGX-Ready Data Center появились три новых партнёра в Европе, пять в Азии и два в Северной Америке. В настоящее время программа доступна для компаний из 24 стран.

Среди новых партнёров программы — компания Verne Global, имеющая ЦОД с нулевым уровнем выбросов углерода в Исландии, а также Fujitsu с ЦОД в Иокогаме, где установлено более 60 систем NVIDIA DGX-1 и DGX-2.

Как сообщает компания, программа NVIDIA DGX-Ready Data Center, построенная на системах NVIDIA DGX и поставляемая партнёрами NVIDIA, обеспечивает клиентам возможность значительного продвижения в разработке ИИ на любой платформе.

NVIDIA рекламирует DGX-Ready как решение, упрощающее внедрение вычислений на GPU, предъявляющих повышенные требования к энергопотреблению и охлаждению для вычислительных инфраструктур по сравнению с возможностями многих локальных ЦОД, созданных для традиционных ИТ-вычислений.

Семейство продуктов DGX компании NVIDIA включает серверы с 8 и 16 графическими процессорами. Вместе с тем система NVIDIA DGX SuperPOD, занимающая 22-е место среди суперкомпьютеров в мире по быстродействию (согласно публичному рейтингу Top 500), имеет 96 модулей DGX-2H, содержащих по 16 тензорных ускорителей вычислений Tesla V100 с архитектурой Volta.

Чтобы упростить поиск партнёров, NVIDIA создала портал DGX-Ready Data Center, который позволяет клиентам выполнять поиск в глобальной сети поставщиков с фильтрацией по регионам, поддерживаемым системам и расширенным услугам.

Постоянный URL: http://servernews.ru/990672
11.05.2017 [10:00], Иван Грудцын

Эра NVIDIA Volta началась с ускорителя Tesla V100

На конференции GTC 2017 в американском городе Сан-Хосе компания NVIDIA в лице её генерального директора Дженсена Хуанга (Jen-Hsun Huang) представила ускоритель Tesla V100 для дата-центров на основе графического процессора Volta GV100. Разработка последнего обошлась NVIDIA в $3 млрд, и в результате свет увидел чип площадью 815 мм², содержащий 21,1 млрд транзисторов, более 5000 потоковых процессоров и новые блоки Tensor, повышающие производительность GPU в так называемых матричных вычислениях. Изготовление ядер GV100 было поручено давнему партнёру NVIDIA — тайваньскому полупроводниковому гиганту TSMC. Техпроцесс выпуска — 12-нм FFN. Последняя буква в аббревиатуре FFN обозначает не что иное, как «NVIDIA»: технологическая норма разрабатывалась с учётом требований заказчика.

Tesla V100

Tesla V100

Из года в год сложность архитектуры кремниевых кристаллов для HPC-задач продолжает расти, и теперь, с дебютом NVIDIA Volta, остаётся констатировать, что помимо потоковых процессоров, кеш-памяти первого и второго уровней, текстурных блоков, контроллеров VRAM и системного интерфейса, частью high-end GPU становятся блоки Tensor. У GV100 их по 8 на мультипроцессорный кластер (SM) и 672 в целом.

SM-блок Volta GV100

SM-блок Volta GV100

Матричные вычисления в блоках Tensor увеличивают производительность нового ядра в задачах машинного обучения до 120 Тфлопс. В то же время быстродействие GV100 в FP32-вычислениях составляет 15 Тфлопс, а в FP64-вычислениях — 7,5 Тфлопс.

Ядро Volta GV100

Volta GV100

Ядро Volta GV100 неотделимо от буферной памяти — четырёх микросхем HBM2, взаимодействующих с GPU по 4096-битной шине. Объём каждого чипа составляет 4 Гбайт, пропускная способность подсистемы памяти — 900 Гбайт/с. Кристалл GV100 дебютирует одновременно с ускорителем Tesla V100, являясь его основой. В V100 ядро работает на частоте до 1455 МГц (с учётом динамического разгона) обеспечивая вышеуказанную производительность в FP32-, FP64- и матричных (Tensor) вычислениях. Адаптер с GPU впечатляющих размеров потребляет умеренные 300 Вт — столько же, сколько и Tesla P100.

Спецификации ускорителей NVIDIA Tesla разных лет

Спецификации ускорителей NVIDIA Tesla разных лет

Вычислительные возможности Volta GV100

Вычислительные возможности Volta GV100

По эскизу в начале данной заметки можно было догадаться, что соединение Tesla V100 с такими же ускорителями и центральным процессором обеспечивает интерфейс типа NVLink. В этот раз это не интерфейс первого поколения, а NVLink 2.0 — соответствующие контакты находятся на тыльной поверхности карты. В Tesla V100 реализовано шесть двунаправленных 25-Гбайт соединений (суммарно 300 Гбайт/с), а также функция согласования содержимого кеш-памяти с кешем центрального процессора IBM POWER9.

Распространение новых HPC-ускорителей будет осуществляться по межкорпоративным (B2B) каналам. При этом заказчики получат свободный выбор между готовыми решениями вкупе с сопутствующим программным обеспечением и технической поддержкой. Все три системы — DGX-1, HGX-1 и DGX Station — предназначены для решения задач, связанных с развитием искусственного интеллекта (AI).

С системой глубинного обучения NVIDIA DGX-1 первого поколения мы уже знакомили читателей — она использует восемь ускорителей Tesla P100 с производительностью 170 Тфлопс в вычислениях половинной точности (FP16). Обновлённый сервер DGX-1 содержит восемь карт Tesla V100 с быстродействием 960 Тфлопс (FP16), два центральных процессора Intel Xeon и блок(-и) питания суммарной мощностью не менее 3200 Вт. Такой апгрейд позволяет выполнять не только типичные задачи в области исследования AI, но и переходить к новым, целесообразность решения которых прежде была под вопросом ввиду высокой сложности вычислений.

Предварительный заказ системы NVIDIA DGX-1 второго поколения обойдётся всем желающим в $149 000. Ориентировочный срок начала поставок — третий квартал текущего года.

Сервер HGX-1 на восьми ускорителях Tesla V100 аналогичен DGX-1. Ключевое отличие данной системы заключается в применении жидкостного охлаждения компонентов. Кроме того, NVIDIA HGX-1 проще внедрить с ИТ-инфраструктуру компаний. Помимо глубинного обучения, этот сервер может использоваться в экосистеме GRID, а также для решения широкого круга HPC-задач.

NVIDIA HGX

NVIDIA DGX Station представляет собой высокопроизводительную рабочую станцию с четырьмя картами Tesla V100, центральным процессором Intel Xeon, системой жидкостного охлаждения и 1500-ваттным источником питания. Ускорители NVIDIA в составе DGX Station оснащены интерфейсом NVLink 200 Гбайт/с и тремя разъёмами DisplayPort с поддержкой разрешения 4K.

В матричных Tensor-вычислениях  DGX Station обеспечивает быстродействие на уровне 480 Тфлопс. Стоимость рабочей станции для рынка США равна $69 000.

Постоянный URL: http://servernews.ru/952008
15.11.2016 [19:07], Константин Ходаковский

NVIDIA создаёт новые GPU с помощью своего суперкомпьютера на архитектуре Pascal

Представленный в апреле суперкомпьютер NVIDIA DGX SATURNV занял 28-е место по быстродействию в обновлённом мировом рейтинге Top500 и 1-е место — по энергоэффективности, которая оценивается в 9,46 гигафлопс на ватт. По этому показателю детище NVIDIA на 27 % обходит ближайшего конкурента из Швейцарии в лице Piz Daint. А если сравнивать с аналогичным по производительности суперкомпьютером Intel Camphore 2 на базе процессоров Xeon Phi Knights Landing, вычислительный центр SATURNV потребляет в 2,3 раза меньше энергии.

Именно графические ускорители дали резкий толчок развитию суперкомпьютерных мощностей и технологий искусственного интеллекта. Машинное самообучение открывает новые горизонты в самых разных сферах науки, медицины, финансов, проектирования и даже искусства.

Кластер общей производительностью 3,3 петафлопс включает 124 системы DGX-1, каждая из которых объединяет 8 графических процессоров Tesla P100 на архитектуре Pascal. По оценкам NVIDIA, один модуль DGX-1 способен заменить 250 серверов с процессорами x86. Неудивительно, что компания сама использует преимущества искусственного интеллекта в исследованиях и разработках.

В частности, ИИ-технологии суперкомпьютера SATURNV задействованы в разработке программного обеспечения платформы автономного вождения NVIDIA DRIVE PX 2, которая, например, станет основой автоматического управления электромобилей Tesla Motors. Более того, нейросети помогают инженерам компании проектировать дизайн новых сложноинтегрированных GPU и SoC.

Среди наиболее значимых сторонних применений серверов DGX-1 NVIDIA называет корпорацию SAP, предоставляющую инструменты бизнес-планирования 320 тысячам своих клиентов; разработчика искусственного интеллекта OpenAI; Стэндфордский и Нью-Йоркский университеты; стартап в области медицины BenevolentAI.

Постоянный URL: http://servernews.ru/942758
Система Orphus