Материалы по тегу: gpu

12.04.2021 [20:00], Сергей Карасёв

Ускоритель NVIDIA A16 рассчитан на инфраструктуры VDI

Компания NVIDIA представила сегодня акселератор корпоративного класса A16: анонс новинки состоялся в рамках мероприятия GPU Technology Conference 2021. Ускоритель поможет в организации дистанционной работы, что актуально в текущей эпидемиологической обстановке. В такой ситуации востребованы платформы виртуальных рабочих столов (VDI).

В инфраструктуре VDI среды виртуальных рабочих мест размещаются на централизованном сервере и развёртываются по запросу. Для поддержания работы таких систем как раз и предназначен ускоритель NVIDIA A16. Решение объединяет четыре графических процессора с архитектурой Ampere. Также имеются аппаратные (де-)кодеры NVENC (x4) и NVDEC (x8).

Используется 64 Гбайт памяти GDDR6 — по 16 Гбайт на процессор.Устройство позволяет формировать виртуальные GPU (vGPU) с памятью объёмом 1, 2, 4, 8 или 16 Гбайт. Имеется поддержка технологий NVIDIA Virtual PC (vPC), Virtual Applications (vApps), RTX Workstation (vWS), Virtual Compute Server (vCS).

Ускоритель выполнен в виде карты расширения с интерфейсом PCIe 4.0. В компьютерном корпусе новинка займёт два слота. Для дополнительного питания служит 8-контактный разъём; заявленный показатель TDP — 250 Вт. Поставки акселератора NVIDIA A16 начнутся в текущем году. Более точные сроки начала продаж и стоимость разработчик раскроет позднее.

Постоянный URL: http://servernews.ru/1037129
03.04.2021 [15:29], Сергей Карасёв

Китайский ускоритель Big Island готов соперничать с решениями AMD и NVIDIA

Китайская компания Shanghai Tianshu Intellectual Semiconductor Co. на этой неделе объявила о скором начале массового производства и грядущей коммерческой доступности GPGPU-ускорителей на основе чипа под именем Big Island.

Названное решение — это первый ускоритель родом из КНР, для которого предусмотрена 7-нанометровая технология производства. Предполагается, что изделие составит конкуренцию продуктам AMD Instinct MI100 и NVIDIA A100, а в будущем и Intel, в сегменте центров обработки данных и платформ высокопроизводительных вычислений (HPC).

Отмечается, что выпуском графических чипов Big Island займётся компания TSMC с применением своей 7-нанометровой методики FinFET, а интерпозер собственной разработки будет использовать 65-нм техпроцесс TSMC. Новинка будет иметь 24 млрд транзисторов. Ускоритель получит интерфейс PCIe 4.0 x16 и будет доступен как в виде полноразмерной карты расширения, так и в виде OAM-модуля.

Tianshu Zhixin заявляет, что Big Island по производительности практически вдвое превосходит продукты для массового рынка других производителей. При этом достигается меньшее энергопотребление. В целом, новые изделия должны предложить привлекательное соотношение цены и быстродействия.

Разработчик уже обнародовал изображения ускорителей и серверных продуктов на основе Big Island. А слайд ниже даёт представление о производительности новинки. Правда, о скорости вычислений FP64 создатели умалчивают. Зато сказано, что чип получит 32 Гбайт памяти HBM2 с пропускной способностью 1,2 Тбайт/с, а также поддержку виртуализации.

Постоянный URL: http://servernews.ru/1036460
02.04.2021 [15:36], Сергей Карасёв

ASRock Rack представила GPU-сервер  4U8G-ROME2/2T на базе AMD EPYC 7003

Компания ASRock Rack представила стоечный сервер 4U8G-ROME2/2T: новинка, выполненная в формате 4U, предназначена для использования в составе платформ высокопроизводительных вычислений (HPC). Основой служит материнская плата ROME2D32GM-2T для процессоров AMD.

В частности, допускается установка двух чипов EPYC 7003 или 7002 в исполнении SP3 (LGA4094) с показателем TDP до 280 Вт. В общей сложности доступны 32 слота для модулей оперативной памяти DDR4-2666/3200 суммарным объёмом до 8 Тбайт.

Для монтажа полноразмерных графических ускорителей с двухслотовым дизайном имеются восемь разъёмов PCIe 4.0 x16. Плюс к этому во фронтальной части предусмотрено по одному слоту PCIe 4.0 x8 и OCP 3.0 PCIe 4.0 x8.

Подсистема хранения данных может объединять до 12 накопителей типоразмера 3,5 дюйма с возможностью «горячей» замены. Можно также задействовать два твердотельных модуля NVMe с интерфейсом PCIe 4.0 x4.

Во фронтальной части расположены два сетевых порта 10GbE, четыре разъёма USB 3.2 Gen1 и аналоговый интерфейс D-Sub. Сзади находятся ещё два порта 10GbE, выделенный сетевой порт управления и разъём D-Sub.

Система может быть оборудована четырьмя блоками питания мощностью 1600 Вт с сертификацией 80 PLUS Platinum. Более подробно с техническими характеристиками новинки можно ознакомиться здесь.

Постоянный URL: http://servernews.ru/1036399
23.02.2021 [22:23], Андрей Галадей

Вышло обновление ZLUDA v2, открытой реализации CUDA для GPU Intel

Ранее мы уже писали об экспериментальнои проекте ZLUDA, развивающем открытую реализацию CUDA для GPU Intel, которая позволила бы нативно исполнять CUDA-приложения на ускорителях Intel без каких-либо модификаций. При этом её разработка ведётся независимо и от Intel, и от NVIDIA.

Новинка построена на базе интерфейса Intel oneAPI Level Zero, и может работать на картах Intel UHD/Xe с неплохим уровнем производительности. Однако у первой версии был ряд ограничений. Вчера же вышла вторая версия, которая получила ряд улучшений. Кроме того, автор проекта объявил о переходе на модель непрерывного выпуска релизов.

Основной упор в новой версии сделан на улучшение поддержки Geekbench и работы в Windows-окружении. Собственно говоря, автор прямо говорит, что оптимизация под Geekbench пока является основной целью, а другие CUDA-приложения могут не работать. Кроме того, такое ПО, запущенное с помощью ZLUDA будет работать медленнее, чем на картах NVIDIA, в силу разности архитектур GPU и необходимости эмуляции некоторых возможностей. Подробности приведены на странице проекта.

Постоянный URL: http://servernews.ru/1033317
27.01.2021 [11:43], Владимир Мироненко

NVIDIA запустила программу сертифицирования серверов для приложений искусственного интеллекта

26 января компания NVIDIA запустила программу сертифицирования систем, участвующие в которой поставщики смогут предлагать сертифицированные NVIDIA серверы с графическими процессорами A100. Также доступны отдельные контракты на поддержку сертифицированных систем напрямую от NVIDIA.

NVIDIA заявила, что предварительно протестированные системы и контрактная поддержка должны повысить уверенность и упростить развёртывание для тех, кто решил заняться ИИ. Системы, сертифицированные NVIDIA, смогут запускать контейнеры NVIDIA NGC с рабочими инструментами ИИ.

«Сегодня у нас есть 13 или 14 систем как минимум пяти OEM-производителей, сертифицированных NVIDIA. Мы рассчитываем сертифицировать до 70 систем от почти десятка OEM-производителей, которые уже участвуют в этой программе», — сообщил в блоге Адель Эль-Халлак (Adel El-Hallak), директор по управлению продуктами NGC. Он упомянул в блоге первые сертифицированные системы:

  • Стоечные серверы Dell EMC PowerEdge R7525 и R740
  • Системы GIGABYTE R281-G30, R282-Z96, G242-Z11, G482-Z54, G492-Z51
  • Система HPE Apollo 6500 Gen10 и сервер HPE ProLiant DL380 Gen10
  • Inspur NF5488A5
  • Supermicro A+ серверы AS -4124GS-TNR и AS -2124GQ-NART

Ожидается, что крупные, технически продвинутые заказчики, такие как гиперскейлеры и крупные предприятия, не станут покупателями систем, сертифицированных NVIDIA, но ими могут заинтересоваться менее крупные компании и новички в области ИИ.

«Существует определённый призыв к конечным пользователям быть уверенными в том, что аппаратное и программное обеспечение оптимизированы и что этот пакет официально „сертифицирован“. Это избавляет их от необходимости самостоятельно оптимизировать систему или исследовать различные предложения на рынке для достижения оптимальной производительности на основе трудноинтерпретируемых критериев», — Питер Руттен (Peter Rutten), директор по исследованиям группы инфраструктурных систем, платформ и технологий IDC.

NVIDIA не представила подробный список тестов для проведения сертификации, но Эль-Халлак дал следующее описание:

«Все начинается с разных нагрузок. Мы тестируем обучение и инференс ИИ, алгоритмы машинного обучения, инференс ИИ на периферии, например, потоковую передачу видео, потоковую передачу голоса и рабочие нагрузки HPC. По сути, мы устанавливаем базовый уровень, порог, если хотите, внутри компании. Мы предоставляем нашим OEM-партнерам советы по обучению, которые затем запускают рабочие нагрузки. Поэтому мы делаем такие вещи, как тестирование с разными размерами пакетов, с разными условиями и тестирование на одном или нескольких графических процессорах».

«Мы [также] тестируем множество различных вариантов использования. Мы рассмотрим варианты использования компьютерного зрения. Смотрим на модели машинного перевода. Мы тестируем линейную скорость, когда два узла соединены вместе, чтобы обеспечить оптимальную сеть и полосу пропускания. С точки зрения масштабируемости, мы тестируем экземпляр MIG, то есть часть графического процессора, один графический процессор, несколько графических процессоров [и] несколько узлов. Мы также тестируем GPUDirect RDMA, чтобы убедиться, что существует прямой путь для обмена данными между графическим процессором и устройствами сторонних производителей. Наконец, для обеспечения безопасности мы проверяем шифрование данных с помощью встроенных средств безопасности, таких как TLS и IPsec. Мы также изучаем TPM, чтобы обеспечить аппаратную безопасность устройства», — добавил Эль-Халлак.

Доказанная способность запускать NGC является ключевым элементом. NGC — это хаб NVIDIA для программного обеспечения с ускорением на GPU, контейнерных приложений, структур искусственного интеллекта, SDK для конкретных предметных областей, предварительно обученных моделей и других ресурсов.

NVIDIA заявила, что OEM-производители или другие партнёры не платят за участие в программе сертификации NVIDIA. Стоимость поддержки программного обеспечения сертифицированных NVIDIA систем для клиентов зависит от системы и от её конфигурации. Например, NVIDIA сообщила, что стоимость поддержки «объёмных» серверов с двумя графическими процессорами A100 составляет около «$4299 на систему с трёхлетним сроком поддержки, который клиенты могут продлить».

Постоянный URL: http://servernews.ru/1031103
26.01.2021 [18:02], Сергей Карасёв

Сервер GIGABYTE R282-Z96 с двумя AMD EPYC 7002 получил статус NVIDIA Certified

Компания GIGABYTE анонсировала стоечный сервер R282-Z96 на аппаратной платформе AMD: новинка может применяться для решения различных задач, связанных с высокопроизводительными вычислениями, а также хранением и обработкой данных. Сервер получил статус NVIDIA Certified, что свидетельствует о готовности системы к ИИ-нагрузкам.

Устройство выполнено в форм-факторе 2U с размерами 438 × 87 × 730 мм. Допускается установка двух процессоров EPYC 7002, каждый из которых может содержать до 64 вычислительных ядер при показателе TDP до 225 Вт.

Для модулей оперативной памяти DDR4-3200/2933 есть 32 слота: в системе можно задействовать до 4 Тбайт ОЗУ. За сетевые подключения отвечают два порта 1GbE LAN; кроме того, предусмотрен выделенный гигабитный порт управления.

Сервер допускает установку до 12 накопителей типоразмера 3,5/2,5 дюйма. Доступны четыре слота PCIe 4.0 x16 для полноразмерных карт расширения, по одному слоту OCP 3.0 Mezzanine (PCIe 4.0 x16) и OCP 2.0 Mezzanine (PCIe 3.0 x8), коннектор М.2 для быстрого твердотельного модуля стандарта 2242/2260/2280/22110 с интерфейсом PCIe 4.0 x16.

На фронтальную панель выведены два порта USB 3.0. Сзади находятся ещё два разъёма USB 3.0, гнёзда для сетевых кабелей, аналоговый коннектор D-Sub для вывода изображения. Питание обеспечивают два блока мощностью 2000 Вт с сертификацией 80 PLUS Platinum.

Постоянный URL: http://servernews.ru/1031066
23.01.2021 [21:18], Алексей Степин

Китайский ускоритель Zhaoxin Big Island обещает составить конкуренцию AMD и NVIDIA

Графические процессоры уже давно ускоряют не только графику, но и активно используются для вычислений различного рода, включая задачи машинного обучения. Но дуумвират AMD и NVIDIA подошёл к концу. Помимо Intel с её архитектурой Xe, на рынок ускорителей вышла китайская Zhaoxin Semiconductor.

Компания это сравнительно молодая, она была основана в 2013 году как совместное предприятие с некогда популярным производителем VIA Technologies. Инициатором создания Zhaoxin выступило правительство Шанхая. Наряду с наработками в области архитектуры x86, в распоряжение компании попали и разработки бывшей S3 Graphics. В 2020 году компания объявила о намерении выпускать дискретные графические ускорители.

Изначально речь шла о достаточно бюджетном решении. Об этом свидетельствовало намерение использовать уже далеко не новый 28-нм техпроцесс TSMC и уложиться при этом в теплопакет в районе 70 Ватт. Из-за санкций США Zhaoxin отказалась от использования 16-нм техпроцесса. Однако сейчас, похоже, большую часть проблем удалось преодолеть: компания анонсировала первый китайский ускоритель на базе собственной архитектуры и 7-нм техпроцесса!

В распоряжении Zhaoxin Semiconductor собственных полупроводниковых фабрик нет. Конкретного имени контрактного производителя для своей новинки под именем Big Island она не называет, но большую часть 7-нм чипов на сегодня производит TSMC. На тайваньского гиганта указывает и сайт Zhaoxin, там же упоминаются известные разработчики полупроводниковых решений Synopsys и Mentor Graphics. Кроме того, компания подтверждает использование в Big Island компоновки 2.5DCoWoS (2.5D chip-on-wafer-on-substrate), впервые использованной TSMC, так что сомнений насчёт того, кто производит новинку, остаётся немного.

Процессор достаточно сложен, он состоит из 24 млрд транзисторов, что, впрочем, существенно меньше, чем у NVIDIA A100 с его 54 млрд. Тем не менее, поддерживается большинство популярных форматов вычислений, включая FP16, FP32, INT32 и bfloat16. В режиме FP16 пиковая производительность достигает 147 Тфлопс, что выше, нежели 78 Тфлопс A100. Впрочем, лидером здесь является AMD Instinct MI100 с производительностью 184 Тфлопс.

Разработка новой архитектуры, как сообщают зарубежные источники, была начата в 2018 году, а первые образцы кремния увидели свет ещё в мае 2020 года, то есть у Zhaoxin было достаточно много времени, чтобы довести Big Island до ума. Ожидается, что массовое производство нового чипа будет развёрнуто в этом году, но точные временные рамки пока неизвестны.

Постоянный URL: http://servernews.ru/1030854
30.12.2020 [13:50], Сергей Карасёв

HPC-сервер ASRock Rack 2U4G-ROME/2T: 4 GPU в 2U

Компания ASRock Rack анонсировала сервер 2U4G-ROME/2T, построенный на аппаратной платформе AMD. Новинка предназначена для формирования систем высокопроизводительных вычислений (HPC) с использованием графических ускорителей.

Решение ориентировано на монтаж в стойку: оно соответствует форм-фактору 2U, а габариты составляют 438 × 795 × 87,5 мм. Задействована материнская плата ROMED8QM-2T.

Поддерживается установка процессоров AMD EPYC 7002/7001. Есть восемь слотов для модулей оперативной памяти DDR4-3200/2933: в системе можно задействовать до 2 Тбайт ОЗУ.

Сервер поддерживает установку четырёх графических ускорителей с интерфейсом PCIe x16: могут применяться карты в двухслотовом исполнении. Во фронтальной части расположены отсеки для 2,5-дюймовых накопителей.

Новинка располагает двумя сетевыми портами (RJ45) с пропускной способностью до 10 Гбит/с. Кроме того, есть выделенный порт управления 1GbE. Интерфейсный блок в тыльной части содержит два разъёма USB 3.0, аналоговый коннектор D-Sub для подключения монитора и последовательный порт.

За питание отвечают два блока с сертификацией Platinum мощностью 2000 Вт. В системе охлаждения применены шесть 80-миллиметровых вентиляторов.

Постоянный URL: http://servernews.ru/1029086
29.12.2020 [12:46], Владимир Мироненко

Lambda Echelon — GPU-кластер под ключ для задач машинного обучения

Компания Lambda разработала GPU-кластер Echelon для ИИ-задач. Он включает в себя вычислительные ресурсы, хранилище, сеть, питание и поддержку, необходимые для решения крупномасштабных задач глубокого обучения.

Echelon использует стоечную архитектуру, которая хорошо масштабируется: от кластера с одной стойкой на 40 графических процессоров до кластера с тысячами графических процессоров в центре обработки данных.

Клиентам Lambda уже знакомы узлы в составе Echelon. Это серверы Lambda Hyperplane и Lambda Blade GPU. Вычислительные узлы Echelon были разработаны с учётом возможности использования InfiniBand HDR 200 Гбит/с или 100 Гбит/с Ethernet. Высокая скорость обмена данными позволяет выполнять широкомасштабное обучение языковых моделей и свёрточных нейронных сетей.

Кластер Echelon, разработанный для крупномасштабного распределённого обучения, может иметь до четырёх различных сетей:

  • 200-Гбит/с фабрики HDR InfiniBand с RDMA для вычислительны узлов и хранилища.
  • Внутрення сеть 100 Гбит/с.
  • Сеть для управления узлами 1 Гбит/с.

Выше показана сетевая топология для кластера с одной стойкой с 40 графическими процессорами NVIDIA A100.

Постоянный URL: http://servernews.ru/1028955
03.12.2020 [13:49], Андрей Галадей

Выход Intel Xe HP не за горами: компания готовит Linux-драйверы Gen12HP

Некоторое время назад компания Intel анонсировала графический процессор Xe HP, предназначенный для конкуренции с игровыми и профессиональными ускорителями AMD и NVIDIA. В готовых решениях он появится только в 2021 году, но подготовка к этому идёт уже сейчас.

Сообщается, что компания готовится к развертыванию поддержки драйверов Linux с открытым исходным кодом под эти ускорители. Они предназначены не только для версии Gen12 (используется в Tiger Lake, Rocket Lake — Xe LP), но и для Gen12.5 или Gen12HP. Как ожидается, готовые драйверы появятся до конца января в составе Mesa 20.1. Они, скорее всего, будут поддерживать OpenGL/Vulkan и другие современных графически технологии. Всего в новом пакете добавлено более семи тысяч строк нового кода, а также различные изменения в драйверах Iris Gallium3D и ANV Vulkan.

На данный момент компания пока не особо распространяется на тему обновлений так что остаётся ждать новых данных. Напомним, что ранее в Geekbench протестировали видеокарту Intel Xe-HP NEO с 512 вычислительными блоками. Результаты пока не слишком впечатляют. Быть может, у финальной версии Xe HP с оптимизированными драйверами они будут лучше. Пока что в серверном сегменте доступен лишь ускоритель на базе четырёх GPU Intel Xe LP, который ориентирован на облачный гейминг.

Постоянный URL: http://servernews.ru/1026909
Система Orphus