Материалы по тегу: gpu

14.11.2019 [08:00], Андрей Созинов

Intel Ponte Vecchio: первый дискретный графический процессор на архитектуре Intel Xe

Компания Intel поделилась с прессой информацией о своих будущих 7-нм графических процессорах на архитектуре Intel Xe с кодовым названием Ponte Vecchio. Ресурс VideoCardz по своему обыкновению поделился этой информацией с широкой общественностью.

Ponte Vecchio или по-русски Понте-Веккьо — старинный и весьма известный мост во Флоренции. Такое кодовое название явно указывает на то, что для этих графических процессоров предполагается работа не поодиночке, а в связках, например, с использованием интерконнекта CXL (Compute Express Link).

Использование интерконнекта говорит о том, что Intel Ponte Vecchio будут использоваться не в игровых видеокартах. Первые графические процессоры с архитектурой Xe лягут в основу ускорителей вычислений для суперкомпьютеров экзафлопсного уровня.

Сообщается, что 17 ноября Intel раскроет подробности о своём новом проекте Aurora (англ. — Аврора) — экзафлопсной суперкомпьютерной платформе на центральных процессорах Xeon Sapphire Rapids, графических процессорах Ponte Vecchio и с новыми средствами разработки OneAPI. Если точнее, то кластер Aurora будет включать:

  • Два процессора Intel Xeon Scalable на микроархитектуре нового поколения Sapphire Rapids
  • Шесть графических процессоров Intel Xe Ponte Vecchio
  • Среду OneAPI

По данным источника, в новых материалах для прессы Intel заявляет, что при создании графических процессоров Ponte Vecchio будет использоваться многокристальная 3D-компоновка Foveros и интерконнект CXL. Сообщается, что графические процессоры Intel Xe будут обладать очень большим объёмом кеша и высокой пропускной способностью памяти. Ещё отмечается, что чипы Ponte Vecchio будут обладать высокой производительностью в вычислениях двойной точности (FP64).

Также в свежих материалах Intel перечисляет все направления, в которых будет представлена графическая архитектура Intel Xe. Это высокопроизводительные вычисления и суперкомпьютеры экзафлопсного уровня, глубокое обучение и ИИ, облачные системы, рабочие станции, игровые компьютеры, а также мобильные и ультрамобильные ПК. То есть, Intel планирует использовать свою новую графику везде.

Постоянный URL: http://servernews.ru/997616
15.10.2019 [19:19], Алексей Степин

AMD представила видеокарты Embedded Radeon E9560 и E9390 для встраиваемых систем

Несмотря на то, что графическому подразделению AMD пока не удаётся выпустить флагманский чип, способный на равных сразиться с аналогичным решением NVIDIA, решения «красных» достаточно популярны и компания активно наращивает своё присутствие не только в секторе игровых решений.

Буквально на днях компания анонсировала два новых графических адаптера в серии Embedded Radeon ‒ E9560 и E9390.  Эти решения предназначены для различных встраиваемых систем, таких как цифровые киоски, рекламные экраны и всевозможные игровые автоматы.

AMD Embedded Radeon E9560 имеет теплопакет 130 ватт и 36 блоков (2304 SP, аналог RX 480), в то время как менее мощный Embedded Radeon E9390 c 28 вычислительными блоками (1792 SP, нет аналога) удалось ограничить значением 75 ватт. В сравнении с предыдущими решениями Embedded Radeon новинки быстрее примерно на 11 % в тестах 3DMark 11

Каждая из новинок может выводить изображение одновременно на четыре экрана с интерфейсом DP 1.4. Обе карты выполнены в однослотовом форм-факторе полной высоты и несут на борту по 8 Гбайт видеопамяти GDDR5 с 256-битной шиной доступа. 

AMD гарантирует доступность новых видеокарт в течение трёх лет. Столь длительный жизненный цикл особенно важен: индустрия переходит на использование GDDR6 и поставки GDDR5 со временем будут сокращаться. Но благодаря решению AMD, тем, кто планирует использовать новые Embedded Radeon, длительное время не придётся искать замену или менять конструкцию используемой платформы.

Постоянный URL: http://servernews.ru/995659
08.08.2019 [10:35], Андрей Созинов

NVIDIA GPUDirect Storage: подключи NVMe-накопители напрямую к GPU

Компания NVIDIA анонсировала новую технологию под названием GPUDirect Storage, которая позволит её графическим процессорам, а точнее ускорителям, напрямую подключаться к NVMe-хранилищам, что обеспечит более быструю передачу и обработку данных.

Сейчас ускорители так или иначе получают данные при посредничестве центрального процессора хост-сервера, который извлекает их из локальных или удалённых устройств хранения. Но ускорители сейчас стали очень мощными и могут простаивать в ожидании информации для обработки, так как перегруженный сервер просто не может снабдить их свежими данными достаточно быстро.

Технология GPUDirect Storage исключает центральный процессор хост-сервера и его память из цепочки, и устанавливает прямую связь между графическим процессором и устройством хранения данных. Причём это могут быть как локальные NVMe-накопители, так и удалённые, подключённые посредством NVMe-oF (NVMe over Fabrics). Фактически это ещё одна реализация (R)DMA. 

В своём блоге компания NVIDIA отметила, что использование технологии GPUDirect Storage в системе NVIDIA DGX-2 позволяет увеличить скорость передачи данных между хранилищем данных и графическим процессором от двух до восьми раз. В частности, указывается, что пропускная способность соединения между системной памятью и графическим процессором в NVIDIA DGX-2 составляет 50 Гбайт/с. А вот пропускная способность при объединении множества накопителей и сетевых адаптеров в том же DGX-2 может превышать 200 Гбайт/с.

Ранее Mellanox и NVIDIA представили GPUDirect RDMA для прямого обмена данными между GPU и сетевыми адаптерами без участия CPU. После покупки Mellanox компания NVIDIA сможет и дальше разивать стек технологий GPUDirect, что позволит ей меньше зависеть от других вендоров. Как знать, возможно, скоро мы увидим ускорители Tesla со встроенными адаптерами InfiniBand. В конце концов, индустрия всё больше засматривается на архитектуру с физическим разделением функциональных блоков в пределах стойки: пару-тройку юнитов на память, ещё несколько на вычислительные узлы разного типа, а остальное под СХД. 

Постоянный URL: http://servernews.ru/992055
20.06.2019 [14:55], Сергей Карасёв

Облачная платформа Linode предлагает в аренду GPU-ресурсы на базе Quadro RTX 6000

Американская компания Linode, предоставляющая облачные усулуги, начала сдавать в аренду вычислительные ресурсы на базе графических ускорителей (GPU).

Речь идёт о картах NVIDIA Quadro RTX 6000, которые созданы на базе архитектуры NVIDIA Turing и платформы NVIDIA RTX. Конфигурация предусматривает использование 4608 ядер CUDA, 576 тензорных ядер и 72 ядер NVIDIA RT. Объём памяти GDDR6 равен 24 Гбайт.

В настоящее время цена ускорителей Quadro RTX 6000 составляет около 4000 долларов США. Компания Linode предоставляет доступ к вычислительным ресурсам этих карт на повременной основе. 

К примеру, за 1000 долларов в месяц будут доступны один ускоритель Quadro RTX 6000, восемь процессорных (CPU) ядер и 32 Гбайт оперативной памяти. А за 4000 долларов США в месяц можно получить доступ к четырём картам Quadro RTX 6000, 24 вычислительным ядрам и 128 Гбайт оперативной памяти.

Пока новые облачные услуги предоставляются в тестовом режиме. Отметим, что Linode одной из последних среди пионеров облачного хостинга стала сдавать в аренду GPU-ресуры.

Постоянный URL: http://servernews.ru/989511
09.04.2019 [20:31], Андрей Крупин

REG.RU предложил почасовую оплату облачных вычислений на базе NVIDIA GPU

Регистратор и хостинг-провайдер REG.RU сообщил пересмотре тарифной сетки на услуги сервиса высокопроизводительных GPU-вычислений, предназначенного для решения задач, связанных с искусственным интеллектом, машинным обучением и анализом больших массивов данных. Теперь пользователям стала доступа почасовая оплата облачных вычислений. Ранее заказать услугу можно было только в формате посуточной или помесячной оплаты.

В основу предлагаемого компанией REG.RU сервиса положены GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения может достигать 125 терафлопс. Исходя из потребностей пользователя, в рамках услуги можно подключить до 8 вычислительных ускорителей к одному виртуальному контейнеру либо арендовать физический сервер целиком. Через панель управления клиент может самостоятельно разворачивать и удалять серверы, выбирать преднастроенные шаблоны виртуального окружения с Ubuntu или Windows и производить базовые действия с сервисом.

Для максимальной производительности и удобства работы при обучении нейросетей облако REG.RU сделано совместимым с контейнерами NVIDIA GPU Cloud (NGC) — это экономит время пользователя на разворачивании и последующей работе с ПО. Репозиторий NGC обеспечивает свободный доступ к каталогу GPU-ускоренных контейнеров, который включает ведущие фреймворки и оптимизированное NVIDIA программное обеспечение для глубокого обучения, инструменты для HPC-визуализации и сторонние HPC-приложения.

Получить доступ к системе облачных вычислений REG.RU на базе NVIDIA GPU можно по ссылке reg.ru/cloud-services/cloud_gpu. На время бета-тестирования, до 1 июня 2019 года, минимальная стоимость пользования сервисом составляет 90 рублей за час работы.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/985596
09.04.2019 [11:35], Андрей Созинов

NVIDIA RC 18: прототип процессора для глубокого обучения из 36 отдельных кристаллов

Компания NVIDIA работает над созданием нового решения, предназначенного для работы с искусственным интеллектом, которое называется RC 18. Ключевой особенностью данного чипа является то, что он будет представлять собой «склейку» из нескольких кристаллов, то есть станет мультичиповым решением.

Инженеры NVIDIA Research создали прототип процессора, который состоит сразу из 36 модулей. Несмотря на столь большое количество кристаллов, площадь чипа довольно небольшая. Всё дело в том, что кристаллы весьма компактные, хоть и производятся по не самому «тонкому» 16-нм техпроцессу компанией TSMC. Напомним, что по таким же нормам производятся графические процессоры Pascal.

Каждый из 36 модулей состоит из 16 процессорных элементов (Processing Elements, PE), являющихся базовыми процессорными ядрами с архитектурой RISC-V Rocket. Кроме того, у модуля есть буфер памяти и восемь каналов GRS (Ground-Referenced Signaling) для операций ввода/вывода с общей пропускной способностью в 100 Гбайт/с, что весьма немало.

На данный момент RC 18 является скорее экспериментальной разработкой, нежели прототипом некоего готовящегося продукта. Этот многочиповый модуль (Multi-chip module, MCM) предназначен для ускорения глубокого обучения искусственного интеллекта и его главной особенностью является высокий уровень масштабируемости. То есть изменять производительность такого MCM-модуля куда проще, чем чипа с монолитным кристаллом, ведь можно просто добавлять или убирать кристаллы с процессорными элементами.

Чип RC 18 создан для ускорения процесса глубокого обучения, что само по себе не очень интересно для рядовых пользователей. Тем не менее, многие из технологий, которые делают возможным создание и работу данного многочипового модуля, могут найти применение в будущих графических процессорах NVIDIA. Компания ранее уже заявляла о том, что рассматривает варианты создания GPU из нескольких кристаллов. И RC 18 является одним из шагов на пути к этому.

«Этот чип (RC 18 — прим. ред.) обладает таким преимуществом, как способность продемонстрировать сразу множество технологий, — отмечает Билл Дэлли (Bill Dally), глава NVIDIA Research. — Одной из технологий является масштабируемая архитектура для глубокого обучения. Другой является очень эффективная технология интерконнекта на органической основе».

Некоторые из технологий, применённых в RC 18, однажды могут стать ключевыми при создании больших высокопроизводительных графических процессоров из нескольких кристаллов. Например, это может быть ячеистая топология, передача сигналов с малой задержкой с помощью GRS, объектно-ориентированный высокоуровневый синтез (Object-Oriented High-Level Synthesis, OOHLS) и технология GALS (Globally Asynchronous Locally Synchronous).

Заметим, что NVIDIA является не первой компанией, которая планирует создание графического процессора из нескольких кристаллов. Некоторое время назад компания AMD также говорила о том, что её шина Infinity Fabric, используемая в центральных процессорах, может найти применение в области GPU. Однако создание таких графических процессоров сопряжено с рядом трудностей, одна из которых заключается в том, чтобы заставить программное обеспечение воспринимать «склейку» как единый GPU. Иначе получится связка SLI или CrossFire, что для потребительских видеокарт означает не самую высокую эффективность. Но когда-то многочиповые модули могут стать вполне обычным явлением для настольных видеокарт.

Постоянный URL: http://servernews.ru/985537
27.12.2018 [13:00], Сергей Карасёв

Сервер башенного типа GIGABYTE W291-Z00 допускает установку четырёх GPGPU-карт

Компания GIGABYTE анонсировала сервер башенного типа W291-Z00, рассчитанный на использование в сфере малого и среднего бизнеса.

Устройство заключено в корпус с габаритами 200 × 450,2 × 642,2 мм. Применена материнская плата MZ01-CE1 с возможностью установки одного процессора AMD EPYC 7000 Series с количеством вычислительных ядер до 32. В системе можно задействовать до 1 Тбайт оперативной памяти DDR4-2666/2400/2133 в конфигурации 8 × 128 Гбайт.

Предусмотрены четыре слота PCIe x16 и один слот PCIe x8. Таким образом, в сервер можно установить до четырёх ускорителей GPGPU, обеспечивающих возможность выполнения неспециализированных вычислений на графических процессорах.

Допускается монтаж до двенадцати накопителей в форм-факторе 3,5 или 2,5 дюйма с интерфейсом Serial ATA 3.0. Во фронтальной части предусмотрены отсеки для четырёх дисков типоразмера 3,5/2,5 дюйма с возможностью «горячей» замены. Имеется также коннектор M.2.

Сервер оснащён двумя гигабитными сетевыми портами (Intel I210-AT), дополнительным сетевым портом управления Management LAN, аналоговым разъёмом D-Sub, четырьмя портами USB 3.0. В оснащение входят два блока питания мощностью 1600 Вт каждый.

Гарантирована совместимость с платформами Windows Server 2012 R2 (x64), Windows Server 2016, Red Hat Enterprise Linux 7.4, SUSE Linux Enterprise Server 11.4 / 12.2, Ubuntu 16.04 / 17.04, VMware ESXi 6.5. 

Постоянный URL: http://servernews.ru/980310
29.11.2018 [16:00], Сергей Карасёв

GIGABYTE G191-H44: сервер GPGPU в форм-факторе 1U

Компания GIGABYTE анонсировала GPGPU-сервер G191-H44, предназначенный для решения задач в области искусственного интеллекта, машинного обучения, финансовой аналитики и т. п.

Напомним, что концепция GPGPU предусматривает выполнение неспециализированных вычислений на графических процессорах. В случае нового сервера возможна установка четырёх соответствующих ускорителей, скажем, NVIDIA Tesla V100.

Новинка выполнена в формате 1U с применением набора логики Intel C621 Express. Допускается установка двух процессоров Intel Xeon Scalable (LGA 3647) с максимальным значением рассеиваемой тепловой энергии до 205 Вт.

Сервер оборудован 24 слотами для модулей оперативной памяти DDR4-2666/2400/2133. Есть два отсека для внутренних 2,5-дюймовых накопителей и два отсека для 2,5-дюймовых устройств с возможностью «горячей» замены. Возможна также установка двух дополнительных низкопрофильных карт расширения PCIe.

Устройство наделено двухпортовым гигабитным сетевым контроллером Intel I350-AM2 и вспомогательным портом управления 10/100/1000 Management LAN.

Габариты составляют 430 × 43,5 × 900 мм. На фронтальную панель выведены гнёзда для сетевых кабелей, два порта USB 3.0, разъём D-Sub и последовательный порт. 

Постоянный URL: http://servernews.ru/978910
03.08.2018 [12:50], Сергей Карасёв

Новые GPU-серверы GIGABYTE полагаются на платформу AMD EPYC 7000

Компания GIGABYTE анонсировала серверы G291-Z20 и G221-Z30, выполненные в формате 2U: устройства рассчитаны на монтаж в стойку.

Обе новинки полагаются на платформу AMD EPYC 7000: может быть установлен процессор с 32 вычислительными ядрами. Присутствуют два сетевых порта SFP+ 10Gb LAN, а также дополнительный гигабитный порт Management LAN.

Модель G291-Z20 допускает применение восьми двуслотовых карт GPGPU. Предусмотрены восемь разъёмов для модулей оперативной памяти DDR4. В системе можно задействовать восемь накопителей типоразмера 2,5 дюйма.

Сервер G221-Z30, в свою очередь, позволяет использовать две карты GPGPU в двуслотовом исполнении. Эта система может быть снабжена шестнадцатью модулями оперативной памяти DDR4 и шестнадцатью накопителями в форм-факторе 2,5 дюйма с поддержкой «горячей» замены.

Устройства наделены портами USB 3.0 и аналоговым интерфейсом D-Sub. Говорится о совместимости с программными платформами Windows Server 2012 R2 (x64), Windows Server 2016, Red Hat Enterprise Linux 6.9/7.3, SUSE Linux Enterprise Server 11.4/12.2, Ubuntu 16.04/17.04 и VMware ESXi 6.5.

Сроки начала продаж GPU-серверов GIGABYTE G291-Z20 и G221-Z30 и их цена не раскрываются. 

Постоянный URL: http://servernews.ru/973483
04.06.2018 [09:00], Андрей Крупин

REG.RU запустил сервис облачных вычислений на базе NVIDIA GPU

Регистратор и хостинг-провайдер REG.RU дополнил свою облачную B2B-инфраструктуру новым сервисом высокопроизводительных GPU-вычислений, предназначенным для решения задач, связанных с искусственным интеллектом и машинным обучением.

В основу нового сервиса положены  GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения может достигать 125 терафлопс. Исходя из потребностей пользователя, в рамках услуги можно подключить до 8 вычислительных ускорителей к одному виртуальному контейнеру либо арендовать физический сервер целиком.

Для максимальной производительности и удобства работы при обучении нейросетей облако REG.RU сделано совместимым с контейнерами NVIDIA GPU Cloud (NGC) — это сэкономит время пользователя на разворачивании и последующей работе с ПО. Репозитарий NGC обеспечивает свободный доступ к каталогу GPU-ускоренных контейнеров, который включает ведущие фреймворки и оптимизированное NVIDIA программное обеспечение для глубокого обучения, инструменты для HPC-визуализации и сторонние HPC-приложения.

Получить доступ к системе облачных вычислений REG.RU на базе NVIDIA GPU можно по ссылке reg.ru/cloud-services/cloud_gpu. Заказать услугу «Облачные вычисления на GPU» можно в формате посуточной или помесячной оплаты. Стоимость одного ускорителя Tesla V100 составляет от 2500 рублей в сутки или 80 тысяч рублей в месяц и может меняться в зависимости от потребностей клиента.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/970677
Система Orphus