Материалы по тегу: gpu

20.06.2019 [14:55], Сергей Карасёв

Облачная платформа Linode предлагает в аренду GPU-ресурсы на базе Quadro RTX 6000

Американская компания Linode, предоставляющая облачные усулуги, начала сдавать в аренду вычислительные ресурсы на базе графических ускорителей (GPU).

Речь идёт о картах NVIDIA Quadro RTX 6000, которые созданы на базе архитектуры NVIDIA Turing и платформы NVIDIA RTX. Конфигурация предусматривает использование 4608 ядер CUDA, 576 тензорных ядер и 72 ядер NVIDIA RT. Объём памяти GDDR6 равен 24 Гбайт.

В настоящее время цена ускорителей Quadro RTX 6000 составляет около 4000 долларов США. Компания Linode предоставляет доступ к вычислительным ресурсам этих карт на повременной основе. 

К примеру, за 1000 долларов в месяц будут доступны один ускоритель Quadro RTX 6000, восемь процессорных (CPU) ядер и 32 Гбайт оперативной памяти. А за 4000 долларов США в месяц можно получить доступ к четырём картам Quadro RTX 6000, 24 вычислительным ядрам и 128 Гбайт оперативной памяти.

Пока новые облачные услуги предоставляются в тестовом режиме. Отметим, что Linode одной из последних среди пионеров облачного хостинга стала сдавать в аренду GPU-ресуры.

Постоянный URL: http://servernews.ru/989511
09.04.2019 [20:31], Андрей Крупин

REG.RU предложил почасовую оплату облачных вычислений на базе NVIDIA GPU

Регистратор и хостинг-провайдер REG.RU сообщил пересмотре тарифной сетки на услуги сервиса высокопроизводительных GPU-вычислений, предназначенного для решения задач, связанных с искусственным интеллектом, машинным обучением и анализом больших массивов данных. Теперь пользователям стала доступа почасовая оплата облачных вычислений. Ранее заказать услугу можно было только в формате посуточной или помесячной оплаты.

В основу предлагаемого компанией REG.RU сервиса положены GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения может достигать 125 терафлопс. Исходя из потребностей пользователя, в рамках услуги можно подключить до 8 вычислительных ускорителей к одному виртуальному контейнеру либо арендовать физический сервер целиком. Через панель управления клиент может самостоятельно разворачивать и удалять серверы, выбирать преднастроенные шаблоны виртуального окружения с Ubuntu или Windows и производить базовые действия с сервисом.

Для максимальной производительности и удобства работы при обучении нейросетей облако REG.RU сделано совместимым с контейнерами NVIDIA GPU Cloud (NGC) — это экономит время пользователя на разворачивании и последующей работе с ПО. Репозиторий NGC обеспечивает свободный доступ к каталогу GPU-ускоренных контейнеров, который включает ведущие фреймворки и оптимизированное NVIDIA программное обеспечение для глубокого обучения, инструменты для HPC-визуализации и сторонние HPC-приложения.

Получить доступ к системе облачных вычислений REG.RU на базе NVIDIA GPU можно по ссылке reg.ru/cloud-services/cloud_gpu. На время бета-тестирования, до 1 июня 2019 года, минимальная стоимость пользования сервисом составляет 90 рублей за час работы.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/985596
09.04.2019 [11:35], Андрей Созинов

NVIDIA RC 18: прототип процессора для глубокого обучения из 36 отдельных кристаллов

Компания NVIDIA работает над созданием нового решения, предназначенного для работы с искусственным интеллектом, которое называется RC 18. Ключевой особенностью данного чипа является то, что он будет представлять собой «склейку» из нескольких кристаллов, то есть станет мультичиповым решением.

Инженеры NVIDIA Research создали прототип процессора, который состоит сразу из 36 модулей. Несмотря на столь большое количество кристаллов, площадь чипа довольно небольшая. Всё дело в том, что кристаллы весьма компактные, хоть и производятся по не самому «тонкому» 16-нм техпроцессу компанией TSMC. Напомним, что по таким же нормам производятся графические процессоры Pascal.

Каждый из 36 модулей состоит из 16 процессорных элементов (Processing Elements, PE), являющихся базовыми процессорными ядрами с архитектурой RISC-V Rocket. Кроме того, у модуля есть буфер памяти и восемь каналов GRS (Ground-Referenced Signaling) для операций ввода/вывода с общей пропускной способностью в 100 Гбайт/с, что весьма немало.

На данный момент RC 18 является скорее экспериментальной разработкой, нежели прототипом некоего готовящегося продукта. Этот многочиповый модуль (Multi-chip module, MCM) предназначен для ускорения глубокого обучения искусственного интеллекта и его главной особенностью является высокий уровень масштабируемости. То есть изменять производительность такого MCM-модуля куда проще, чем чипа с монолитным кристаллом, ведь можно просто добавлять или убирать кристаллы с процессорными элементами.

Чип RC 18 создан для ускорения процесса глубокого обучения, что само по себе не очень интересно для рядовых пользователей. Тем не менее, многие из технологий, которые делают возможным создание и работу данного многочипового модуля, могут найти применение в будущих графических процессорах NVIDIA. Компания ранее уже заявляла о том, что рассматривает варианты создания GPU из нескольких кристаллов. И RC 18 является одним из шагов на пути к этому.

«Этот чип (RC 18 — прим. ред.) обладает таким преимуществом, как способность продемонстрировать сразу множество технологий, — отмечает Билл Дэлли (Bill Dally), глава NVIDIA Research. — Одной из технологий является масштабируемая архитектура для глубокого обучения. Другой является очень эффективная технология интерконнекта на органической основе».

Некоторые из технологий, применённых в RC 18, однажды могут стать ключевыми при создании больших высокопроизводительных графических процессоров из нескольких кристаллов. Например, это может быть ячеистая топология, передача сигналов с малой задержкой с помощью GRS, объектно-ориентированный высокоуровневый синтез (Object-Oriented High-Level Synthesis, OOHLS) и технология GALS (Globally Asynchronous Locally Synchronous).

Заметим, что NVIDIA является не первой компанией, которая планирует создание графического процессора из нескольких кристаллов. Некоторое время назад компания AMD также говорила о том, что её шина Infinity Fabric, используемая в центральных процессорах, может найти применение в области GPU. Однако создание таких графических процессоров сопряжено с рядом трудностей, одна из которых заключается в том, чтобы заставить программное обеспечение воспринимать «склейку» как единый GPU. Иначе получится связка SLI или CrossFire, что для потребительских видеокарт означает не самую высокую эффективность. Но когда-то многочиповые модули могут стать вполне обычным явлением для настольных видеокарт.

Постоянный URL: http://servernews.ru/985537
27.12.2018 [13:00], Сергей Карасёв

Сервер башенного типа GIGABYTE W291-Z00 допускает установку четырёх GPGPU-карт

Компания GIGABYTE анонсировала сервер башенного типа W291-Z00, рассчитанный на использование в сфере малого и среднего бизнеса.

Устройство заключено в корпус с габаритами 200 × 450,2 × 642,2 мм. Применена материнская плата MZ01-CE1 с возможностью установки одного процессора AMD EPYC 7000 Series с количеством вычислительных ядер до 32. В системе можно задействовать до 1 Тбайт оперативной памяти DDR4-2666/2400/2133 в конфигурации 8 × 128 Гбайт.

Предусмотрены четыре слота PCIe x16 и один слот PCIe x8. Таким образом, в сервер можно установить до четырёх ускорителей GPGPU, обеспечивающих возможность выполнения неспециализированных вычислений на графических процессорах.

Допускается монтаж до двенадцати накопителей в форм-факторе 3,5 или 2,5 дюйма с интерфейсом Serial ATA 3.0. Во фронтальной части предусмотрены отсеки для четырёх дисков типоразмера 3,5/2,5 дюйма с возможностью «горячей» замены. Имеется также коннектор M.2.

Сервер оснащён двумя гигабитными сетевыми портами (Intel I210-AT), дополнительным сетевым портом управления Management LAN, аналоговым разъёмом D-Sub, четырьмя портами USB 3.0. В оснащение входят два блока питания мощностью 1600 Вт каждый.

Гарантирована совместимость с платформами Windows Server 2012 R2 (x64), Windows Server 2016, Red Hat Enterprise Linux 7.4, SUSE Linux Enterprise Server 11.4 / 12.2, Ubuntu 16.04 / 17.04, VMware ESXi 6.5. 

Постоянный URL: http://servernews.ru/980310
29.11.2018 [16:00], Сергей Карасёв

GIGABYTE G191-H44: сервер GPGPU в форм-факторе 1U

Компания GIGABYTE анонсировала GPGPU-сервер G191-H44, предназначенный для решения задач в области искусственного интеллекта, машинного обучения, финансовой аналитики и т. п.

Напомним, что концепция GPGPU предусматривает выполнение неспециализированных вычислений на графических процессорах. В случае нового сервера возможна установка четырёх соответствующих ускорителей, скажем, NVIDIA Tesla V100.

Новинка выполнена в формате 1U с применением набора логики Intel C621 Express. Допускается установка двух процессоров Intel Xeon Scalable (LGA 3647) с максимальным значением рассеиваемой тепловой энергии до 205 Вт.

Сервер оборудован 24 слотами для модулей оперативной памяти DDR4-2666/2400/2133. Есть два отсека для внутренних 2,5-дюймовых накопителей и два отсека для 2,5-дюймовых устройств с возможностью «горячей» замены. Возможна также установка двух дополнительных низкопрофильных карт расширения PCIe.

Устройство наделено двухпортовым гигабитным сетевым контроллером Intel I350-AM2 и вспомогательным портом управления 10/100/1000 Management LAN.

Габариты составляют 430 × 43,5 × 900 мм. На фронтальную панель выведены гнёзда для сетевых кабелей, два порта USB 3.0, разъём D-Sub и последовательный порт. 

Постоянный URL: http://servernews.ru/978910
03.08.2018 [12:50], Сергей Карасёв

Новые GPU-серверы GIGABYTE полагаются на платформу AMD EPYC 7000

Компания GIGABYTE анонсировала серверы G291-Z20 и G221-Z30, выполненные в формате 2U: устройства рассчитаны на монтаж в стойку.

Обе новинки полагаются на платформу AMD EPYC 7000: может быть установлен процессор с 32 вычислительными ядрами. Присутствуют два сетевых порта SFP+ 10Gb LAN, а также дополнительный гигабитный порт Management LAN.

Модель G291-Z20 допускает применение восьми двуслотовых карт GPGPU. Предусмотрены восемь разъёмов для модулей оперативной памяти DDR4. В системе можно задействовать восемь накопителей типоразмера 2,5 дюйма.

Сервер G221-Z30, в свою очередь, позволяет использовать две карты GPGPU в двуслотовом исполнении. Эта система может быть снабжена шестнадцатью модулями оперативной памяти DDR4 и шестнадцатью накопителями в форм-факторе 2,5 дюйма с поддержкой «горячей» замены.

Устройства наделены портами USB 3.0 и аналоговым интерфейсом D-Sub. Говорится о совместимости с программными платформами Windows Server 2012 R2 (x64), Windows Server 2016, Red Hat Enterprise Linux 6.9/7.3, SUSE Linux Enterprise Server 11.4/12.2, Ubuntu 16.04/17.04 и VMware ESXi 6.5.

Сроки начала продаж GPU-серверов GIGABYTE G291-Z20 и G221-Z30 и их цена не раскрываются. 

Постоянный URL: http://servernews.ru/973483
04.06.2018 [09:00], Андрей Крупин

REG.RU запустил сервис облачных вычислений на базе NVIDIA GPU

Регистратор и хостинг-провайдер REG.RU дополнил свою облачную B2B-инфраструктуру новым сервисом высокопроизводительных GPU-вычислений, предназначенным для решения задач, связанных с искусственным интеллектом и машинным обучением.

В основу нового сервиса положены  GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения может достигать 125 терафлопс. Исходя из потребностей пользователя, в рамках услуги можно подключить до 8 вычислительных ускорителей к одному виртуальному контейнеру либо арендовать физический сервер целиком.

Для максимальной производительности и удобства работы при обучении нейросетей облако REG.RU сделано совместимым с контейнерами NVIDIA GPU Cloud (NGC) — это сэкономит время пользователя на разворачивании и последующей работе с ПО. Репозитарий NGC обеспечивает свободный доступ к каталогу GPU-ускоренных контейнеров, который включает ведущие фреймворки и оптимизированное NVIDIA программное обеспечение для глубокого обучения, инструменты для HPC-визуализации и сторонние HPC-приложения.

Получить доступ к системе облачных вычислений REG.RU на базе NVIDIA GPU можно по ссылке reg.ru/cloud-services/cloud_gpu. Заказать услугу «Облачные вычисления на GPU» можно в формате посуточной или помесячной оплаты. Стоимость одного ускорителя Tesla V100 составляет от 2500 рублей в сутки или 80 тысяч рублей в месяц и может меняться в зависимости от потребностей клиента.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/970677
21.08.2017 [15:08], Сергей Карасёв

Huawei и MapD ускорят внедрение аналитических решений на базе GPU

Компании Huawei и MapD объявили о подписании протокола о намерениях с целью ускорить массовое внедрение аналитических решений на базе графических процессоров (GPU).

MapD специализируется на аналитическом программном обеспечении нового поколения. Такой софт использует массовый параллелизм современных GPU для быстрой обработки SQL-запросов и визуализации больших массивов данных. Платформа MapD включает в себя базу данных MapD Core и визуализационный клиент MapD Immerse. Решение обеспечивает производительность, которую невозможно получить при использовании традиционных систем на базе центральных процессоров (CPU). Программное обеспечение MapD работает локально и в облачных инфраструктурах.

По условиям соглашения, партнёры будут работать над улучшением совместимости и взаимодействия между серверами модельного ряда Huawei FusionServer и платформой для аналитики MapD. Утверждается, что оптимизация позволит обрабатывать миллиарды наборов данных за миллисекунды.

Компании намерены использовать свои инженерные ресурсы для реализации совместного научно-исследовательского проекта, который усилит как интеграцию программного и аппаратного обеспечения, так и поддержку сторонних приложений.

Договор предусматривает, что Huawei получит право продавать продукцию MapD по всему миру и внедрит базу данных MapD Core и визуализационный клиент MapD Immerse на гетерогенном сервере FusionServer G5500 — он применяется, в том числе, для создания кластера для сверхпроизводительных вычислений, состоящего из 32 графических процессоров. В свою очередь, MapD становится участником партнёрской программы Huawei. 

Постоянный URL: http://servernews.ru/957266
02.08.2017 [07:33], Андрей Крупин

HOSTKEY представила готовые конфигурации выделенных серверов на базе NVIDIA GTX1080 и GRID K2

Компания HOSTKEY, предоставляющая IT-услуги на базе дата-центров DataPro (Россия), Serverius (Нидерланды) и NY1 (США) уровня Tier III, объявила о расширении вычислительной инфраструктуры и доступности заказчикам готовых конфигураций выделенных серверов с графическими ускорителями NVIDIA GTX1080, GTX1080 Ti и GRID K2, которые могут быть использованы для решения широкого спектра задач, связанных с виртуальной реальностью, обработкой больших данных, визуализацией, машинным обучением и искусственным интеллектом на базе нейронных сетей.

Список конфигураций выделенных серверов на базе серии GTX1080 представлен в таблице ниже. GPU-серверы на основе популярных видеокарт GTX1080 Ti предназначены для решения широкого круга задач с помощью библиотек CUDA, не требующих вычислений с двойной точностью. Решения на базе GTX1080 хорошо справляются с нейросетями, транскодингом, стримингом и прочими вычислительными задачами.

В стоимость сервера входит 10 Тбайт трафика в месяц, 1 Гбит/с порт. Возможны вариации с процессорами, памятью, жёсткими дисками и операционными системами. Доступно объединение серверов в VLAN, предоставление общего дискового хранилища и т.п. Для аренды может быть предоставлен физический сервер или виртуальный сервер с гарантированными ресурсами, на усмотрение поставщика.

Что касается серверных машин с графическими картами GRID K2, то их вычислительные мощности могут быть задействованы для развёртывания высокопроизводительных виртуальных рабочих окружений. Подобного рода решения актуальны в таких сферах, как автоматизация проектирования (CAD), управление информацией в строительстве (BIM), управление жизненным циклом изделия (PLM), работа с системами архивации и передачи изображений в области здравоохранения, фото- и видеоредактирования.

Все серверы открыты для модификации и могут использоваться как самостоятельно, так и в составе кластеров. Такой подход позволяет заказчику подобрать оптимальную конфигурацию для решения любых задач. Подробную информацию о новых предложениях HOSTKEY можно найти на сайте hostkey.ru/dedicated/ru-gpu.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/956386
17.11.2016 [17:49], Константин Ходаковский

Ускорители AMD будут использоваться в облачной платформе Google в 2017 году

На мероприятии SC16 компания AMD сообщала, что её технологии будут доступны пользователям облачной платформы Google по всему миру. Начиная с 2017 года поисковый гигант задействует самые быстрые двухчиповые вычислительные ускорители AMD, FirePro S9300 x2, для ускорения вычислительного движка Google Compute Engine и служб машинного обучения Google Cloud Machine Learning.

AMD FirePro S9300 x2 могут производить высокопараллельные расчёты, включая сложные медицинские и финансовые симуляции, исследования сейсмической активности и подземных слоёв, машинного обучения, осуществлять рендеринг и кодирование видео, проводить научный анализ. Облачная платформа Google Cloud Platform сделает ресурсы ускорителей AMD доступными всем заинтересованным компаниям в мире.

«Графические процессоры представляют собой наилучшую комбинацию производительности и программируемости для уже существующих и только возникающих направлений анализа больших данных, — отмечает старший вице-президент и ведущий архитектор подразделения Radeon в AMD Раджа Кодури (Raja Koduri). — Применение нашей технологии в облачной платформе Google — доказательство прогресса AMD в области развития аппаратных GPU, а также нашей открытой вычислительной платформы Radeon Open Compute Platform. Последняя является единственной полностью открытой высокомасштабируемой вычислительной платформой GPU в мире. Мы ожидаем, что достигнутый нами текущий импульс в области GPU-вычислений будет ускоряться с выходом будущих аппаратных и программных продуктов, а также развития экосистемы промежуточного ПО и библиотек».

На днях AMD также выпустила свежую версию Radeon Open Compute Platform, в которой реализована программная поддержка новых ускорителей, добавлены некоторые математические библиотеки, расширена поддержка современных языков программирования для ускорения развития высокопроизводительных энергоэффективных гетерогенных вычислительных систем.

На SC16 компания также коснулась ряда других вопросов, включая работу технологий машинного обучения на серверах Supermicro; портирование CUDA-приложения Caffe на ускорители AMD через HIP Porting Tool; трассировку лучей и визуализацию в виртуальной реальности для HPC с помощью ускорителей AMD FirePro S9300 X2 и Radeon R9 Nano; и других.

Постоянный URL: http://servernews.ru/942911
Система Orphus