Материалы по тегу: nvidia

10.08.2017 [13:40], Алексей Степин

IBM ставит рекорды масштабируемости в сфере машинного обучения

Технологии машинного обучения и искусственного интеллекта на базе нейронных сетей в наши дни являются широко востребованными, на них возлагаются большие надежды в самых различных промышленных и научных отраслях. Очевидно также, что тенденция к распараллеливанию программных алгоритмов и не думает сокращаться, но не всякий софт хорошо масштабируется по мере роста количества вычислительных блоков. Компания IBM это понимает хорошо — она активно работает над оптимизацией программного обеспечения нейронных сетей. Буквально на днях разработчики «голубого гиганта» продемонстрировали новое ПО, которое одновременно ускоряет обучение нейронных сетей и повышает аккуратность самого обучения.

Добиться этого удалось путём программной оптимизации масштабирования при увеличении количества графических ускорителей в системе. Исследовательская группа, возглавляемая Хиллери Хантер (Hillery Hunter), фокусировала свои усилия на уменьшении времени тренировки нейросетей на больших объёмах данных. В таких задачах ждать получения результата можно часами и даже днями, а задачей исследователей было добиться сокращения этого временного промежутка до минут или даже секунд при сохранении или повышении точности. Для этого пришлось активно оптимизировать фирменное программное обеспечение IBM для эффективной работы в системах с большим количеством GPU-ускорителей.

Оптимизации, внесённые в комплекс ПО Distributed Deep Learning (DDL), позволили добиться 95 % эффективности масштабирования в системе с 256 ускорителями NVIDIA Tesla P100. Тестирование было проведено в системе Caffe на задачах распознавания изображений. Полученный результат является новым рекордом. Ранее этот рекорд составлял 89 % и был достигнут командой Facebook при использовании аналогичного аппаратного комплекса. Точность распознавания на базе из 7,5 миллионов изображений достигла 33,8 %, что тоже выше предыдущего достижения, равного 29,8 %. Казалось бы, немного, но предыдущий результат занял у Microsoft 10 дней обучения сети в 2014 году, в то время, как IBM удалось уложиться всего в 7 часов за счёт использования графических ускорителей серии Tesla.

Постоянный URL: http://servernews.ru/956738
02.08.2017 [12:00], Илья Гавриченков

NVIDIA начала поставлять Volta

AMD Vega – не единственная новая графическая архитектура, которая приходит на рынок этим летом. Поставки новых процессоров поколения Volta параллельно начала и NVIDIA, правда речь в данном случае идёт о GPU для расчётов в области искусственного интеллекта и глубинного обучения. Тем не менее, обойти вниманием это событие нельзя, поскольку продажи Volta стартовали раньше ожидаемого срока. Впрочем, это вряд ли может означать, что игровые видеокарты на базе NVIDIA Volta появятся в обозримом будущем.

Как сообщает Fudzilla, первая партия ускорителей Tesla V100, основанных на процессорах Volta GV100, была отгружена клиентам в составе обновлённых суперкомпьютерных модулей DGX-1 стоимостью $149 тыс. Каждый такой модуль, напомним, содержит восемь плат Tesla V100, которые в сумме могут предоставить разработчикам массив из более чем 40 тысяч CUDA-процессоров.

Первое поколение систем DGX-1 стоимостью $129 тыс, которое базировалось на картах Tesla P100, стало доступно в сентябре прошлого года, спустя полгода после премьеры архитектуры Pascal на конференции GTC 2016. Ускорители же Tesla V100 на базе архитектуры Volta, как можно судить по началу поставок обновлённых модулей DGX-1, оказались готовы к массовому выпуску заметно быстрее своих предшественников – спустя всего три месяца после анонса на мероприятии GTC 2017, которое прошло в мае. Это косвенно указывает на то, что цикл подготовки к серийному производству GPU поколения Volta оказался короче, чем в случае с процессором прошлого поколения, и NVIDIA потенциально готова начинать внедрение новой архитектуры в другие рыночные сегменты.

Это особенно важно, поскольку лежащий в основе Tesla V100 процессор GV100 – очень сложный чип площадью 815 мм2, состоящий из 21,1 млрд транзисторов. Глава NVIDIA, Дженсен Хуанг (Jensen Huang) в своё время называл Volta «самым большим чипом, который только можно сделать». Тем не менее, никаких проблем с его изготовлением по новому 12-нм FFN-техпроцессу, как можно судить, у TSMC не возникло.

В то же время столь скорое появление первых серийных профессиональных решений семейства Volta вряд ли можно считать признаком того, что игровые карты с перспективной архитектурой выйдут в обозримом будущем. Несколько дней тому назад мы стали свидетелями «триумфального возвращения AMD в область графики для энтузиастов» (так охарактеризовал выход Vega глава маркетингового отдела AMD, Крис Хук (Chris Hook)), однако это событие вряд ли способно подтолкнуть NVIDIA к каким-то активным действиям. Даже после появления на прилавках Radeon RX Vega 64 флагманский игровой ускоритель GeForce GTX 1080 Ti, очевидно, сохранит своё безальтернативное лидирующее положение. А это значит, что игровые видеокарты на базе Volta вряд ли увидят свет в текущем году, несмотря на циркулировавшие ранее слухи.

Постоянный URL: http://servernews.ru/956366
02.08.2017 [07:33], Андрей Крупин

HOSTKEY представила готовые конфигурации выделенных серверов на базе NVIDIA GTX1080 и GRID K2

Компания HOSTKEY, предоставляющая IT-услуги на базе дата-центров DataPro (Россия), Serverius (Нидерланды) и NY1 (США) уровня Tier III, объявила о расширении вычислительной инфраструктуры и доступности заказчикам готовых конфигураций выделенных серверов с графическими ускорителями NVIDIA GTX1080, GTX1080 Ti и GRID K2, которые могут быть использованы для решения широкого спектра задач, связанных с виртуальной реальностью, обработкой больших данных, визуализацией, машинным обучением и искусственным интеллектом на базе нейронных сетей.

Список конфигураций выделенных серверов на базе серии GTX1080 представлен в таблице ниже. GPU-серверы на основе популярных видеокарт GTX1080 Ti предназначены для решения широкого круга задач с помощью библиотек CUDA, не требующих вычислений с двойной точностью. Решения на базе GTX1080 хорошо справляются с нейросетями, транскодингом, стримингом и прочими вычислительными задачами.

В стоимость сервера входит 10 Тбайт трафика в месяц, 1 Гбит/с порт. Возможны вариации с процессорами, памятью, жёсткими дисками и операционными системами. Доступно объединение серверов в VLAN, предоставление общего дискового хранилища и т.п. Для аренды может быть предоставлен физический сервер или виртуальный сервер с гарантированными ресурсами, на усмотрение поставщика.

Что касается серверных машин с графическими картами GRID K2, то их вычислительные мощности могут быть задействованы для развёртывания высокопроизводительных виртуальных рабочих окружений. Подобного рода решения актуальны в таких сферах, как автоматизация проектирования (CAD), управление информацией в строительстве (BIM), управление жизненным циклом изделия (PLM), работа с системами архивации и передачи изображений в области здравоохранения, фото- и видеоредактирования.

Все серверы открыты для модификации и могут использоваться как самостоятельно, так и в составе кластеров. Такой подход позволяет заказчику подобрать оптимальную конфигурацию для решения любых задач. Подробную информацию о новых предложениях HOSTKEY можно найти на сайте hostkey.ru/dedicated/ru-gpu.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/956386
27.06.2017 [14:04], Сергей Юртайкин

Dell EMC и NVIDIA начали совместно создавать решения для ЦОДов

Dell EMC и NVIDIA сообщили о сотрудничестве в создании новых решений для дата-центров и систем с высокой рабочей нагрузкой.

Согласно совместному заявлению компаний, они будут совместно разрабатывать новые продукты с ускорением графической производительности для высокопроизводительных вычислений, а также технологии анализа данных и искусственного интеллекта.

wsj.com

wsj.com

Кроме того, партнёры будут работать в области новой архитектуры Volta и собираются выпустить решения на её основе до конца 2017 года.

«Глубокое обучение во все большей степени становится стратегическим императивом для каждой крупной технологической компании, проникает во все аспекты работы. В частности, искусственный интеллект развивается благодаря значительному росту вычислительной мощности GPU, бросающему вызов замедлению закона Мура. Работа, которую мы делаем, чтобы продвигать вычисления на GPU вместе с Dell EMC, расширит возможности разработчиков в области ИИ: они соревнуются в создании новых инфраструктур для решения самых сложных задач нашего времени», — сообщил вице-президент и глава подразделения Nvidia Accelerated Computing Group Ян Бак (Ian Buck).

Некоторые суперкомпьютеры Dell EMC входят в число самых мощных, по данным рейтинга Top500. Среди них — система Wilkes-2, которая занимает 100-ю позицию в списке Top500 и 5-е место в списке Green500, а также является самым большим суперкомпьютером с GPU в Великобритании и обладает наиболее высокой производительностью среди систем Dell EMC в рейтинге Green500.

Постоянный URL: http://servernews.ru/954541
21.06.2017 [23:38], Иван Грудцын

В «меню» PNY на ISC 2017 — ускорители Quadro, Tesla и мощные серверы

Известный поставщик серверных решений, компания PNY, не могла пропустить выставку ISC 2017, где продемонстрировала свой ассортимент видеоадаптеров и систем в сборе. Большинство прототипов и продуктов полностью изготовлены на производственных мощностях подрядчиков и партнёров американской компании, в числе которых ASUS, Gigabyte, NVIDIA, Supermicro, TYAN и другие. Как бы то ни было, приобрести их зачастую можно только через PNY Technologies (в том числе и на российском рынке).

PNY уже давно занимается поставками ускорителей Quadro, но в этом году взялась отгружать ещё и модели Tesla. Официальный анонс PCI-E версии Tesla V100 состоялся только на днях, поэтому в компании решили ограничиться демонстрацией на стенде адаптера предыдущего поколения — Tesla P100. Продукт TCSP100M-16GB-PB оснащён графическим процессором NVIDIA GP100 (3584 шейдерных блоков) и 16 Гбайт памяти HBM2 с функцией контроля ошибок. В вычислениях двойной точности (FP64) карта обеспечивает быстродействие на уровне 4,67 Тфлопс, а её энергопотребление составляет 250 Вт.

Без Quadro также не обошлось: перед нами модель Quadro GP100 (PNY VCQGP100-PB) с теми же 3584 ядрами CUDA и 16 Гбайт HBM2, что и у Tesla P100. За счёт более высокой частоты GPU «чистая» производительность увеличена до 5,15 Тфлопс (FP64), а максимальное энергопотребление, наоборот, немного ниже — 235 Вт. В число видеовыходов включены DVI-D и квартет DisplayPort 1.4.

Дистрибуция серверов NVIDIA DGX-1 для вычислений, связанных с искусственным интеллектом, также не чужда PNY. Система DGX-1 первого поколения (на фото) содержит восемь ускорителей Tesla P100 с суммарной производительностью 170 Тфлопс (FP16). Среди прочего, сервер включает два 20-ядерных процессора Intel Xeon E5-2698 v4, 512 Гбайт памяти DDR4-2133 и четыре 1,92-Тбайт SSD-накопителя в RAID 0.

А так выглядит NVIDIA DGX-1 второго поколения (наше фото с ISC 2017):

Имеются в ассортименте PNY и серверы попроще. Как, например, следующая двухпроцессорная система с платой Gigabyte:

Однако системы наподобие PNY/TYAN FT77D-B7109 (см. ниже) всё-таки выглядят более впечатляюще. Мощь восьми ускорителей NVIDIA и двух Xeon может использоваться для научных исследований широкого спектра, анализа генетических последовательностей, обнаружения месторождений нефти и газа, масштабных проектов в области распознавания лиц и расшифровки важных данных методом полного перебора или «грубой силы» (англ. brute force). В 4U-корпусе также имеются посадочные места для четырнадцати 2,5-дюймовых SSD и четырёх M.2-накопителей.

Посетители ISC 2017 могли оценить прямо со стенда PNY работу кластера компании в г. Бордо. Для доступа к ресурсам HPC-системы было достаточно воспользоваться QR-кодом.

Постоянный URL: http://servernews.ru/954336
30.05.2017 [12:39], Геннадий Детинич

NVIDIA и тайваньские ODM-производители наполнят мир ИИ-ускорителями

В ходе выступления на открытии Computex 2017 глава NVIDIA Дженсен Хуанг сделал ряд заявлений, которые призваны подчеркнуть новую роль компании в меняющемся мире. Новый мир обещает оказаться наполненным платформами и решениями с зачатками искусственного интеллекта. Десять лет назад всё началось с поглощения AMD компании ATI, что вылилось в создание гибридных решений и технологий GPGPU, которые позволили графическим ядрам выполнять неграфические расчёты. В активе NVIDIA нет собственных вычислительных скалярных ядер, но технология CUDA компании для решения задач с помощью GPGPU стала более популярной, чем аналогичная технология AMD.

www.extremetech.com

www.extremetech.com

Тема искусственного интеллекта и глубокого машинного обучения вдохнула в GPGPU-платформы новую жизнь. Графические процессоры с множеством потоковых процессоров оптимально подходят для ускорения «ИИ-расчётов» с одинарной (FP32) и половинной (FP16) точностью. Появляется возможность собрать суперкомпьютер для ИИ буквально размером с тумбочку. Это закроет нужды в подобных вычислительных ресурсах для массы небольших фирм и учебных учреждений, а для центров обработки данных открываются перспективы едва ли не безграничного масштабирования соответствующих ресурсов. Отдать клиенту ровно столько, сколько он требует — это высший пилотаж любого сервиса, и NVIDIA готова в этом помочь.

Полочный компьютер NVIDIA DGX-1 на адаптерах с графическими процессорами P100 или V100

Полочный компьютер NVIDIA DGX-1 на адаптерах с графическими процессорами P100 или V100

Год назад компания представила полочный компьютер DGX-1 на адаптерах с графическими процессорами P100 (архитектура Pascal). Неделями ранее платформа DGX-1 получила обновление в виде адаптеров с GPU V100 (архитектура Volta). Это система с восемью ускорителями в формфакторе SXM2. Между собой ускорители связаны в «кубическую» ячеистую сеть через интерфейс NVIDIA NVLink. Одна такая полка в операциях с половинной точностью обеспечивает производительность на уровне 960 Тфлопс. Помимо восьми адаптеров Tesla V100 в состав DGX-1 входит пара процессоров Intel Xeon, обеспечивая загрузку операционной системы и GPGPU-вычисления.

Эталонная платформа NVIDIA HGX

Эталонная платформа NVIDIA HGX

Для использования DGX-1 в составе стандартных стоек в ЦОД в компании разработали эталонную платформу HGX на базе жидкостного охлаждения. Аппаратные конфигурации DGX-1 и HGX ничем не отличаются. Более того, DGX-1 на GPU P100 легко могут быть замены на DGX-1 с GPU V100. Чтобы наполнить рынок систем для ЦОД критической массой ускорителей, NVIDIA запустила в понедельник 29 мая партнёрскую программу по поддержке ряда тайваньских ODM-производителей. Среди партнёров можно обнаружить как давних клиентов NVIDIA — это компании Inventec, Quanta и Wistron, так и новое имя — компанию Foxconn.

Блок-схема эталонной платформы NVIDIA HGX (NVIDIA)

Блок-схема эталонной платформы NVIDIA HGX (NVIDIA)

В рамках партнёрской программы NVIDIA обещает разработчикам ранний доступ к документации и архитектуре HGX, а также всестороннюю техническую поддержку. Для компании важно заручится интересом со стороны тайваньских производителей, иначе их фокус внимания рискует переключиться на конкурирующие продукты Google (TPU),  AMD (Vega) и Intel (Xeon Phi).

Постоянный URL: http://servernews.ru/953054
12.05.2017 [14:59], Алексей Степин

Анонсированы новые платформы NVIDIA для разработчиков

Вчера мы рассказывали читателям о прототипе первой многопользовательской рабочей станции виртуальной реальности, которую NVIDIA представила на конференции GTC 2017. Она оснащена четырьмя ускорителями Quadro P6000 и позволяет четырём пользователям работать одновременно в единой среде VR. Но компания анонсировала и другие новинки, например, серию вычислительных станций на базе новой технологии Volta. В серию входят модели DGX-1, DGX Station и HGX.

Рабочая станция с четырьмя новыми процессорами NVIDIA Volta

Рабочая станция с четырьмя новыми процессорами NVIDIA Volta

Первая модель представляет собой стоечное решение с восемью ускорителями Tesla V100, что обеспечивает производительность порядка 960 тензорных терафлопс. По мнению NVIDIA это заменяет 400 обычных серверов. Стоит такая система $149 тысяч, а заказчики получат её уже в третьем квартале. Модель DGX Station выглядит совсем иначе: это рабочая станция в настольном исполнении, она содержит четыре ускорителя Tesla V100. В ней установлены версии ускорителей с разъёмами PCIe и тремя портами DisplayPort. Друг с другом, однако, платы общаются посредством NVLink. Стоит такая станция $69 тысяч.

Серверные варианты

Серверные варианты

Наконец, была представлена платформа NVIDIA HGX-1. Её назначение —  облачные вычисления. Она изначально рассчитана на работу в составе единой инфраструктуры ЦОД, причём эта инфраструктура должна предусматривать наличие единого контура жидкостного охлаждения, к которому платформа и подключается. Характеристики и производительность у HGX-1 аналогичны таковым параметрам у DGX-1, и она содержит восемь ускорителей Tesla V100 в версии с интерфейсом NVLink. Стоимость не оглашена, но она должна быть выше стоимости DGX-1.

Постоянный URL: http://servernews.ru/952092
14.04.2017 [12:23], Сергей Юртайкин

Суперкомпьютер NVIDIA DGX-1 вышел на российский рынок

IT-дистрибутор OCS сообщил о выводе суперкомпьютера NVIDIA DGX-1 на российский рынок. Система рассчитана на задачи в области искусственного интеллекта.

NVIDIA DGX-1 построен на профессиональных ускорителях Tesla P100, взаимодействующих посредством интерфейса NVIDIA NVLink, который обеспечивает 12-кратное превосходство в скорости обмена данными между GPU по сравнению с шиной PCI-E.

Программная составляющая включает NVIDIA DIGITS GPU Training System, NVIDIA Deep Learning SDK (CuDNN, NCCL), NVIDIA Docker для быстрого создания и обучения глубоких нейронных сетей, а также оптимизированные версии фреймворков глубинного обучения — Caffe, Theano, Torch.

По производительности суперкомпьютер сравним с 250 серверами на архитектуре x86. NVIDIA DGX-1 способен обрабатывать и анализировать информацию в 100 раз быстрее по сравнению с традиционными вычислительными системами.

Система разработана специально для искусственного интеллекта, который широко используется в таких областях, как распознавание и синтез речи, распознавание и обработка изображений, создание роботизированных консультационных систем, фармацевтика, персонализированная медицина, беспилотные автомобили и др.

Постоянный URL: http://servernews.ru/950734
13.03.2017 [14:18], Сергей Карасёв

TSMC займётся выпуском HPC-чипов по заказам NVIDIA и Qualcomm

Taiwan Semiconductor Manufacturing Company (TSMC), по сообщениям сетевых источников, займётся выпуском однокристальных систем NVIDIA и Qualcomm для высокопроизводительных вычислений.

В случае NVIDIA речь идёт об изделиях Xavier. По сути, это суперкомпьютер на чипе для автономных транспортных средств. Изделие содержит восемь кастомизированных ядер ARM и графический блок нового поколения на архитектуре Volta с 512 ядрами CUDA. Чип обеспечит производительность на уровне 20 трлн операций глубокого обучения в секунду.

Изначально сообщалось, что при производстве Xavier планируется задействовать 16-нанометровую технологию. Но, вполне вероятно, будет применён более «тонкий» техпроцесс.

Что касается Qualcomm, то эта компания договорилась с TSMC о выпуске изделий Centriq 2400 по 10-нанометровой технологии. Названные чипы созданы специально с прицелом на центры обработки данных и облачные платформы. В основу Centriq 2400 положены собственные вычислительные ядра Qualcomm Falkor CPU на основе архитектуры ARMv8. Количество таких ядер в составе чипа может достигать 48. На коммерческом рынке изделия станут доступны во второй половине нынешнего года. 

Постоянный URL: http://servernews.ru/948998
01.02.2017 [11:11], Сергей Карасёв

Сервер System76 Ibex Pro может комплектоваться восемью ускорителями NVIDIA Tesla P100

Компания System76 выпустила высокопроизводительный сервер Ibex Pro, который может поставляться с программной платформой Ubuntu Server 16.04.1 LTS или Ubuntu Server 16.10.

Стоечная система может нести на борту два серверных процессора Intel Xeon E5 v4 2600 Series. Объём оперативной памяти DDR4-2400 в максимальной конфигурации достигает 1536 Гбайт. В составе подсистемы хранения данных могут быть задействованы восемь 3,5-дюймовых накопителей с интерфейсом Serial ATA 3.0.

Для системы предлагается установка восьми ускорителей NVIDIA Tesla P100 на архитектуре Pascal. Структура памяти CoWoS (чип-на-пластине-на-подложке) с HBM2 с 4096-битной шиной позволила втрое увеличить полосу пропускания памяти по сравнению с архитектурой NVIDIA Maxwell.

Ускорители Tesla P100 для PCIe характеризуется производительностью 4,7 Тфлопс для вычислений двойной точности, 9,3 Тфлопс для вычислений одинарной точности и 18,7 Тфлопс для вычислений половинной точности с технологией NVIDIA GPU Boost.

Цена сервера System76 Ibex Pro начинается с $9575 и может достигать $114 725. Сконфигурировать систему под собственные нужды можно здесь

Постоянный URL: http://servernews.ru/946856