Материалы по тегу: nvidia

14.09.2020 [10:14], Юрий Поздеев

NVIDIA и Arm создадут исследовательский центр в Кембридже

По мнению NVIDIA искусственный интеллект — самая мощная технологическая сила нашего времени. Это следующая ступень автоматизации, когда программное обеспечение пишет программное обеспечение. Хотя ИИ зародился в центрах обработки данных, он быстро переходит на периферию — в магазины, склады, больницы, аэропорты, где интеллектуальные датчики, подключенные к компьютерам с ИИ, могут ускорить и оптимизировать рутинные операции.

Со временем появятся триллионы небольших автономных компьютеров с ИИ, подключенных к мощным облачным центрам обработки данных во всех уголках мира.

После новостей о покупке NVIDIA компании ARM, вполне логичной стала новость о том, что на базе этих двух компаний будет создан открытый исследовательский центр в Кембридже, где когда-то жили такие выдающиеся ученые, как Иссаак Ньютон и Алан Тьюринг, в честь которых названы некоторые технологии NVIDIA. Именно в Кембридж приедут ведущие ученые и инженеры со всего мира, чтобы развивать новые технологии ИИ.

Центр в Кембридже будет включать:

  • Суперкомпьютер на базе Arm/NVIDIA: ожидается, что это будет один из самых мощных суперкомпьютеров ИИ в мире, сочетая в себе самые передовые процессоры Arm и новейшие графические ускорители NVIDIA, соединенные DPU NVIDIA Mellanox (пример суперкомпьютера Fugaku на базе Arm доказывает, что это возможно).
  • Исследовательские стипендии и партнерства: в исследовательском центре NVIDIA будет расширять сотрудничество с академическими кругами и промышленностью для проведения исследований, охватывающих все передовые разработки в различных областях.
  • Обучение искусственному интеллекту: образовательное подразделение NVIDIA, Институт DEEP LEARNING AI, обучило более 250 000 студентов фундаментальным и прикладным дисциплинам, связанным с ИИ. Подобный институт будет создан на базе Кембриджа, что позволит увеличить количество студентов.
  • Акселератор для стартапов: большинство передовой разработки в области ИИ выполняется стартапами. NVIDIA Inception, программа акселератора стартапов, насчитывает более 6000 участников, из которых более 400 находятся в Великобритании. NVIDIA продолжит свои инвестиции в этой области, помогая развиваться новым «единорогам».
  • Отраслевое сотрудничество: исследовательский центр NVIDIA AI станет открытым центром отраслевого сотрудничества с промышленными предприятиями самого разного профиля.

Поставленные цели очень амбициозны, но осуществимы. Будем следить за успехами нового исследовательского центра в Кембридже.

Постоянный URL: http://servernews.ru/1020518
12.09.2020 [21:21], Владимир Мироненко

Переход на удалённую работу способствует реализации программы NVIDIA Cloud Service Provider

Пандемия коронавируса привела к увеличению в компаниях доли персонала, работающего из дома. По всей видимости, для многих компаний эта модель работы сохранится и после того, как пандемия пойдёт на спад. Во всяком случае, 52 % крупнейших компаний в сфере ИТ и бизнеса, опрошенных IDC в ​​июне, заявило, что их подход к работе на дому, вероятно, изменился навсегда.

Чтобы приспособиться к новым условиям работы, предприятия обращаются к облаку, поскольку оно обеспечивает упрощённое и гибкое управление ИТ-ресурсами, необходимыми для поддержки удалённых сотрудников, где бы они ни находились. С помощью графических процессоров NVIDIA и программного обеспечения для виртуализации облачная инфраструктура может поддерживать без ущерба для производительности все виды рабочих нагрузок вычислений и визуализации, включая искусственный интеллект, анализ данных, автоматизированное проектирование, рендеринг, создание контента и многое другое.

Значительный рост использования удалённой работы привёл к тому, что программа NVIDIA Cloud Service Provider, составляющая основу партнерской сети NVIDIA, только за первое полугодие выросла более чем на 60 %. В частности, к ней присоединились компании Cloudalize, CoreWeave, Dizzion, E2E, IronOrbit и Paperspace.

На Европу и Северную Америку приходится более чем 80 % новых партнёров CSP, в результате чего программа сейчас имеет более 100 партнёров по всему миру.

Провайдеры облачных услуг, участвующие в Партнёрской программе NVIDIA (NPN), обладают опытом проектирования, разработки, доставки и управления облачными рабочими нагрузками, приложениями и услугами. Клиенты, выбирающие провайдеров, предлагающих инфраструктуру с использованием GPU NVIDIA, получат дополнительные преимущества, такие как:

  • Широкий выбор графических процессоров NVIDIA из облака, таких как Quadro RTX 6000 и 8000, а также графические процессоры NVIDIA T4 и V100 с тензорными ядрами.
  • Управляющее программное обеспечение для простой унификации корпоративной частной и мультиоблачной инфраструктуры.
  • Услуги и предложения, упрощающие внедрение и миграцию в облако, например, варианты «настольный компьютер как услуга», с применением виртуальной рабочей станции NVIDIA Quadro для поддержки работы графики и вычислительных рабочих нагрузок, необходимых специалистам в творческой сфере и области технологий. Многие предложения могут быть адаптированы к уникальным потребностям каждого предприятия.
  • Соблюдение местных законов о суверенитете данных.
Постоянный URL: http://servernews.ru/1020483
10.09.2020 [14:18], SN Team

HOSTKEY открывает предзаказ GPU-серверов на базе новейших NVIDIA RTX 3080

1 сентября компания NVIDIA представила впечатляющие видеокарты GeForce RTX 3090, RTX 3080 и RTX 3070. Видеокарты нового поколения работают на базе технологии Ampere и обеспечивают рекордную производительность. Они оснащены улучшенными блоками RT и тензорными ядрами, новыми потоковыми мультипроцессорами и высокоскоростной памятью GDDR6X. NVIDIA заявила о том, что RTX 3080 должна быть вдвое быстрее RTX 2080, то есть примерно в полтора раза быстрее RTX 2080Ti, что при цене в $700 долларов очень впечатляет.

NVIDIA нарушила традицию, когда стоимость карт нового поколения повышалась относительно предыдущих версий. Фактически стоимость производительности (отношение стоимости к скорости работы) оставалась постоянной. В этот раз NVIDIA оставила стоимость новой карты на уровне RTX 2080, что значительно снизит затраты на тренировки нейронных сетей и других задач, связанных с машинным обучением.

HOSTKEY уже наблюдает большой спрос на новые машины. Поэтому, чтобы ничего не пропустить, рекомендуется подписаться на рассылку. Подписчики первыми получат уведомления о начале сбора заявок на предзаказ и смогут первыми оценить новый уровень производительности GPU серверов с RTX 3080 картами. Кроме того, компания разыграет 3 бесплатных месячных подписки на серверы с GPU RTX 3080 среди подписавшихся на нашу рассылку. 

HOSTKEY — опытный игрок на рынке выделенных GPU серверов Европы и России. Компания HOSTKEY — совместное предприятие с иностранным участием, с 2007 года предоставляет корпоративным и частным пользователям услуги аренды выделенных и виртуальных серверов. Все услуги оказываются на базе проверенных дата-центров России (DataPro), Нидерландов (Serverius) и NY1 (США). Сеть HOSTKEY имеет подключение к крупнейшим операторам связи и точкам обмена трафика, что позволяет гарантировать доступность ресурсов.

Постоянный URL: http://servernews.ru/1020306
03.09.2020 [20:23], Илья Коваль

NVIDIA ускорила работу CUDA в WSL 2

В майском обновлении Windows 10 появилось второе поколение Windows Subsystem for Linux (WSL 2), которое привнесло значительно улучшение производительности для выполняемых в новой среде Linux-программ, «родную» поддержку графического интерфейса и аппаратное ускорение графики. Последнее касается не только GUI, но и работы с CUDA — в июне NVIDIA объявила о ранней поддержке этой возможности в WSL 2.

Реализовано это посредством технологии виртуализации GPU-PV, которая уже давно является частью модели WDDM —вызовы ПО пользовательского окружения пробрасываются непосредственно к драйверу, работающему с ядром ОС. Таким образом любые приложения, использующие слой виртуализации Windows — Sandbox, гости Hyper-V и, собственно, WSL 2 — могут получить доступ к GPU. А это, в свою очередь, позволяет исполнять требовательные к GPU задачи в отдельном окружении практически без потерь в производительности. В теории, конечно.

На практике поддержка этих возможностей со стороны NVIDIA всё ещё носит предварительный характер. В последнем обновлении, выпущенном вчера, компания исправила некоторые проблемы и добавила новые возможности. В частности, повышена производительность в случае запуска небольших, не сгруппированных нагрузок. Добавлена поддержка DirectML для аппаратного ускорения работы с DirectX 12 и включена возможность PTX JIT. Всё это делается на стороне драйвера, для доступа к которому надо быть участником программ NVIDIA Developer Program и Microsoft Windows Insider Program.

В следующей версии драйвера обещана поддержка OptiX, оптимизация работы с памятью, поддержка NVML и nvidia-smi, а также улучшения в работе систем с несколькими GPU. Всё это позволит упростить разработку и отладку ПО для ускорителей NVIDIA, сохранив доступ к привычному Linux-окружению и инструментам в Windows 10.

Постоянный URL: http://servernews.ru/1019833
20.08.2020 [15:56], Владимир Мироненко

ИИ-суперкомпьютер в аренду: в облаке Microsoft Azure появились инстансы ND A100 v4 с NVIDIA Ampere, AMD EPYC и InfiniBand HDR

Облачная платформа Microsoft Azure продолжает внедрять технологии HPC и ИИ. Компания Microsoft анонсировала новую серию виртуальных машин ND A100 v4. Это самые мощные масштабируемые инстансы для обработки данных с использованием искусственного интеллекта, которые объединяют от восьми до тысяч ускорителей NVIDIA на сотнях виртуальных машин.

Старший администратор проекта Ян Финдер (Ian Finder) сообщил в блоге компании, что серия ND A100 v4 начинается с одной виртуальной машины (ВМ) и восьми графических процессоров NVIDIA Ampere A100 с тензорными ядрами. Кластеры на базе ND A100 v4 могут масштабироваться до тысяч графических процессоров с пропускной способностью 1,6 Тбит/с на каждую виртуальную машину.

Каждый ускоритель снабжен собственным выделенным подключением NVIDIA Mellanox HDR InfiniBand 200 Гбит/с. Десятки, сотни или даже тысячи графических процессоров могут работать вместе как часть кластера с InfiniBand-фабрикой. Любая  ИИ-задача, будь то обучение модели с нуля, дообучение с использованием ваших собственных данных или тонкий тюнинг для конкретной нагрузки, будет достигнута намного быстрее с выделенным подключением GPU↔GPU, которое в 16 раз быстрее любого другого решения от других провайдеров публичного облака.

Для серии виртуальных машин ND A100 v4 используется новая платформа AMD EPYC Rome с поддержкой стандарта PCIe Gen 4. Как утверждает Финдер, PCIe 4.0 и шина NVIDIA NVLink третьего поколения позволили более чем вдвое увеличить скорость перемещения данных в системе по сравнению с предыдущим поколением виртуальных машин. Клиенты, которые будут использовать новые возможности A100, такие как тензорные ядра и Multi-instance GPU (MIG), смогут добиться 20-кратного увеличения производительности.

Серия виртуальных машин ND A100 v4 в настоящее время находится на стадии предварительного доступа, после чего появится в портфолио Azure в качестве стандартного предложения. Ранее ускорители A100 появились в Google Cloud, а AWS обещает добавить их в своё облако в скором времени.

Постоянный URL: http://servernews.ru/1018712
16.08.2020 [22:09], Юрий Поздеев

Видео дня: WekaIO поможет отправиться на Марс

Мы недавно писали про WekaIO и про ее разработки, ускоряющие передачу данных от NVMe-накопителей к графическим ускорителям NVIDIA. Недавно стало известно о достаточно интересном практическом применении этой технологии: NASA использует WekaIO для передачи файлов на четыре графических ускорителя NVIDIA для моделирования спуска посадочного модуля на Марс.

Посадочный модуль прибывает на Марс, двигаясь со скоростью 12 000 миль/ч (примерно 19 300 км/ч) и замедляется, используя ракетные двигатели. На приземление отводится всего семь минут, а посадку осложняет разреженная атмосфера Марса, которая делает невозможным эффективное использование парашюта.

Компьютерное моделирование показывает, как реактивная струя ракеты взаимодействует с марсианской атмосферой в реальном времени. В видео NASA говорится, что потребовалось 150 Тбайт данных и недельное тестирование на суперкомпьютере Summit в Oak Ridge National Laboratories с более чем 27 тыс. GPU NVIDIA для создания полной модели. Данные в модели содержат более 1 миллиарда записей данных, каждая из которых содержит семь атрибутов.

Симуляция в реальном времени может проигрываться с помощью WekaIO Matrix. Система хранит наборы данных на NVMe SSD, которые параллельно передаются четырем графическим ускорителям со скоростью 160 Гбайт/с посредством NVIDIA GPUDirect Storage, минуя центральный процессор и память хост-сервера. Без использования технологии GPU Direct Storage пропускная способность падает до 30 Гбайт/с.

Постоянный URL: http://servernews.ru/1018361
13.08.2020 [14:51], Юрий Поздеев

WekaIO внедрила поддержку NVIDIA GPUDirect Storage для ускорения ИИ-задач

WekaIO разработала готовое решение, помогающее ускорить передачу данных в хранилище в рабочих нагрузках ИИ. Основная особенность нового решения — поддержка NVIDIA GPUDirect Storage хранилищем на базе NVMe-накопителей. WekaIO заявляет, что ее решение может обеспечить пропускную способность в десятки раз больше, чем стандартные решения:

Инфраструктура Weka AI включает в себя настраиваемые эталонные архитектуры и комплекты для разработки программного обеспечения, основанные на GPU NVIDIA, сетевом оборудовании Mellanox (NVIDIA Networks), серверах Supermicro (можно использовать оборудование любых вендоров) и программном обеспечении Weka Matrix.

Weka AI использует технологию GPUDirect Storage, что обеспечивает прямую связь между хранилищем и ускорителями, устраняя узкие места ввода-вывода для приложений ИИ, интенсивно использующих данные. Обеспечивается не только большая пропускная способность, но и низкая задержка ввода-вывода.

На данный момент заявлена поддержка протоколов POSIX, NFS, SMB и S3. Поддерживаются объектные хранилища данных Amazon S3, Cloudian, IBM COS, Quantum (ActiveScale), Scality и SwiftStack S3. Референсная архитектура решения уже доступна для пользователей.

Постоянный URL: http://servernews.ru/1018163
07.08.2020 [12:32], Владимир Мироненко

NVIDIA выпустила инструментарий для разработчиков HPC SDK

Компания NVIDIA объявила о выходе комплекта инструментов для разработки программного обеспечения для высокопроизводительных вычислений HPC SDK, анонсированного ранее в этом году на конференции GTC 2020. NVIDIA HPC SDK призван упростить развёртывание рабочих нагрузок HPC не только на графических чипах NVIDIA, но и на CPU.

SDK содержит компиляторы C++ и Fortran на основе программной инфраструктуры LLVM, включая поддержку автоматического ускорения с помощью графического процессора кода на C++ 17 (также известного как C++1z) с использованием параллельных алгоритмов и встроенных функций Fortran, что ранее было недоступно в Standard C++ без применения дополнительных библиотек или расширений языка.

NVIDIA HPC SDK также поддерживает OpenMP, открытый стандарт для распараллеливания программ на языках Си, Си++ и Fortran, и программный стандарт для параллельного программирования OpenACC, математические библиотеки, оптимизированные для NVIDIA, интерфейс для параллельного программирования NVSHMEM на базе OpenSHMEM, а также другие общие библиотеки и инструменты разработки/отладки.

SDK можно загрузить с сайта developer.nvidia.com. Первый выпуск — NVIDIA HPC SDK версии 20.7, полностью ориентированный на Linux, со сборками для x86_64, OpenPOWER и AArch64.

Постоянный URL: http://servernews.ru/1017667
07.08.2020 [08:30], Юрий Поздеев

NVIDIA ставит рекорды на рынке Ethernet-адаптеров для ЦОД

Среди списка технологических сегментов, рост которых вызван пандемией, есть и сегмент программируемых адаптеров Ethernet, которые используют поставщики облачных услуг, поскольку последние стремятся удовлетворить потребности в полосе пропускания, создаваемые сотрудниками, работающими вне офиса.

Бум серверов и адаптеров Ethernet также ускорил развертывание программируемых NIC: подразделение NVIDIA Mellanox сообщило о 96-процентном росте квартальной выручки по сравнению с прошлым годом. Рыночный трекер Omdia сообщает, что доходы от адаптеров NVIDIA Networking (ранее Mellanox Technologies) в первом квартале 2020 года составили $136 млн, что больше, чем когда-либо зарегистрированные доходы любого из поставщиков адаптеров Ethernet.

Стремительный рост числа развертываний серверов в центрах обработки данных повысил спрос и на программируемые адаптеры Ethernet, что позволило поставщикам облачных услуг увеличить средний доход на порт. Broadcom, Xilinx и Marvell Technology сообщили о повышении спроса на адаптеры 25GbE — на них приходится примерно 35% от общего количества портов в дата-центрах.

Программируемые адаптеры Ethernet позволяют разгрузить центральный процессор, предоставляя при этом функции виртуальной коммутации и шифрования. В этом случае на одном сервере можно разместить больше виртуальных машин или контейнеров, что позволяет увеличить доход с сервера для поставщиков облачных услуг.

По прогнозам аналитиков Omdia выручка от поставки сетевых адаптеров в 2020 году вырастет на 20%, причем к 2024 году рост выручки будет только ускоряться за счет поставок серверов и внедрения высокоскоростных программируемых адаптеров. Если прогнозы Omdia верны, то к 2024 году рынок программируемых сетевых адаптеров достигнет 2,3 миллиарда долларов. Подобные решения будут включать FPGA, SoC или иные блоки, которые могут взять на себя обработку трафика определённых приложений.

Подразделение NVIDIA Mellanox извлекло максимальную прибыль от инвестиций в центры обработки данных и предприятий в программируемые адаптеры Ethernet 25, 100 и 200 Гбит/с. Ждем ответа от Intel, которая занимает вторую строчку в рейтинге Omda. Компания более года назад анонсировала 100GbE-адаптеры Intel 800, поставки которых задержались.

Постоянный URL: http://servernews.ru/1017650
04.08.2020 [22:35], Илья Коваль

Очередная попытка «обойти» GPL в Linux: подсистема NetGPU не попадёт в основную ветку ядра

Насколько далеко и глубоко должна распространяться «вирусность» лицензий GPL, вопрос почти философский. В особенности, когда речь идёт о сложных программных комплексах, где от проприетарных разработок, вплотную взаимодействующих с открытыми, избавиться непросто. Для таких случаев придуманы обходные пути, которые нередко пытаются эксплуатировать не слишком корректным образом.

Например, в ядре Linux для проприетарных драйверов принято использовать небольшую прослойку между, которая, по большому счёту, занимается трансляцией обращений драйвера к ядру. Такая прослойка имеет открытый код, так что все необходимые формальности по взаимодействию с остальным кодом под лицензией GPL в Linux соблюдены. Впрочем, противники такого формального подхода появились сразу же после его внедрения.

Масла в огонь подлил недавний набор патчей от одного из инженеров Facebook, реализующий новую подсистему NetGPU, которая сама по себе, к слову, весьма интересна. Она позволяет организовать прямой обмен данными между сетевым адаптером и GPU, оставляя за центральным процессором только обработку протокола. Собственно говоря, на базе этой подсистемы можно сделать достаточно общую реализацию RDMA для обмена данными между GPU или с внешней СХД.

Основная проблема конкретного этого набора патчей в том, что он намертво привязан к проприетарным драйверам NVIDIA, но при этом пытается попасть в основную ветку ядра Linux, куда нужные драйверы, естественно, не входят. Разработчик оправдывает такой шаг тем, что, возможно, когда-нибудь появятся реализации и для открытых драйверов AMD, Intel или той же NVIDIA. Грег Кроа-Хартман (Greg Kroah-Hartman), отвечающий за сопровождение стабильной ветви ядра, предложил автору заручиться подписью юриста и использовать корпоративный адрес, чтобы было понятно, кому потом можно будет переадресовать возможные претензии. Ну а пока NetGPU официальными путями в ядро не попадёт.

Другой известный разработчик Linux, Кристофер Хеллвиг (Christoph Hellwig), знаменитый тем, что когда-то инициировал иск к VMware по поводу возможного нарушения GPL, выразился несколько более грубо, но прямо, назвал автора патчей троллем и в очередной раз предложил навсегда избавиться от подобных прослоек, подготовив свою серию патчей для их блокировки.

Постоянный URL: http://servernews.ru/1017441
Система Orphus