Материалы по тегу: nvidia

16.10.2019 [15:35], Алексей Разин

Продажи NVIDIA в сегменте компонентов для ЦОД будут расти на 17 % ежегодно

В середине ноября будет опубликован квартальный отчёт NVIDIA, и тогда станет ясно, наступил ли переломный момент в динамике выручки на серверном направлении. Во втором квартале она сократилась на 14 % в годовом сравнении, и многие эксперты будут оглядываться на этот индикатор при построении прогнозов на ближайшие периоды.

Уже есть аналитики, демонстрирующие оптимизм в отношении способности NVIDIA увеличивать выручку на серверном направлении в ближайшие годы.

Источник изображения: NVIDIA

Источник изображения: NVIDIA

Например, эксперты Bank of America Merrill Lynch видят перед компанией большие перспективы в связи с развитием систем искусственного интеллекта. По данным Jupiter Research, к 2023 году количество пользователей разного рода голосовых ассистентов увеличится в три с лишним раза, и все подобные интерфейсы подразумевают использование развитой серверной инфраструктуры. Ускорители NVIDIA сейчас применяются во многих системах искусственного интеллекта, и они будут увеличивать свою популярность и в дальнейшем.

По прогнозам экспертов, до 2024 года включительно выручка NVIDIA на серверном направлении будет увеличиваться на 17 % ежегодно, это позволяет назвать данную часть бизнеса одной из самых динамичных по развитию. Сейчас решения для центров обработки данных приносят NVIDIA около четверти всей выручки, но это второй по важности источник доходов после игрового сегмента.

В текущем году с продажами на этом направлении у NVIDIA всё будет не так гладко, как хотелось бы, но это лишь кратковременные сложности. Прогноз по курсовой стоимости акций NVIDIA авторы аналитической записки поднимают с $225 до $250 при текущем значении $196.

Постоянный URL: http://servernews.ru/995710
14.10.2019 [12:24], Владимир Мироненко

NVIDIA использовала федеративное машинное обучение при создании ИИ для здравоохранения

NVIDIA анонсировала систему машинного обучения ИИ для анализа медицинских изображений с сохранением конфиденциальности, которая была разработана совместно со специалистами Королевского колледжа Лондона.

Новая система представлена на стартовавшей в воскресенье в Шэньчжэне (Китай) конференции MICCAI.

У искусственного интеллекта есть ряд потенциально важных областей применения в здравоохранении, от диагностики пациентов до разработки жизненно важных лекарств. Вместе с тем обучение надёжных нейронных сетей для приложений здравоохранения затруднено, так как для этого требуется использовать огромные объёмы персональных данных пациентов, сохраняя при этом их конфиденциальность.

Эту проблему позволяет решить метод федеративного машинного обучения, предложенный специалистами Google, который позволяет применять единую модель для прогнозирования при машинном обучении, но при этом не раскрывать используемые данные пациентов.

Вместо того, чтобы полагаться на данные, объединённые в одном месте, алгоритмическая модель обучается в нескольких вариантах в разных местах. В секторе здравоохранения это обеспечивает определённую степень конфиденциальности для больниц и других организаций, которые хотят объединить свои ресурсы для создания модели глубокого обучения, не передавая данные своих пациентов третьим лицам.

Исследователи из NVIDIA и Королевского колледжа Лондона использовали федеративную архитектуру клиент-сервер с центральным сервером для поддержки глобальной глубокой нейронной сети. При таком подходе участвующим больницам будет предоставлена ​​копия их нейронной сети для обучения по их собственному набору данных.

Постоянный URL: http://servernews.ru/995564
24.09.2019 [13:58], Владимир Мироненко

AWS запускает EC2-инстансы G4 с ускорителями NVIDIA T4

Облачный сервис AWS (Amazon Web Services) анонсировал запуск инстансов на базе ИИ-процессоров NVIDIA последнего поколения, предназначенных для рабочих нагрузок с высокой интенсивностью или связанных с машинным обучением.

Эти задачи требуют применения значительных вычислительных ресурсов и только дополнительные мощности позволят ускорить их решение.

Напомним, что с запуском P3 в 2017 году AWS стал первым, кто представил инстансы, оптимизированные для треннинга машинному обучению в облаке, с мощными акселераторами NVIDIA V100 Tensor Core, что позволило клиентам сократить обучение сетей с нескольких дней до нескольких часов.

Новые инстансы G4 оснащены картами NVIDIA T4 последнего поколения, кастомными процессорами Intel Xeon Scalacble второго поколения (Cascade Lake), имеют пропускную способность сети до 100 Гбит/с и локальное хранилище NVMe ёмкостью до 1,8 Тбайт, что позволяет обеспечить наиболее экономически эффективные GPU-инстансы для процесса машинного обучения.

С вычислительной производительностью 65 Тфлопс со смешанной точностью инстансы G4 не только обеспечивают отличное сочетание цены и производительности для выполнения вычислительных задач, но также могут использоваться с минимальными затратами для небольших начальных учебных курсов по машинному обучению.

Для рабочих нагрузок машинного обучения можно запускать инстансы G4 с помощью Amazon SageMaker или AWS Deep Learning AMI, которые включают в себя такие среды машинного обучения, как TensorFlow, TensorRT, MXNet, PyTorch, Caffe2, CNTK и Chainer.

Инстансы G4 также будут поддерживать сервис Amazon Elastic Inference в ближайшие недели.

Для выполнения графических и потоковых приложений можно запускать инстансы G4 с Windows, Linux или AWS Marketplace AMI от NVIDIA с предустановленным программным обеспечением NVIDIA Quadro Virtual Workstation.

Инстансы G4 доступны в Восточном регионе США (Северная Вирджиния, Огайо), Западном регионе США (Орегон, Северная Калифорния), Европе (Франкфурт, Ирландия, Лондон) и Азиатско-Тихоокеанском регионе (Сеул и Токио). В других регионах это решение будет доступно в ближайшие месяцы. G4 доступны в виде инстансов по требованию, зарезервированных или спотовых.

Постоянный URL: http://servernews.ru/994538
15.09.2019 [20:56], Андрей Галадей

Для NVIDIA Deep Learning Accelerator выпущен компилятор с открытыми исходниками

Два года назад компания NVIDIA представила NVDLA (NVIDIA Deep Learning Accelerator) — платформу для построения ускорителей нейронных сетей с открытыми исходниками на Verilog. 

А теперь «зелёные» добавили программный компонент, который также может похвастаться открытым исходным кодом.

edivaldobrito.com.br

edivaldobrito.com.br

Речь идёт о компиляторе для NVDLA, который предназначен для максимизации производительности и эффективности запуска нейронных сетей на данной аппаратной платформе. Теперь он тоже стал открытым, получив лицензию BSD 3-Clause. Все исходники доступны на GitHub.

Отметим, что подобный шаг не является новым для бизнеса. Уже не первый год различные IT-корпорации так или иначе переходят на open source. И в этом есть логика — сочетание работы сообщества с финансированием корпораций позволяет не только повысить безопасность ПО, но и улучшить его качество в целом.

Постоянный URL: http://servernews.ru/994060
14.09.2019 [22:33], Андрей Созинов

JPR: AMD необходим аналог CUDA для победы в HPC и дата-центрах

Не так давно аналитическая компания Jon Peddie Research сообщила, что компания AMD смогла укрепить свои позиции на рынке потребительских графических процессоров. Однако в области высокопроизводительных вычислений доля ускорителей на графических процессорах AMD остаётся очень и очень небольшой.

На текущий момент на рынке высокопроизводительных ускорителей вычислений на базе GPU доминирует компания NVIDIA со своими решениями серии Tesla. А вот компания AMD довольствуется лишь некоторыми «точечными» успехами.

Например, строящийся суперкомпьютер Frontier, который будет запущен в 2021 году и станет, по предварительной оценке, самым производительным в мире, будет использовать центральные процессоры AMD EPYC и ускорители вычислений AMD Radeon Instinct. При этом с точки зрения «голой» производительности решения AMD не уступают конкурентам.

Так что же мешает распространению ускорителей Radeon? По мнению аналитиков, проблема заключается не столько в «железе», сколько в программной составляющей. У компании NVIDIA есть набор инструментов разработки CUDA, который позволяет использовать все возможности GPU, и что не менее важно, позволяет писать программный код на диалектах языков C, C++ и Fortran, что значительно облегчает процесс разработки.

Кроме того, NVIDIA уже более десяти лет помогает адаптировать различные программы, библиотеки и алгоритмы для работы на своих ускорителях, а также вкладывается в образовательные программы и сотрудничает с ВУЗами. CUDA многие программисты изучают ещё в университете, и после завершения обучения умеют работать с данными инструментами, что востребовано на рынке.

У компании AMD полного аналога CUDA попросту нет, и потому писать ПО под Radeon значительно сложнее, нежели под Tesla и прочие продукты NVIDIA. AMD поддерживает открытые библиотеки OpenCL, а также открытый проект HIP, который позволяет преобразовать CUDA в код C++. Но этого явно недостаточно.

Компании AMD чтобы завоевать позиции в области высокопроизводительных вычислений и центров обработки данных, нужен конкурент CUDA. Ещё два года назад создание такого конкурента было просто невозможно, потому что AMD боролась за свою жизнь. Но теперь, когда дела компании пошли в гору, настало время заняться программным обеспечением и составить NVIDIA ту же конкуренции, что и Intel в процессорной области.

Постоянный URL: http://servernews.ru/994071
04.09.2019 [17:30], Андрей Созинов

IFA 2019: NVIDIA представила мобильную Quadro RTX 6000 — самую мощную профессиональную видеокарту для ноутбуков

Компания NVIDIA представила новый ускоритель серии Quadro RTX – мобильную версию Quadro RTX 6000. Новинка является, пожалуй, самой производительной профессиональной видеокартой в мобильном сегменте.

К сожалению, компания NVIDIA не стала раскрывать полный список характеристик новинки. Известно лишь, что мобильная Quadro RTX 6000 обладает 24 Гбайт видеопамяти GDDR6.

Столько же имеет и настольная версия данной видеокарты, которая также обладает 4608 ядрами CUDA, 576 тензорными ядрами и 72 RT-ядрами. 

Скорее всего, мобильная RTX 6000 будет отличаться лишь более низкими таковыми частотами и сохранит конфигурацию ядер. Однако наверняка это будет известно несколько позже.

Также NVIDIA представила эталонную систему с новой профессиональной видеокартой, которая называется Ace Reference Design.

Эта мобильная рабочая станция обладает продвинутой системой охлаждения с ультратонкими титановыми испарительными камерами, поддерживает NVIDIA Optimus, комплектуется тонким и компактным блоком питания мощностью 300 Вт, а также профессиональным дисплеем с разрешением 4K, частотой 120 Гц, и 100 % охватом цветового пространства Adobe RGB.

На основе данной эталонной системы был создан ASUS ProArt StudioBook One, с которым мы уже подробно познакомились сегодня в рамках IFA 2019. Кроме того, сертификацию RTX Studio теперь имеют ещё 12 устройств. Среди них, например, ноутбуки Acer ConceptD 7 Pro и ConceptD 9 Pro, также продемонстрированные на IFA 2019. 

NVIDIA заявляет, что мобильная версия Quadro RTX 6000 устраняет существенный разрыв в производительности, который в настоящее время существует между мобильной Quadro RTX 5000 и настольной Quadro RTX 6000. Отставание должно составить примерно 10 % при обработке графики, редактировании видео, рендеринге и в задачах, связанных с Искусственным интеллектом. 

NVIDIA также упоминает о поддержке трассировки лучей в реальном времени в более чем 40 профессиональных приложениях, включая Adobe Photoshop Lightroom, Autodesk Arnold, Blender, Renderman и другие.

Постоянный URL: http://servernews.ru/991999
26.08.2019 [15:55], Сергей Юртайкин

NVIDIA и VMware запустили гибридное облако для машинного обучения на базе Amazon AWS

На конференции VMworld 2019, которая с 25 по 29 августа пройдёт в Сан-Франциско, NVIDIA объявила о запуске «ускоренных при помощи GPU» сервисов в гибридном облаке VMware Cloud on AWS.

Благодаря им выполнение задач, связанных с искусственным интеллектом и машинным обучением, может осуществляться в публичной облачной инфраструктуре с использованием высокопроизводительных графических процессоров.

Новые сервисы упрощают перевод в VMware Cloud on AWS созданных на базе vSphere приложений и программных контейнеров. Они используют виртуальные серверы Amazon EC2 по модели Bare Metal, новое программное обеспечение NVIDIA Virtual Compute Server и графические процессоры NVIDIA T4 — всё это в сумме ускоряет обработку ИИ-процессов.

В NVIDIA говорят, что одно из самых больших преимуществ запуска ИИ-приложений в VMware Cloud on AWS заключается в «эластичности» облачной инфраструктуры Amazon. Новые сервисы позволят клиентам масштабировать свои приложения по мере необходимости, увеличивая и сокращая свои обучающие искусственный интеллект среды в зависимости от потребностей специалистов по обработке данных.

Другие преимущества включают улучшенную безопасность и управляемость ИИ-приложений. Кроме того, клиенты смогут переносить приложения между VMware on AWS Cloud и локальными средами одним нажатием кнопки, без простоев, говорится в пресс-релизе.

Постоянный URL: http://servernews.ru/993031
08.08.2019 [10:35], Андрей Созинов

NVIDIA GPUDirect Storage: подключи NVMe-накопители напрямую к GPU

Компания NVIDIA анонсировала новую технологию под названием GPUDirect Storage, которая позволит её графическим процессорам, а точнее ускорителям, напрямую подключаться к NVMe-хранилищам, что обеспечит более быструю передачу и обработку данных.

Сейчас ускорители так или иначе получают данные при посредничестве центрального процессора хост-сервера, который извлекает их из локальных или удалённых устройств хранения. Но ускорители сейчас стали очень мощными и могут простаивать в ожидании информации для обработки, так как перегруженный сервер просто не может снабдить их свежими данными достаточно быстро.

Технология GPUDirect Storage исключает центральный процессор хост-сервера и его память из цепочки, и устанавливает прямую связь между графическим процессором и устройством хранения данных. Причём это могут быть как локальные NVMe-накопители, так и удалённые, подключённые посредством NVMe-oF (NVMe over Fabrics). Фактически это ещё одна реализация (R)DMA. 

В своём блоге компания NVIDIA отметила, что использование технологии GPUDirect Storage в системе NVIDIA DGX-2 позволяет увеличить скорость передачи данных между хранилищем данных и графическим процессором от двух до восьми раз. В частности, указывается, что пропускная способность соединения между системной памятью и графическим процессором в NVIDIA DGX-2 составляет 50 Гбайт/с. А вот пропускная способность при объединении множества накопителей и сетевых адаптеров в том же DGX-2 может превышать 200 Гбайт/с.

Ранее Mellanox и NVIDIA представили GPUDirect RDMA для прямого обмена данными между GPU и сетевыми адаптерами без участия CPU. После покупки Mellanox компания NVIDIA сможет и дальше разивать стек технологий GPUDirect, что позволит ей меньше зависеть от других вендоров. Как знать, возможно, скоро мы увидим ускорители Tesla со встроенными адаптерами InfiniBand. В конце концов, индустрия всё больше засматривается на архитектуру с физическим разделением функциональных блоков в пределах стойки: пару-тройку юнитов на память, ещё несколько на вычислительные узлы разного типа, а остальное под СХД. 

Постоянный URL: http://servernews.ru/992055
23.07.2019 [00:29], Владимир Мироненко

NVIDIA открыла в Великобритании технологический центр для проведения исследований ИИ

Компания NVIDIA открыла в Великобритании новый технологический центр, предназначенный для поддержки инновационных исследований в области искусственного интеллекта и методов анализа данных, а также для поддержки взаимодействия с образовательным и исследовательским сообществом страны.

Первыми к технологическому центру искусственного интеллекта NVIDIA присоединились супервычислительный центр EPCC (Эдинбургский центр параллельных вычислений), научно-исследовательский центр Hartree Centre и Университет Рединга. Члены центра получают доступ к экспертным знаниям и ресурсам NVIDIA для поддержки своих проектов. 

Цель проекта EPCC — ускорить механическое, структурное и гидродинамическое моделирование, которое можно применять для разработки газовых турбин. Исследователи будут использовать подход машинного обучения и вычислений  смешанной точности для улучшения эффективности работы текущих алгоритмов.

Сотрудничество c Hartree Centre будет сосредоточено на цифровом «твиннинге» — подробном виртуальном представлении реальных объектов. Эта работа позволит промышленности Великобритании разрабатывать новые продукты и оптимизировать процессы, повышая производительность и сокращая время выхода новинок на рынок.

Университет Рединга будет изучать методы машинного обучения для совершенствования процессов моделирования изменений погоды и климата. В его первом проекте применяются методы глубокого обучения для обработки результатов расчётов с целью последующего вычленения и сохранения только наиболее важных данных. Подход, принятый в этом проекте, позволит минимизировать объём данных, которые необходимо хранить и обрабатывать, что экономит время, энергию и затраты на оборудование.

Постоянный URL: http://servernews.ru/991170
12.07.2019 [17:17], Владимир Мироненко

Программа NVIDIA DGX-Ready Data Center теперь доступна в 24 странах

Анонсированная в январе компанией NVIDIA программа DGX-Ready Data Center получила ещё большее распространение за пределами США, и удвоила число партнёрских центров обработки данных до 19.

Сообщается, что у программы NVIDIA DGX-Ready Data Center появились три новых партнёра в Европе, пять в Азии и два в Северной Америке. В настоящее время программа доступна для компаний из 24 стран.

Среди новых партнёров программы — компания Verne Global, имеющая ЦОД с нулевым уровнем выбросов углерода в Исландии, а также Fujitsu с ЦОД в Иокогаме, где установлено более 60 систем NVIDIA DGX-1 и DGX-2.

Как сообщает компания, программа NVIDIA DGX-Ready Data Center, построенная на системах NVIDIA DGX и поставляемая партнёрами NVIDIA, обеспечивает клиентам возможность значительного продвижения в разработке ИИ на любой платформе.

NVIDIA рекламирует DGX-Ready как решение, упрощающее внедрение вычислений на GPU, предъявляющих повышенные требования к энергопотреблению и охлаждению для вычислительных инфраструктур по сравнению с возможностями многих локальных ЦОД, созданных для традиционных ИТ-вычислений.

Семейство продуктов DGX компании NVIDIA включает серверы с 8 и 16 графическими процессорами. Вместе с тем система NVIDIA DGX SuperPOD, занимающая 22-е место среди суперкомпьютеров в мире по быстродействию (согласно публичному рейтингу Top 500), имеет 96 модулей DGX-2H, содержащих по 16 тензорных ускорителей вычислений Tesla V100 с архитектурой Volta.

Чтобы упростить поиск партнёров, NVIDIA создала портал DGX-Ready Data Center, который позволяет клиентам выполнять поиск в глобальной сети поставщиков с фильтрацией по регионам, поддерживаемым системам и расширенным услугам.

Постоянный URL: http://servernews.ru/990672
Система Orphus