NVIDIA наращивает выручку в серверном сегменте и ставит новые ИИ-рекорды с GPU A100

 

NVIDIA пользуется растущим спросом на свои графические ускорители на базе Ampere со стороны операторов центров обработки данных, включая Amazon Web Services (AWS), Baidu и Microsoft, при этом доходы от бизнеса центров обработки данных приближаются к доходам от игрового сегмента.

Ранее NVIDIA сообщила о выручке в размере 3,08 млрд долларов за первый финансовый квартал, закончившийся 26 апреля 2020 года, что на 39% больше по сравнению с аналогичным периодом прошлого года, при этом чистая прибыль увеличилась на 133% по сравнению с аналогичным периодом прошлого года, достигнув 917 млн долларов. Доход от игрового бизнеса NVIDIA составил 1,34 млн долларов, увеличившись на 27% по сравнению с прошлым годом, в то время как сегмент дата-центров принес компании 1,14 млн долларов, увеличившись на 80% по сравнению с прошлым годом, впервые превысив отметку в 1 млрд долларов.

Закрепить успех на серверном направлении компании помогут свежие ИИ-тесты MLPerf.org, в которых решения NVIDIA продемонстрировала отличные результаты, установив 16 новых рекордов среди коммерчески доступных систем. Составить конкуренцию на ниве ИИ может Google, которая представила ранние тесты своего тензорного ускорителя TPU 4.0, показавшего очень хорошие результаты в MLPerf 0.7. NVIDIA, тем не менее, продемонстрировала преимущество в восьми тестах:

Для решения DGX SuperPOD (кластер из DGX A100, подключенных через HDR InfiniBand 200 Гбит/с), также были установлены восемь новых рекордов. Прирост производительности обеспечивался не только за счет более мощных ускорителей, но и за счет улучшений в программном обеспечении (CUDA graphs и библиотек CUDA-X), в котором реализована определение повторяющихся вычислений и оптимизация кода.

Анализ результатов отчета MLPerf не самая простая задача. Результаты тестов можно разделить на четыре категории, в зависимости от доступности тестируемых образцов:

  • Доступные в облаке: системы, доступные для аренды в одном из облачных сервисов;
  • Доступные для покупки: образцы, которые клиенты могут свободно приобрести;
  • Системы в предварительном доступе: в дальнейшем эти системы должны быть представлены либо в облаке, либо доступными для покупки;
  • Исследовательские: системы содержат экспериментальные аппаратные или программные компоненты, либо уже доступные компоненты, объединенные в большой кластер.

Набор тестов MLPerf Training измеряет время, необходимое для прохождения одной из восьми моделей машинного обучения для достижения результатов с установленной точностью в таких задачах, как классификация изображений, рекомендации, перевод и игра в Го. Последняя версия MLPerf включает в себя два дополнительных теста и один существенно переработанный:

  • BERT: двунаправленное представление кодировщика от Transformers (Bert), обученного в Википедии — это передовая языковая модель, широко используемая в задачах обработки естественного языка. При вводе текста языковые модели предсказывают родственные слова и используются для построения текста в результатах поиска, ответов на вопросы и автоматического создания текстов;
  • DLRM: модель рекомендаций по глубокому обучению, с использованием набора данных CTR (Criterio AI Lab), представляет широкий спектр коммерческих приложений, типичными примерами являются рекомендации для онлайн-покупок, результаты поиска и рейтинг контента в социальных сетях;
  • Mini-Go: обучение в игре Го, но с использованием полноразмерной доски 19×19, чтобы повысить сложность модели.

Из девяти компаний, представивших результаты в тестах MLPerf, семь использовали графические ускорители NVIDIA, включая поставщиков облачных услуг (Alibababa Cloud, Google Cloud, Tencent Cloud) и производителей серверов (Dell, Fujitsu и Inspur), что показывает, как разнообразна экосистема NVIDIA. Результаты, продемонстрированные NVIDIA в тестах MLPerf, действительно впечатляющие, во многом это стало возможным обновлению ПО и обновленной архитектуре Ampere.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER. | Можете написать лучше? Мы всегда рады новым авторам.

Источник:

Постоянный URL: https://servernews.ru/1016990
Поделиться:  

Комментарии

Система Orphus