Материалы по тегу: nvidia

21.09.2022 [19:39], Алексей Степин

NVIDIA представила новые сверхкомпактные модули Jetson Orin Nano

Компания NVIDIA полна решимости занять лидирующие позиции на рынке робототехники: помимо новой платформы IGX, предназначенной для «умной» промышленности и медицины, на конференции GTC 2022 она представила и другие новинки в этой сфере. В частности, анонсированы новые модули в серии Jetson.

Если в основу IGX лёг старший вариант, Jetson AGX Orin (Arm Cortex-A78AE + 1792 ядра Ampere + 56 тензорных ядер), то для более простых сценариев, требующих пониженного энергопотребления, он подходит не лучшим образом. Но именно для таких случаев предназначено пополнение серии — Jetson Orin Nano.

 NVIDIA Jetson Orin Nano 8GB (слева) и 4GB. Здесь и далее источник изображений: NVIDIA

NVIDIA Jetson Orin Nano 8GB (слева) и 4GB. Здесь и далее источник изображений: NVIDIA

Архитектурно Orin Nano похож на старшего собрата, но вычислительных ресурсов у него поменьше: 6 ядер Arm Cortex-A78AE и кластер GPC Ampere, состоящий из 1024 ядер CUDA и 32 тензорных ядер. Имеется отдельный процессор управления питанием, широко развиты подсистемы различных шин, от SPI, CAN и I2C до USB 3.2 Gen2, Ethernet и PCIe 3.0.

 Архитектура процессора Orin Nano

Архитектура процессора Orin Nano

Доступны новые модули будут в самом начале следующего года по цене от $199, причём изначально компания планирует выпустить два варианта, с 4 и 8 Гбайт оперативной памяти LPDDR5. Старший вариант будет сконфигурирован в рамках теплопакета 7–15 Вт, его пиковая производительность в INT8 составит 40 Топс. Младший вариант с усечённой вдвое конфигурацией GPU будет ограничен 5–10 Вт и 20 Топс.

 Характеристики семейства Jetson Orin Nano

Характеристики семейства Jetson Orin Nano

Модули Orin Nano совместимы по контактам с Orin NX и имеют тот же форм-фактор, 70 × 45 мм SODIMM, но за счёт использования более продвинутой архитектуры в задачах инференса новинки могут опережать предшественников в 80 раз. Благодаря обновлению фирменного SDK начать разработку приложений под Orin Nano заказчики смогут уже сейчас, пусть и в режиме эмуляции.

Постоянный URL: http://servernews.ru/1074618
21.09.2022 [19:32], Алексей Степин

NVIDIA представила ускорители L40 и новую Omniverse-платформу OVX на их основе

На конференции GTC 2022 NVIDIA анонсировала второе поколение систем для симуляции и запуска «цифровых двойников» OVX. Это вовсе не развлечение: использование точных моделей реальных физических объектов, пространств и устройств потенциально весьма выгодно, поскольку симуляция городского квартала для обучения автопилотов или фабрики для оценки взаимодействия роботов с живыми работниками априори будет стоить намного меньше, нежели проведение натурных испытаний.

Зачастую такие симуляции используют тензорные и матричные вычисления, поэтому основой новой платформы OVX стали новые ускорители NVIDIA L40 с архитектурой Ada Lovelace, располагающие ядрами трассировки лучей третьего поколения и тензорными ядрами четвёртого поколения. Они поддерживают как классический трассировку лучей (ray tracing), так и трассировку путей (path tracing), что важно для корректной симуляции поведения различных материалов.

 NVIDIA L40. Здесь и далее источник изображений: NVIDIA

NVIDIA L40. Здесь и далее источник изображений: NVIDIA

Физически L40 представляют собой двухслотовую FHFL-плату расширения PCIe с пассивным охлаждением — теплопакет новинки ограничен рамками 300 Вт. Объём оперативной памяти GDDR6 составляет 48 Гбайт, вдвое больше, нежели у игровых GeForce RTX 4090, и, в отличие от последних, поддерживается совместная работа двух карт в режиме NVLink, что может оказаться полезным в симуляциях с большим объёмом данных. Для вывода изображения служат четыре порта DP 1.4a.

 NVIDIA OVX Server

NVIDIA OVX Server

Каждый сервер NVIDIA OVX будет содержать 8 ускорителей L40 и три сетевых адаптера ConnectX-7 с портами класса 200GbE и поддержкой шифрования сетевого трафика на лету. От 4 до 16 таких серверов составят OVX POD, а 32 или более —кластер SuperPOD.

Такие кластеры станут домом для новой облачной платформы NVIDIA Omniverse Cloud, услуги которой компания планирует предоставлять робототехникам, создателям автономных транспортных средств, «умной инфраструктуры» и вообще всем, кому нужна точная симуляция сложных объектов и систем с качественной визуализацией результатов.

Постоянный URL: http://servernews.ru/1074622
21.09.2022 [01:10], Алексей Степин

NVIDIA представила платформу IGX для «умной» промышленности и медицины

Помимо новых GPU с архитектурой Ada компания NVIDIA на конференции GTC 2022 анонсировала множество новинок и не последней из них стала новая периферийная платформа IGX, призванная вывести «умную» промышленность на новый уровень. Главный упор в IGX сделан на обеспечении повышенной безопасности, причём как информационной, так и физической.

Использовать совместный труд роботов в промышленности пытаются уже давно, но до недавних пор такие решения были нестандартными и весьма дорогостоящими. IGX призвана обеспечить безопасность, стандартизацию и высокий уровень производительности, достаточный для современной робототехники.

Сердцем платформы IGX являются высокоинтегрированные модули серии Jetson AGX Orin, сочетающие в себе достаточно мощный процессор общего назначения, GPU-ускоритель, ускорители ИИ, машинного зрения, а также отдельный сопроцессор sMCU, отвечающий за обеспечение безопасности в проактивном режиме. Последний работает в комплексе с новыми программными расширениями, легко интегрируемыми в большинство коммерческих ОС благодаря сопутствующему программному стеку NVIDIA AI Enterprise.

 NVIDIA IGX. Здесь и далее источник изображений: NVIDIA

NVIDIA IGX. Здесь и далее источник изображений: NVIDIA

Что касается проактивной защиты, то, к примеру, получив сигнал с видеокамер о том, что человек приближается к «зоне ответственности» роботов, система автоматически изменит траекторию движения последних, предупредит сотрудников, а также на основании полученных данных скорректирует поведение роботов в дальнейшем. Также с помощью технологии «цифровых двойников» можно будет провести симуляцию, дабы заранее выяснить возможные точки потенциально опасных столкновений машин и людей.

 NVIDIA IGX сделает подобные сценарии безопасными

NVIDIA IGX сделает подобные сценарии безопасными

Производительность центрального модуля IGX составляет 275 Топс в режиме INT8. Обеспечение сетевых возможностей возложено на плечи современного сетевого адаптера ConnectX-7, гарантирующего прецизионные тайминги, позволяющие использовать платформу не только в промышленности, но и в медицине, где вопросы безопасности и точности жизненно важны.

Естественно, индустрия нового поколения не может обойтись без унифицированных средств управления и обеспечения кибербезопасности. Весь комплекс решений на базе новой платформы IGX может развёртываться и управляться с единой консоли с помощью облачной системы NVIDIA Fleet Command. За безопасность при этом отвечает выделенный контроллер. На более высоком уровне за интеграцию новой платформы в единую экосистему отвечает фреймворк NVIDIA Metropolis, с помощью которого можно создавать по-настоящему крупномасштабные комплексы, включая целые «умные города».

 Программно-аппаратный состав новой платформы

Программно-аппаратный состав новой платформы

Отдельного упоминания заслуживает то, что новая платформа NVIDIA IGX избрана в качестве основы разработчиками медицинских систем, в частности, цифровой и робо-хирургии, такими как Activ Surgical, Moon Surgical и Proximie. Это стало возможным как благодаря аппаратным свойствам платформы, таким как низкая латентность и гарантированное время отклика, так и сочетанию фреймворков MONAI и Clara Holoscan.

Первый позволяет обучать специфические ИИ-модели на основании массивов медицинских данных. Эти модели затем могут интегрироваться с помощью Clara Holoscan SDK в реальные системы ультразвукового сканирования, эндоскопии или робохирургии. Помимо встроенных средств ускорения IGX, Clara Holoscan поддерживает и внешние ускорители NVIDIA RTX A6000, а технология Rivermax обеспечит передачу видеоданных для робота-хирурга на скорости 100 Гбит/с прямо в набортную память GPU.

Комплекты разработчика IGX Orin будут доступны заказчикам в начале следующего года. Уже достигнуты соглашения с производителями встраиваемого оборудования ADLINK, Advantech, Dedicated Computing, Kontron, Leadtek, MBX, Onyx, Portwell, Prodrive Technologies и YUAN; уже испытывает новинку в деле Siemens. Также NVIDIA сотрудничает с Canonical, Red Hat и SUSE в целях обеспечения долговременной поддержки платформы, срок которой составит не менее 10 лет.

Постоянный URL: http://servernews.ru/1074562
21.09.2022 [00:49], Владимир Мироненко

NVIDIA представила Omniverse Cloud, своё первое предложение «ПО и инфраструктура как услуга»

Компания NVIDIA представила своё первое предложение «программное обеспечение и инфраструктура как услуга» Omniverse Cloud, представляющее собой комплексный пакет облачных сервисов, позволяющих художникам, разработчикам и корпоративным клиентам проектировать, публиковать, эксплуатировать и тестировать приложения метавселенной вне зависимости от местонахождения.

С помощью Omniverse Cloud можно выполнять проектирование и совместную работу над 3D-проектами без потребности в какой-либо локальной вычислительной системе. Робототехникам платформа обеспечит возможность выполнения обучения, моделирования, тестирования и развёртывания интеллектуальных машин с поддержкой ИИ повышенной масштабируемости и доступности. Специалисты по разработке автономных транспортных средств смогут генерировать физически обоснованные данные датчиков и моделировать сценарии безопасного движения при тестировании беспилотного систем при различных дорожных и погодных условиях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Сервисы Omniverse Cloud работают на базе вычислительной платформы Omniverse Cloud Computer, включающей решение NVIDIA OVX для графического и физического моделирования, NVIDIA HGX для расширенных рабочих нагрузок ИИ и NVIDIA Graphics Delivery Network (GDN), глобальную распределённую сеть доставки графического контента для метавселенной на периферию с малой задержкой.

Сервисы Omniverse Cloud включают в себя следующие решения:

  • Omniverse Nucleus Cloud — предоставляет 3D-дизайнерам и командам возможность совместной работы и доступа к общей 3D-сцене и данным в формате Universal Scene Description (USD). Nucleus Cloud предоставляет дизайнеру или разработчику возможность сохранять изменения, делиться ими, вносить изменения в режиме реального времени или просматривать изменения практически из любого места.
  • Omniverse App Streaming — позволяет пользователям без графических процессоров NVIDIA RTX выполнять потоковую передачу от эталонных приложений Omniverse, таких как приложение для дизайнеров и создателей Omniverse Create, позволяющее создавать виртуальные миры на основе USD, приложение Omniverse View для обзора и оценки качества, или NVIDIA Isaac Sim, приложение для обучения и тестирования роботов.
  • Omniverse Replicator — позволяет исследователям, разработчикам и предприятиям генерировать физически точные синтетические 3D-данные и без труда создавать собственные инструменты генерации таких данных для ускорения обучения и повышения точности моделей с возможностью их интеграции с облачными сервисами NVIDIA AI.
  • Omniverse Farm — позволяет пользователям и компаниям использовать несколько экземпляров облачных вычислений для масштабирования задач Omniverse, таких как рендеринг или создание синтетических данных.
  • NVIDIA Isaac Sim — масштабируемое приложение для моделирования робототехники и инструмент для создания синтетических данных, который обеспечивает фотореалистичные, физически точные виртуальные среды для разработки, тестирования и управления роботами с использованием ИИ.
  • NVIDIA DRIVE Sim — комплексная платформа моделирования для запуска крупномасштабных, физически точных мультисенсорных симуляций для поддержки разработки и тестирования автономных транспортных средств на протяжении всего проекта, то есть от создания концепции до развёртывания, а также для повышения производительности разработчиков и ускорения вывода решения на рынок.

Как сообщила компания, контейнеры Omniverse Farm, Replicator и Isaac Sim доступны с сегодняшнего дня на NVIDIA NGC для самостоятельного развёртывания на AWS с использованием инстансов Amazon EC2 G5 с ускорителями семейства NVIDIA A10. Также Omniverse Cloud будет доступен как управляемый сервис NVIDIA.

Постоянный URL: http://servernews.ru/1074559
20.09.2022 [19:45], Сергей Карасёв

NVIDIA начала массовый выпуск ускорителей H100

Компания NVIDIA сообщила о начале серийного выпуска 4-нм ускорителей H100 (Hopper). Партнёры начнут предлагать решения на базе данной архитектуры в следующем месяце. NVIDIA H100 использует мультичиповую 2.5D-компоновку CoWoS и содержит около 80 млрд транзисторов.

Сочетание NVlink четвёртого поколения, обеспечивающее соединение между графическими процессорами со скоростью 900 Гбайт/с, системы NVSwitch, ускоряющей коллективную связь ускорителей между узлами, PCIe 5.0 и ПО NVIDIA Magnum IO обеспечивает эффективную масштабируемость как для небольших предприятий, так и для крупных унифицированных кластеров.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам NVIDIA, новые ускорители по сравнению с ускорителями прошлого поколения в 3,5 раза энергоэффективнее и позволяют втрое снизить совокупную стоимость владения, попутно позволяя впятеро снизить количество серверных узлов для получения того же уровня ИИ-производительности. Более подробно ознакомиться с архитектурными особенностями новинок можно здесь.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Инстансы на базе H100 намерены развернуть многие облачные платформы. Это Amazon Web Services, Google Cloud, Microsoft Azure и Oracle Cloud. А для тех, кому не терпится ознакомиться с новинками уже прямо сейчас, доступ к ним можно получить уже сейчас в рамках NVIDIA Launchpad. Ускорители будут применяться и в суперкомпьютерах следующего поколения.

Серверы с этими решениями будут предлагать Atos, Cisco, Dell Technologies, Fujitsu, Gigabyte, Hewlett Packard Enterprise, Lenovo и Supermicro. До конца на рынке появится более 50 моделей серверов с новыми ускорителями, а в следующем году будут представлены ещё несколько десятков решений. Кроме того, вместе с серверами будет давать и пятилетняя подписка на NVIDIA AI Enterprise. А сама NVIDIA уже принимает заказы на системы DGX.

Постоянный URL: http://servernews.ru/1074521
14.09.2022 [15:03], Сергей Карасёв

Axiomtek представила индустриальный компьютер IPC972 с поддержкой двух ускорителей GeForce RTX 3090

Компания Axiomtek анонсировала компьютер IPC972, спроектированный с прицелом на периферийные вычисления (edge). Система может применяться для аналитики данных, глубокого обучения, обработки изображений, ИИ-приложений, автоматизации различных процессов и выполнения других задач в промышленной и коммерческой сферах. Изюминкой новинки является возможность установки сразу двух полноразмерных ускорителей NVIDIA GeForce RTX 3090.

Устройство заключено в корпус с габаритами 255 × 192 × 360 мм. Задействована материнская плата на наборе логики Intel W480E, допускающая установку процессоров Intel Xeon или Core i7/i5/i3 10-го поколения (Comet Lake-S) с показателем TDP до 80 Вт. Поддерживается до 128 Гбайт оперативной памяти DDR4-2933 ECC в виде четырёх модулей U-DIMM.

 Источник изображений: Axiomtek

Источник изображений: Axiomtek

За возможности расширения отвечают слоты PCIe x4, PCIe x8, PCIe x16 (×2), PCI Express Mini (с разъёмом для SIM-карты), а также коннекторы M.2 Key E 2234 и M.2 Key B 3042/3050 (есть SIM-слот). Компьютер может быть оборудован двумя SFF-накопителями толщиной до 9,5 мм, одним накопителем толщиной до 15 мм и твердотельным модулем M.2 2280 NVMe. Заявлена поддержка RAID 0/1/5.

В арсенале новинки — сетевые адаптеры 2.5GbE (Intel I225-LM) и 1GbE (Intel I219-LM), шесть портов USB 3.2 Gen2 и два порта USB 3.2 Gen1, аудиогнездо на 3,5 мм. Возможна установка различных IO-модулей, в том числе с портами RS-232/422/485, 1GbE или USB 2.0/3.0. Диапазон рабочих температур — от -10 до +60 °C. Поддерживается работа с операционными системами Windows 10 и Linux.

Постоянный URL: http://servernews.ru/1074182
14.09.2022 [14:28], Сергей Карасёв

Supermicro представила GPU-сервер для ресурсоёмких ИИ-задач: 8U-шасси для восьми ускорителей NVIDIA

Компания Supermicro анонсировала GPU-сервер в форм-факторе 8U на базе акселераторов NVIDIA H100. Новинка предназначена для выполнения разнообразных задач, требующих высокой вычислительной мощности: это могут быть приложения на базе искусственного интеллекта (ИИ), системы машинного обучения и пр.

Сервер (пока доступна только модель SuperServer SYS-820GP-TNAO) построен на платформе Universal GPU с возможностью использования нынешних и будущих процессоров AMD и Intel. Могут применяться CPU с показателем TDP до 400 Вт. В текущем варианте доступны два чипа Intel Xeon Ice Lake-SP. Допускается установка HGX-платы с восемью SXM-ускорителями NVIDIA A100/H100 с NVLink (NVSwitch).

 Источник изображений: Supermicro

Источник изображений: Supermicro

Доступны 32 слота для модулей DDR4-3200/2933/2666 (L)RDIMM ECC и Optane PMem, а максимально поддерживаемый объём памяти составляет 8 Тбайт. Есть шесть отсеков для SFF-накопителей NVMe/SATA/SAS с возможностью «горячей» замены и два коннектора для твердотельных модулей М.2 (NVMe / SATA). Реализована поддержка AIOM/OCP 3.0, но опционально можно установить два двухпортовых 10GbE-адаптера Intel X550-AT2. Предусмотрены десять слотов PCIe 4.0 x16 для низкопрофильных карт расширения.

Разработчик выделяет усовершенствованную конструкцию шасси с оптимизацией воздушных потоков. Это позволяет уменьшить скорость вращения вентиляторов, что обеспечивает снижение уровня шума, а также сокращение энергопотребления и совокупной стоимости владения при сохранении высокого уровня производительности. В системе охлаждения задействованы четыре вентилятора.

Питание обеспечивает один БП мощностью 6000 Вт (ввод +12 В DC), причём система может быть интегрирована как в традиционную инфраструктуру с AC-питанием, так и в OCP-стойки. Диапазон рабочих температур — от +10 до +35 °C. Габариты составляют 351 × 449 × 800 мм, вес — 75,3 кг.

Постоянный URL: http://servernews.ru/1074148
28.08.2022 [16:25], Алексей Степин

NVIDIA поделилась подробностями об ускорителях H100 на базе архитектуры Hopper

На конференции Hot Chips 34 NVIDIA поделилась новыми подробностями о грядущих ускорителях H100 на базе архитектуры Hopper. Чип GH100 содержит 80 млрд транзисторов и производится с использованием специально оптимизированного для нужд NVIDIA техпроцесса TSMC N4, созданного в содружестве с NVIDIA. Ускоритель первым в мире получит память HBM3.

В составе чипа есть сразу 144 потоковых мультипроцессоров (SM), что несколько больше, нежели в A100, где таких блоков физически 128. Активных блоков же всего 132, но NVIDIA заявляет о вдвое более высокой производительности новых SM при сравнении с прошлым поколением при равной частоте. Это относится как к модулям FP32, так и FP64 FMA. В дополнение появилась поддержка формата FP8, всё чаще встречающегося в сценариях машинного обучения, не требующих высокой точности вычислений.

Здесь и далее источник изображений: NVIDIA via ServeTheHome

В этом режиме NVIDIA поддержала оба наиболее распространённых формата FP8: E5M2 и E4M3, то есть представление числа в форме 5 или 4 бита экспоненту и 2 или 3 бита на мантиссу соответственно. Каждый тензорный блок FP8 обеспечивает перемножение двух матриц в формате FP8 с дальнейшим накоплением и преобразованием результата, но самое важное здесь то, что благодаря наличию нового блока Transformer Engine выбор наиболее подходящего варианта FP8 осуществляется автоматически. Если верить NVIDIA, усовершенствованная архитектура тензорных процессоров с поддержкой FP8 позволяет добиться точности, сопоставимой с FP16, но при вдвое более высокой производительности и вдвое меньшем расходе памяти.

Всего каждом блоке SM имеется 128 модулей FP32, по 64 модуля INT32 и FP64 и по 4 тензорных ядра, а также тензорный ускоритель работы с памятью и общий L1-кеш объёмом 256 Кбайт. Объём L2-кеша составляет целых 50 Мбайт. В текущей реализации доступно 16896 CUDA-ядер из 18432 возможных и 528 тензорных ядер из 576. Вдвое быстрее, по словам NVIDIA, стали и новые модули тензорных вычислений, относящиеся уже к четвертому поколению. Внедрена поддержка нового набора инструкций DPX, появилась поддержка асинхронности при перемещении данных и т.д.

До второго поколения подросла технология MIG (Multi-instance GPU). Теперь на каждый такой виртуальный ускоритель стало приходиться в три раза больше вычислительных мощностей и в два раза — пропускной способности памяти. Последнее достигнуто благодаря применению HBM3. В данном варианте применены сборки HBM3 объёмом 16 Гбайт каждая (5120-бит шина). Пять сборок дают 80 Гбайт локальной памяти с ПСП 3 Тбайт/с. Посадочных мест для сборок шесть, но одно используется только для выравнивания высоты чипа

При этом виртуализация у GH100 полная, насколько это вообще возможно: обеспечена поддержка доверенных вычислений на аппаратном уровне, включая специализированные блоки брандмауэров, обеспечивающих изоляцию регионов памяти каждого vGPU, а также блоки проверки целостности и поддержки конфиденциальности данных. О поддержке нового поколения интерконнекта NVLink 4 мы рассказывали ранее — этот интерфейс даёт до 900 Гбайт/с для объединения нескольких чипов и ускорителей, но, главное, предоставляет гибкие возможности масштабирования.

Имеется у GH100 и ещё одно важное нововведение — модифицированная иерархия памяти. Так, интерконнект SM-to-SM позволяет каждым четырём SM общаться между собой напрямую, а не загружать излишними транзакциями общую шину. Это повышает эффективности при виртуализации и серьёзно экономит пропускную способность «главных трактов» ускорителя. Вкупе с поддержкой асинхронного исполнения и обмена данными это позволит снизить латентность, в некоторых случаях до семи раз.

Реализует ли NVIDIA потенциал GH100 полностью, на данный момент неясно, но это могло бы повысить и без того серьёзный потенциал новинки. Впрочем, такая мощь даром не даётся: даже в усечённой версии и даже несмотря на использование оптимизированного техпроцесса ускоритель на базе GH100 в формате SXM5 (плата PG520) будет иметь теплопакет 700 Вт.

Несомненно, GH100 —огромный шаг вперёд в сравнении с GA100, однако конкуренция предстоит серьёзная: так, новинке предстоит сразиться с ускорителями на базe Intel Ponte Vecchio, а в них обещается соотношение FP32/FP64 на уровне 1:1 против 2:1 у решения NVIDIA. Любопытный факт: единственный кластер GPC у нового чипа на 20% мощнее всего чипа GK110 Kepler, выпущенного всего 10 лет назад.

Постоянный URL: http://servernews.ru/1073047
26.08.2022 [12:45], Алексей Степин

Интерконнект NVIDIA NVLink 4 открывает новые горизонты для ИИ и HPC

Потребность в действительно быстром интерконнекте для ускорителей возникла давно, поскольку имеющиеся шины зачастую становились узким местом, не позволяя «прокормить» данными вычислительные блоки. Ответом NVIDIA на эту проблему стало создание шины NVLink — и компания продолжает активно развивать данную технологию. На конференции Hot Chips 34 было продемонстрировано уже четвёртое поколение, наряду с новым поколением коммутаторов NVSwitch.

 Изображения: NVIDIA

Изображения: NVIDIA

Возможность использования коммутаторов для NVLink появилась не сразу, изначально использовалось соединение блоков ускорителей по схеме «точка-точка». Но дальнейшее наращивание числа ускорителей по этой схеме стало невозможным, и тогда NVIDIA разработала коммутаторы NVSwitch. Они появились вместе с V100 и предлагали до 50 Гбайт/с на порт. Нынешнее же, третье поколение NVSwitch и четвёртое поколение NVLink сделали важный шаг вперёд — теперь они позволяют вынести NVLink-подключения за пределы узла.

Так, совокупная пропускная способность одного чипа NVSwitch теперь составляет 3,2 Тбайт/с в обе стороны в 64 портах NVLink 4 (x2). Это, конечно, отразилось и на сложности самого «кремния»: 25,1 млрд транзисторов (больше чем у V100), техпроцесс TSMC 4N и площадь 294мм2. Скорость одной линии NVLink 4 осталась равной 50 Гбайт/с, но новые ускорители H100 имеют по 18 линий NVLink, что даёт впечатляющие 900 Гбайт/с. В DGX H100 есть сразу четыре NVSwitch-коммутатора, которые объединяют восемь ускорителей по схеме каждый-с-каждым и дополнительно отдают ещё 72 NVLink-линии (3,6 Тбайт/с).

При этом у DGX H100 сохраняются прежние 400G-адаптеры Ethernet/InfiniBand (ConnectX-7), по одному на каждый ускоритель, и пара DPU BlueField-3, тоже класса 400G. Несколько упрощает физическую инфраструктуру то, что для внешних NVLink-подключений используются OSFP-модули, каждый из которых обслуживает 4 линии NVLink. Любопытно, что электрически интерфейсы совместимы с имеющейся 400G-экосистемой (оптической и медной), но вот прошивки для модулей нужны будут кастомные.

Подключаются узлы DGX H100 к 1U-коммутатору NVLink Switch, включающему два чипа NVSwitch третьего поколения: 32 OSFP-корзины, 128 портов NVLink 4 и агрегированная пропускная способность 6,4 Тбайт/с. В составе DGX SuperPOD есть 18 коммутаторов NVLink Switch и 256 ускорителей H100 (32 узла DGX). Таким образом, можно связать ускорители и узлы 900-Гбайт/с каналом. Как конкретно, остаётся на усмотрение пользователя, но сама NVLink-сеть поддерживает динамическую реконфигурацию на лету.

Ещё одна особенность нового поколения NVLink — продвинутые аппаратные SHARP-движки, которые избавляют CPU/GPU от части работ по подготовке и предобработки данных и избавляющие саму сеть от ненужных передач. Кроме того, в NVLink-сети реализованы разделение и изоляция, брандмауэр, шифрование, глубокая телеметрия и т.д. В целом, новое поколение NVLink получило полуторакратный прирост в скорости обмена данными, а в отношении дополнительных сетевых функций он стал трёхкратным. Всё это позволит освоить новые класса HPC- и ИИ-нагрузок, однако надо полагать, что удовольствие это будет недешёвым.

Постоянный URL: http://servernews.ru/1072843
25.08.2022 [20:41], Владимир Мироненко

NVIDIA увеличила выручку в серверном сегменте на 61 %

Компания NVIDIA сообщила результаты работы во II квартале 2023 финансового года, закончившемся 31 июля 2022 года. Выручка компании составила $6,70 млрд, что на 3 % больше, чем за аналогичный период 2022 финансового года, и на 19 % меньше, чем в предыдущем квартале.

Поставки чипов для серверов и ЦОД принесли NVIDIA $3,81 млрд выручки, что на 61 % больше, чем в аналогичном квартале год назад, и на 1 % больше, чем за предыдущие три месяца. Чистая прибыль (GAAP) NVIDIA сократилась на 72 % до $656 млн или $0,26 на акцию по сравнению с $2,374 млрд или $0,94 на акцию в прошлом году.

Компания отметила в отчёте, что серверные процессоры NVIDIA Grace Superchip используются для создания HGX-систем целым рядом ведущих производителей вычислительных систем, включая Atos, Dell Technologies, GIGABYTE, HPE, Inspur, Lenovo и Supermicro.

 Изображение: NVIDIA

Изображение: NVIDIA

В отчётном квартале компания представила Quantum Optimized Device Architecture (QODA) — унифицированную вычислительную платформу для ускорения квантовых исследований и разработок в области искусственного интеллекта, высокопроизводительных вычислений, здравоохранения, финансов и других дисциплин.

Также компания обновила платформу для обучения сверхбольших языковых моделей NeMo Megatron, которые позволяют ускорить обучение до 30 %, и объявила об общедоступности NVIDIA Fleet Command, облачного сервиса для развёртывания, управления и масштабирования ИИ-приложений на периферии.

В текущем, III квартале 2023 финансового года компания прогнозирует выручку в размере $5,90 млрд ±2 %. Предполагается, что снижение выручки в игровом сегменте будет компенсировано ростом показателей в серверном и автомобильном сегментах.

Постоянный URL: http://servernews.ru/1072948
Система Orphus