В Google Cloud появились самые быстрые GPU-инстансы с 16-ю ускорителями NVIDIA A100

 

Облачный провайдер Google Cloud объявил о доступности семейства инстансов A2, которое было анонсировано ещё летом прошлого года. A2 может включать от 1-го до целых 16-ти ускорителей NVIDIA A100. По словам Google, на текущий момент никакой другой крупный облачный провайдер не может предложить подобную конфигурацию узлов.

Можно выбрать варианты с 1, 2, 4, 8 или 16-ю ускорителями. Самой младшей версии a2-highgpu-1g полагается 12 vCPU, 85 Гбайт RAM и сетевое подключение 24 Гбит/с. Старшей a2-megagpu-16g  — 96 vCPU, 1,36 Тбайт RAM и 100 Гбит/с соответственно. Для всех систем доступно локальное SSD-хранилище ёмкостью до 3 Тбайт. Google не приводит полные характеристики аппаратной платформы, лежащей в основе A2, говоря лишь об использовании Intel Xeon Cascade Lake и том, что все 16 ускорителей объединены шиной NVLink.

Не уточняется и, какая именно версия A100 используется, но, вероятно, это всё же 40-Гбайт модификация, а не более свежая 80-Гбайт. В любом случае решение Google заметно отличается от DGX A100 на базе AMD EPYC Rome и восьми GPU, и от обычных решений HGX A100, в рамках которых предлагаются платы с четырьмя или восемью SXM-ускорителями, объединёнными NVLink-подключением.

Семейство A2 ориентировано на машинное обучение (тренировка и инференс), анализ данных и HPC-нагрузки. Имеется поддержка NVIDIA NGC для быстрого развёртывания ПО. А наиболее требовательным заказчикам Google Cloud может предоставить кластеры для распределённой тренировки, насчитывающие тысячи ускорителей.

На данный момент новые инстансы доступны в Айове, США (us-central1), Нидерландах (Europe-west4) и Сингапуре (asia-southeast1). Стоимость аренды начинается от $3,67/час для a2-highgpu-1g до $55,74/час для a2-megagpu-16g.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER. | Можете написать лучше? Мы всегда рады новым авторам.

Источник:

Постоянный URL: https://servernews.ru/1035236

Комментарии

Система Orphus