Материалы по тегу: h100

13.08.2023 [16:46], Руслан Авдеев

Придётся подождать: новые заказы на поставку NVIDIA H100 будут выполнены не раньше 2024 года

Ещё в прошлом месяце контрактный производитель полупроводников TSMC заявил о том, что спрос на чипы упал во всех сегментах рынка, за одним исключением — чипы для ИИ по-прежнему пользуются высоким спросом. Как сообщает Barron’s, в первую очередь речь идёт о чипах NVIDIA, доминирующих на рынке соответствующих решений.

Растущий спрос на генеративные ИИ-системы привёл к тому, что ускорители H100 стали самым ценным ресурсом. Как заявляют в Amazon Web Services (AWS), спрос на них устойчиво превышает предложение. Своей точкой зрения на проблему поделился и технический директор облачного ИИ-провайдера CoreWeave Брайан Вентуро (Brian Venturo). Компания одной из первых начала предлагать доступ к H100 и имеет тесные связи с NVIDIA — последняя инвестировала в стартап не менее $100 млн.

По словам Вентуро, если в I квартале 2023 года можно было довольно легко получить новые ускорители, то уже в апреле ситуация кардинально изменилась буквально за неделю — сроки выполнения заказов стали переноситься на конец года. H100 потребовались облачным провайдерам, крупным корпорациям и лабораториям, занимающимся ИИ-решениями. Сейчас H100 практически невозможно приобрести. Желающие сделать заказ сегодня могут рассчитывать на поставки в I или II квартале 2024 года. CoreWeave уже оформляет заказы, которые NVIDIA должна выполнить во II и III кварталах 2024 года.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

При этом решения других компаний, включая AMD, по данным CoreWeave, не пользуются таким спросом. Продукты NVIDIA не просто имеют лучшую аппаратную составляющую, но и развитое и повсеместно распространённое ПО — у стартапов просто нет времени для внедрения решений AMD или Google TPU. NVIDIA годами инвестировала в программную платформу CUDA и теперь, как считает Вентуро, на 10 лет опережает конкурентов.

В кратко- и среднесрочной перспективе CoreWeave не видит появления значимых конкурентов NVIDIA. Так, TPU или AWS Trainium являются весьма специфическими решениями, не подходящими для обычных стартапов, которым требуются быстрые результаты. В этом в CoreWeave видят преимущество для своего бизнеса — компания не только имеет довольно стабильный доступ к ускорителям NVIDIA, но и готова предложить соответствующую вычислительную инфраструктуру малым игрокам.

Сама CoreVeawe активно приобретает всё больше продуктов NVIDIA, привлекая в долг средства для покупки чипов под залог уже имеющихся ускорителей. Как сообщалось в июле, в Техасе компания намерена потратить $1,6 млрд на создание дата-центра для своего ИИ-супероблака. Тем временем NVIDIA инвестирует не только в CoreVeawe — она поддержала конкурента компании, вложив средства в развитие ИИ-стартапа Lambda Labs.

Постоянный URL: http://servernews.ru/1091365
08.08.2023 [15:10], Сергей Карасёв

В Microsoft Azure стали доступны инстансы ND H100 v5 для ИИ-нагрузок

Корпорация Microsoft открыла доступ к инстансам ND H100 v5 в облаке Azure. Эти масштабируемые виртуальные машины предназначены для решения сложных задач, связанных с ИИ и большими языковыми моделями.

В основу ND H100 v5 положены NVIDIA H100: восемь таких ускорителей объединены посредством NVSwitch и NVLink 4.0. Возможно масштабирование до тысяч ускорителей при помощи сети на базе NVIDIA Quantum-2 InfiniBand с пропускной способностью до 400 Гбит/с в расчёте на ускоритель (до 3,2 Тбит/с на виртуальную машину). В составе ND H100 v5 применяются процессоры Intel Xeon Sapphire Rapids, обеспечивающие поддержку PCIe 5.0 и DDR5-4800.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Отмечается, что инстансы ND H100 v5 являются одними из самых мощных вычислительных решений, которые Microsoft предлагала до сих пор. Они доступны в регионах Azure на востоке и западе США. Заказы на ND H100 v5 принимаются уже сейчас, а к началу 2024 года Microsoft обещает сделать доступными для клиентов «сотни тысяч» ускорителей NVIDIA H100.

Постоянный URL: http://servernews.ru/1091170
27.07.2023 [15:42], Сергей Карасёв

NVIDIA объявила о доступности облака DGX Cloud для генеративного ИИ

Компания NVIDIA объявила о доступности облачного сервиса DGX Cloud, предназначенного для обучения сложных моделей для генеративного ИИ и других приложений. Инфраструктура вычислительной платформы расположена в США и Великобритании.

Сервис DGX Cloud был анонсирован в марте нынешнего года. Эта ИИ-платформа предоставляет предприятиям доступ к инфраструктуре и сопутствующему ПО для решения ресурсоёмких задач. Каждый экземпляр DGX Cloud оснащен восемью ускорителями NVIDIA. Инстансы могут объединяться в кластеры и управлять всем комплексом посредством NVIDIA Base Command Platform. Говорится, что на сегодняшний день тысячи ускорителей NVIDIA включены в состав Oracle Cloud Infrastructure (OCI).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Доступ к облачному ИИ-суперкомпьютеру клиенты могут получить через браузер. Стоимость инстансов DGX Cloud начинается с $36 999 в месяц. Заказчикам доступно ПО NVIDIA AI Enterprise — набор специализированных ИИ-инструментов, который упрощает разработку, внедрение и управление жизненным циклом ИИ-моделей.

Постоянный URL: http://servernews.ru/1090620
27.07.2023 [14:09], Сергей Карасёв

AWS запустила инстансы EC2 P5 на базе NVIDIA H100 для масштабных ИИ-задач

Облачная платформа AWS официально объявила о доступности инстансов EC2 P5, которые предназначены для работы с большими языковыми моделями и генеративным ИИ. Благодаря масштабируемости производительность кластеров P5 может достигать 20 Эфлопс (точность вычислений не указана), что позволит решать самые сложные вычислительные задачи.

О подготовке инстансов EC2 P5 сообщалось в марте нынешнего года. В основу положены ускорители NVIDIA H100, количество которых в составе кластеров EC2 UltraClusters второго поколения может превышать 20 тыс.

Каждый инстанс P5 оснащён восемью ускорителями NVIDIA H100. Задействованы процессоры AMD EPYC Milan, а количество vCPU достигает 192. Общий объём системной памяти равен 2 Тбайт; локальное хранилище включает восемь SSD вместимостью 3,84 Тбайт каждый. Используются адаптеры AWS Elastic Fabric Adapter (EFA) второго поколения с низкой задержкой, агрегированной скоростью передачи данных 3200 Тбит/с и поддержкой NVIDIA GPUDirect RDMA.

 Источник изображения: AWS

Источник изображения: AWS

Заявленная производительность в расчёте на инстанс достигает 16 Пфлопс FP8 и 8 Пфлопс FP16. Утверждается, что при использовании EC2 P5 время тренировки моделей машинного обучения сокращается в шесть раз по сравнению с инстансами AWS предыдущего поколения. В настоящее время доступ к EC2 P5 предоставляется в регионах US East (Северная Вирджиния) и US West (Орегон).

Постоянный URL: http://servernews.ru/1090617
27.06.2023 [19:00], Владимир Мироненко

NVIDIA похвасталась рекордами H100 в новом бенчмарке MLPerf для генеративного ИИ

NVIDIA сообщила, что во всех восьми ИИ-бенчмарках MLPerf Training v3.0 её ускорители H100 установили новые рекорды, причём как по отдельности, так и в составе кластеров. В частности, коммерчески доступный кластер из 3584 ускорителей H100, созданным стартапом Inflection AI и облаком CoreWeave, смог завершить обучение ИИ-модели GPT-3 менее чем за 11 минут.

Компания Inflection AI, основанная в 2022 году, использовала возможности решений NVIDIA для создания продвинутой большой языкой модели (LLM) для своего первого проекта под названием Pi. Компания планирует выступать в качестве ИИ-студии, создавая персонализированные ИИ, с которыми пользователи могли бы взаимодействовать простыми и естественными способомами. Inflection AI намерена в сотрудничестве с CoreWeave создать один из крупнейших в мире ИИ-кластеров на базе ускорителей NVIDIA.

«Сегодня наши клиенты массово создают современные генеративные ИИ и LLM благодаря тысячам ускорителей H100, объединённых быстрыми сетями InfiniBand с малой задержкой, — сообщил Брайан Вентуро (Brian Venturo), соучредитель и технический директор CoreWeave. — Наша совместная с NVIDIA заявка MLPerf наглядно демонстрирует их высокую производительность». Отдельно подчёркивается, что благодаря NVIDIA Quantum-2 InfiniBand облачный кластер CoreWeave обеспечил такую же производительность, что и локальный ИИ-суперкомпьютер NVIDIA.

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

NVIDIA отметила, что H100 показали высочайшую производительность во всех тестах MLPerf, включая LLM, рекомендательные системы, компьютерное зрение, обработка медицинских изображений и распознавание речи. «Это были единственные чипы, которые прошли все восемь тестов, продемонстрировав универсальность ИИ-платформы NVIDIA» — сообщила компания. А благодаря оптимизации всего стека NVIDIA удалось добиться в тесте LLM практически линейного роста производительности при увеличении количества ускорителей с сотен до тысяч. Отдельно компания напомнила об энергоэффективности H100.

Также сообщается, что обновлённый бенчмарк MLPerf для рекомендательных систем использует больший набор данных и более современную модель, что позволяет лучше отразить проблемы, с которыми сталкиваются провайдеры облачных услуг. NVIDIA была единственной компанией, представившей результаты расширенного теста. Также компания представила результаты MLPerf для платформ L4 и Jetson. Ну а в следующем раунде MLPerf стоит ждать появления NVIDIA Grace Hopper.

В текущем раунде результаты тестов с использованием платформы NVIDIA представили десяток компаний. Заявки поступили от крупных производителей систем, включая ASUS, Dell Technologies, GIGABYTE, Lenovo и QCT. Более 30 замеров было сделано на ускорителях H100. NVIDIA отметила прозрачность и объективность тестов, поэтому пользователи могут полностью полагаться на результаты MLPerf для принятия решения о покупке систем.

Постоянный URL: http://servernews.ru/1089042
04.06.2023 [13:56], Сергей Карасёв

Представлен сервер ASUS ESC N8-E11 на базе Intel Xeon Sapphire Rapids и NVIDIA HGX H100

Компания ASUS анонсировала на выставке Computex 2023 сервер ESC N8-E11 в форм-факторе 7U, предназначенный для работы с генеративным ИИ и большими языковыми моделями. Новинка построена на аппаратной платформе Intel Xeon Sapphire Rapids с возможностью установки двух процессоров с показателем TDP до 350 Вт.

Система располагает 32 слотами для модулей оперативной памяти DDR5-4800/4400 суммарным объёмом до 8 Тбайт. В общей сложности доступны 10 посадочных мест для SFF-накопителей: спереди находятся восемь отсеков для устройств NVMe, сзади — два слота для изделий NVMe/SATA/SAS.

Сервер способен нести на борту до восьми ускорителей NVIDIA HGX H100. В оснащение входят двухпортовый сетевой контроллер 10GbE (Intel X710-AT2) и выделенный сетевой порт управления. Опционально может быть добавлена карта Broadcom MegaRAID 9560-16i или Broadcom MegaRAID 9540-8i. Доступны по два коннектора для твердотельных модулей M.2 PCIe 5.0 x4 и M.2 PCIe 3.0 x2. Во фронтальной части расположены четыре порта USB 3.2 Gen1, гнёзда RJ-45 для сетевых кабелей, интерфейс D-Sub.

Система ESC N8-E11 имеет габариты 885 × 447 × 306,65 мм и весит 99 кг. Питание может быть организовано по схеме 4 + 2 или 3 + 3 с блоками мощностью 3000 Вт, имеющими сертификат 80 PLUS Titanium. Сервер может использоваться в температурном диапазоне от +10 до +35 °C.

Постоянный URL: http://servernews.ru/1087872
01.06.2023 [18:50], Сергей Карасёв

NVIDIA создаст ИИ-суперкомпьютеры Taipei-1 и Israel-1

Компания NVIDIA в ходе выставки Computex 2023 представила HPC-комплексы Taipei-1 и Israel-1. Первый из названных суперкомпьютеров ориентирован на решение сложных задач в области ИИ и промышленных метавселенных, а второй будет выступать в качестве испытательного полигона для тестирования новых решений.

Основа Taipei-1 — 64 системы NVIDIA DGX H100. Это полностью оптимизированная аппаратная и программная платформа, включающая поддержку новых программных решений NVIDIA для ИИ. Конфигурация узлов включает восемь ускорителей H100, два DPU BlueField-3 и 2 Тбайт памяти.

Кроме того, в состав Taipei-1 войдут 64 системы NVIDIA OVX , которые предназначены для построения крупномасштабных цифровых двойников. Клиентам будет доступен облачный сервис DGX Cloud, а софт NVIDIA Base Command поможет в мониторинге рабочих нагрузок.

Ведущие тайваньские образовательные и научно-исследовательские институты одними из первых получат доступ к Taipei-1 для развития здравоохранения, больших языковых моделей (LLM), климатологии, робототехники, интеллектуального производства и промышленных проектов. Использовать мощности суперкомпьютера, в частности, планирует Национальный тайваньский университет.

 Изображение: NVIDIA

Изображение: NVIDIA

В свою очередь, комплекс Israel-1 станет самым мощным ИИ-суперкомпьютером в Израиле. Машина объединит 256 серверов Dell PowerEdge XE9680 на основе NVIDIA HGX H100. В общей сложности будут задействованы 2560 изделий BlueField-3 DPU и 80 коммутаторов Spectrum-4. Общее пиковое быстродействие системы составит 130 Пфлопс, а производительность на ИИ-операциях — до 8 Эфлопс.

Любопытно, что на выставке также удалось обнаружить упоминание пока что не анонсированной машины Taiwania 4, о которой писали зарубежные СМИ. В частности, говорится, что система получит 44 узла со 144-ядерными Arm-чипами Grace, которые будут объединены интеконнектом NVIDIA Quantum-2 InfiniBand NDR. Созданием суперкомпьютера займётся ASUS, а расположится он в тайваньском Национальном центре высокопроизводительных вычислений (NCHC).

Постоянный URL: http://servernews.ru/1087492
30.05.2023 [13:38], Сергей Карасёв

Gigabyte представила сервер G593-SD0: NVIDIA HGX H100 + Intel Xeon Sapphire Rapids

Компания Gigabyte и её подразделение Giga Computing в ходе выставки Computex 2023 анонсировали сервер G593-SD0, оптимизированный для машинного обучения и задач генеративного ИИ. Новинка, выполненная в форм-факторе 5U, ориентирована на крупные дата-центры.

В сервере применена материнская плата на наборе логики Intel C741. Допускается установка двух процессоров Intel Xeon Sapphire Rapids с показателем TDP до 350 Вт. Есть 32 слота для модулей оперативной памяти DDR5-4800 суммарным объёмом до 8 Тбайт. В максимальной конфигурации могут быть задействованы восемь ускорителей NVIDIA HGX H100 (SXM5).

Во фронтальной части расположены восемь отсеков для SFF-накопителей NVMe/SATA/SAS; поддерживаются массивы RAID 0/1/10/5. В общей сложности доступны 12 слотов PCIe 5.0 x16 и один слот PCIe 4.0 x16 для низкопрофильных карт расширения. В оснащение входят контроллер Aspeed AST2600, двухпортовый сетевой адаптер 10GbE (Intel X710-AT2), выделенный сетевой порт управления (спереди и сзади), два разъёма USB 3.2 Gen1 и интерфейс D-Sub.

 Источник изображения: Gigabyte Technology

Источник изображения: Gigabyte Technology

Габариты сервера составляют 447 × 222,25 × 945 мм. Применены система воздушного охлаждения и шесть блоков питания мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Диапазон рабочих температур — от +10 до +35 °C.

Постоянный URL: http://servernews.ru/1087563
23.05.2023 [18:37], Сергей Карасёв

Supermicro представила первые в отрасли серверы на базе NVIDIA HGX H100 с СЖО

Компания Supermicro анонсировала первые, по её словам, на рынке серверы на базе платформы NVIDIA HGX H100, оборудованные системой жидкостного охлаждения. Клиенты смогут выбирать между четырьмя стоечными моделями в разных форм-факторах на процессорах Intel и AMD.

В частности, представлены серверы SYS-821GE-TNHR и AS-8125GS-TNHR типоразмера 8U. В первом случае могут быть установлены два процессора Intel Xeon Sapphire Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт оперативной памяти DDR5-4800 ECC в виде 32 модулей. Вторая из этих систем рассчитана на два чипа AMD EPYC 9004 (Genoa) с TDP до 400 Вт, а объём ОЗУ стандарта DDR5-4800 ECC может достигать 6 Тбайт (24 слота).

 Источник изображений: Supermicro

Источник изображений: Supermicro

Названные модели допускают монтаж восьми ускорителей H100 SXM5. Во фронтальной части расположены 24 отсека для SFF-накопителей. Intel-версия может быть опционально оборудована двумя сетевыми портами 10GbE или 25GbE SFP28, а также двумя SSD формата M.2 NVMe. У сервера на платформе AMD есть только один коннектор M.2 NVMe. В обоих случаях задействованы блоки питания мощностью 3000 Вт с сертификатом 80 PLUS Titanium.

Кроме того, дебютировали серверы SYS-421GU-TNXR и SYS-521GU-TNXR в форм-факторе 4U и 5U соответственно. Они могут нести на борту два процессора Xeon Sapphire Rapids, до 8 Тбайт памяти DDR5-4800 ECC (32 слота), два модуля M.2 NVMe/SATA и четыре ускорителя HGX H100 SXM5. Первая из этих систем располагает шестью отсеками для SFF-накопителей NVMe/SATA, вторая — десятью. Предусмотрены два сетевых порта 10GbE. Мощность блоков питания стандарта 80 PLUS Titanium — 3000 Вт. Все новинки рассчитаны на работу в температурном диапазоне от +10 до +35 °C.

Постоянный URL: http://servernews.ru/1087215
11.05.2023 [01:38], Владимир Мироненко

ИИ-суперкомпьютер для богатых: теперь в облаке Google Cloud можно получить сразу 26 тыс. ускорителей NVIDIA H100

Компания Google Cloud представила на конференции для разработчиков Google I/O инстансы Google Compute Engine A3, специально созданные для обеспечения максимальной производительности рабочих нагрузок машинного обучения. Новинки используют современные CPU, быструю память, ускорители NVIDIA и IPU Intel.

Виртуальная машина A3 включает:

  • 8 ускорителей NVIDIA H100 Hopper.
  • Коммутаторы NVIDIA NVSwitch с NVLink 4.0, обеспечивающие пропускную способность 3,6 Тбайт/с между ускорителями.
  • Процессоры Intel Xeon Sapphire Rapids.
  • 2 Тбайт оперативной памяти DDR5-4800.
  • 200-Гбит/с IPU, специализированный стек межсерверной связи GPU↔GPU и оптимизации NCCL.

Помимо того, что новые инстансы используют DPU/IPU Mount Evans, разработанные совместно с Intel, кластеры A3 также задействуют фирменные оптические коммутаторы Google Jupiter с возможность переконфигурации топологии по требованию, которые компания уже использует в кластерах с собственными ИИ-ускорителями. Всё это позволяет объединять до 26 тыс. ускорителей H100 в облачный ИИ-суперкомпьютер производительность до 26 Эфлопс (TF32).

 Изображение: Google

Изображение: Google

Ключевое отличие от других облачных предложений именно в интерконнекте и масштабируемости. Например, ИИ-суперкомпьютеры в Microsoft Azure объединяют тысячи и даже десятки тысяч ускорителей с использованием InfiniBand и DPU NVIDIA. В Oracle Cloud Infrastructure (OCI), где ранее был поставлен рекорд по объединению 32 768 ускорителей, используется тот же подход. Наконец, в AWS можно объединить до 20 тыс. ускорителей благодаря EFA.

Google предложит клиентам несколько вариантов использования A3: клиенты смогут запускать ВМ самостоятельно или в качестве управляемого сервиса, где Google возьмёт на себя большую часть работы. Возможно использование A3 в Google Kubernetes Engine (GKE) или в Vertex AI. В настоящее время виртуальные машины A3 доступны только после регистрации в списке ожидания превью. Сейчас компания занята развёртыванием множественных кластеров A3 в наиболее крупных облачных регионах.

Постоянный URL: http://servernews.ru/1086514
Система Orphus