Материалы по тегу: tesla

07.04.2020 [18:50], Андрей Созинов

NVIDIA зарегистрировала новый серверный ускоритель, возможно, на базе Ampere

Коронавирус сорвал проведение в прошлом месяце конференции GTC 2020, на которой ожидался анонс новой архитектуры графических процессоров NVIDIA. Однако компания явно не прекращала работу над ней. Это косвенно подтверждает и свежая утечка — некий новый графический ускоритель NVIDIA был зарегистрирован южнокорейским агентством RRA.

Устройство описывается как «серверный графический модуль» и имеет кодовое название PG506.

Похожие кодовые названия (PG500, PG502 и PG504) имеют графические ускорители NVIDIA Tesla V100 на графическом процессоре Volta. Напрашивается вывод, что перед нами некий новый ускоритель вычислений Tesla, который вполне может оказаться преемником вышеуказанного ускорителя на базе Volta. 

Ускоритель PG500 является версией Tesla V100 с интерфейсом PCIe, выполненной в формате традиционной карты расширения. В свою очередь PG502 и PG504 являются NVLink-версиями с 16 и 32 Гбайт оперативной памяти соответственно. К слову, последний был представлен как раз на NVIDIA GTC в марте 2018 года.

На самом деле нельзя с полной уверенностью сказать, что ускоритель NVIDIA PG506 является носителем новой архитектуры, будь то Ampere или что-либо другое. Не исключено, что это ещё какая-то новая версия Volta. Но всё же, хотелось бы верить, что NVIDIA уже регистрирует продукты на GPU нового поколения. Это бы означало, что они выйдут до конца года — обычно с момента регистрации в RRA проходит около полугода до появления устройств.

Постоянный URL: http://servernews.ru/1007803
26.11.2019 [15:00], Алексей Степин

NVIDIA анонсировала новые ускорители Tesla V100s

Корпорация NVIDIA объявила о пополнении семейства ускорителей на базе архитектуры Volta. Теперь в нём появилась новая модель Tesla V100s. Она доступна только в форм-факторе PCI Express, о версии SXM2 пока ничего неизвестно. 

Внешне V100s ничем не отличаются от V100 в том же форм-факторе

Внешне V100s ничем не отличаются от V100 в том же форм-факторе

В новой версии ускорителя NVIDIA удалось добиться производительности 8,2 Тфлопс в режимe FP64 и 130 Тфлопс для тензорных процессоров. Точные значения тактовых частот ГП, к сожалению, не приводятся.

На некоторых стендах SC19 имелось скромное упоминание о новинке

На некоторых стендах SC19 имелось скромное упоминание о новинке

На борту Tesla V100s установлены новые сборки HBM2 с более высокой тактовой частотй (1106 против 876 МГц), что позволило поднять пропускную способность памяти с 900 до 1134 Гбайт/с. Теплопакет удалось сохранить прежним, на уровне 250 Ватт.

Технические характеристики ускорителей NVIDIA Tesla V100

Таким образом, Tesla V100s стал быстрейшим ускорителем NVIDIA с архитектурой Volta. Единственное, в чём он уступает версии V100 в исполнении SXM2 ‒ в технологии межсоединений. Пропускная способность PCI Express x16 3.0 ограничена 32 Гбайт/с, в то время как конструктив SXM2 за счёт применения шины NVLink позволяет добиться показателя на порядок выше, 300 Гбайт/с. Возможно, версия V100s в этом исполнении появится позже. Стоимость Tesla V100s объявлена пока не была.

Постоянный URL: http://servernews.ru/998493
23.10.2019 [18:19], Алексей Степин

GIGABYTE G191-H44 и Tyan Thunder SX TN76-B7102 готовы к NVIDIA EGX

На днях NVIDIA анонсировала новое программно-аппаратное решение на базе платформы EGX для 5G-сетей и периферийных (edge) вычислений. Одновременно с этим собственные EGX-решения представили и производители серверного оборудования. 

К примеру, GIGABYTE обновила конфигурацию своего сервера G191-H44. Это компактное шасси формата 1U, способное нести на борту до четырёх ускорителей, поддерживает и карты NVIDIA T4.

GIGABYTE G191-H44

GIGABYTE G191-H44: компактность не мешает производительности

Напомним, что T4 построены на чипах с архитектурой Turing, они располагают 2560 ядрами CUDA и 320 тензорными ядрами. Производительность одной такой карты оценивается в 65 Тфлопс в смешанном режиме FP16/32. Мощность вычислений в режимах INT8 и INT4 составляет 130 и 260 Топс, соответственно.

Объём набортной памяти GDDR6 ‒ 16 Гбайт, скорость передачи данных 300 Гбайт/с. Охлаждение пассивное, обеспечивается средствами сервера, тем более что теплопакет не превышает 70 ватт. Платы выполнены в низкопрофильном форм-факторе, что позволяет им легко уместиться в таких корпусах, как у G191-H44.

Обновлённые серверы G191-H44 предназначены для работы в составе гибридных облаков NVIDIA NGC, благо, поддерживается установка новейших сетевых 100GbE-карт Mellanox. Система уже прошла все квалификационные тесты и имеет официальный статус NGC Ready.

Tyan Thunder SX TN76-B7102: простор дискового хранилища

Tyan Thunder SX TN76-B7102: простор дискового хранилища

Аналогичное решение предлагает другой игрок на рынке серверных систем, компания Tyan. Её сервер Thunder SX TN76-B7102 также поддерживает установку до четырёх ускорителей NVIDIA T4, но упакован он не столь плотно, как GIGABYTE G191-H44.

Корпус здесь имеет высоту 2U, что, помимо прочего, позволяет улучшить тепловой режим. К тому же для задач, требующих хранения существенного объёма данных, этот корпус подходит лучше, поскольку имеет 12 полноразмерных отсеков формата 3,5″ с поддержкой горячей замены накопителей. Это могут быть как 12 дисков с интерфейсом SATA, так и комбинация 8 дисков SATA и 4 накопителей NVMe.

Постоянный URL: http://servernews.ru/996102
27.09.2019 [17:49], Сергей Карасёв

«Зелёный» ИИ-суперкомпьютер TX-GAIA: до 100 Пфлопс смешанной точности

Вычислительный комплекс TX-GAIA (Green AI Accelerator) стал самым мощным университетским суперкомпьютером, предназначенным для решения задач в области искусственного интеллекта (ИИ). Пиковая производительность в LINPACK достигает 4,7 Пфлопс, а в вычислениях смешанной точности — 100 Пфлопс. 

Комплекс построен компанией Hewlett Packard Enterprise (HPE). Он расположен в Суперкомпьютерном центре Линкольнской лаборатории Массачусетского технологического института (MIT’s Lincoln Laboratory’s Supercomputing Center).

Вычислительная система объединяет 448 узлов HPE Apollo 2000. Задействованы 896 процессоров Intel Xeon Scalable Gold 6248 (20 ядер / 40 потоков) и 896 акселераторов NVIDIA Tesla V100, которые предназначены для ускорения вычислений в области машинного обучения и ИИ. Объём памяти достигает 172 Тбайт. Задействован интерконнект Intel Omni-Path. 

Суперкомпьютер установлен в комплексе EcoPOD, получающем энергию от ГЭС. 

Система будет решать задачи в области нейронных сетей и машинного обучения. Это могут быть аналитика медицинских данных, синтез материалов, прогнозирование погоды и пр. 

Постоянный URL: http://servernews.ru/994753
11.07.2019 [15:53], Сергей Карасёв

МТС предлагает компаниям воспользоваться облачным GPU-суперкомпьютером

Компания МТС объявила о запуске сервиса GPU SuperComputer — облачной платформы для высокопроизводительных вычислений, ориентированной на крупных корпоративных заказчиков, а также на предприятия малого и среднего бизнеса.

Сервис развёрнут в собственных дата-центрах МТС. Задействована программно-аппаратная платформа NVIDIA DGX с ускорителями Tesla V100, оборудованными 32 Гбайт памяти. Заказчикам доступны до 40 960 ядер CUDA и до 5120 ядер Tensor. 

Сервис GPU SuperComputer поможет ускорить разработку и внедрение проектов на основе искусственного интеллекта и больших данных. Небольшие компании смогут многократно сократить затраты на высокопроизводительные вычисления, связанные с обработкой видео, распознаванием лиц и речевыми технологиями.

«За счёт параллельно работающих вычислительных элементов суперкомпьютер эффективно решает задачи, которые задействуют огромные объёмы данных. Производительность сервиса GPU SuperComputer достигает одного петафлопса, что сравнимо по производительности с более чем сотней обычных серверов», — отмечает МТС.

Что касается стоимости, то цена подписки варьируется от 29 000 рублей до 200 000 рублей в месяц в зависимости от требуемой вычислительной мощности. Небольшие компании могут получить доступ к ресурсам по цене от 999 руб. в день. 

Постоянный URL: http://servernews.ru/990580
14.09.2018 [00:00], Константин Ходаковский

NVIDIA представила Tesla T4 — самый быстрый ИИ-ускоритель для ЦОД

NVIDIA вслед за профессиональной графикой Quadro RTX и игровыми ускорителями GeForce RTX представила на GTC 2018 в Японии новое семейство GPU для машинного обучения и анализа информации в центрах обработки данных. Новые решения Tesla T4 («T» в названии означает новую архитектуру Turing) являются преемниками текущего семейства GPU P4, которые сейчас предлагают практически все крупные поставщики облачных вычислений. По словам NVIDIA, Google будет в числе первых компаний, которые задействуют в своей облачной платформе ускорители T4.

NVIDIA утверждает, что T4 значительно быстрее, чем P4. Например, в задачах принятия решений, связанных с лингвистикой, T4 в 34 раза быстрее, чем CPU и более чем в 3,5 раза быстрее, чем P4. Пиковая производительность T4 составляет 260 TOPS для 4-битных целочисленных операций INT4, 130 TOPS — для INT8 и 65  терафлопс для смешанных тензорных операций FP16. При обычных расчётах с плавающей запятой FP32 обещана пиковая производительность в 8,1 терафлопс.

Низкопрофильная карта T4 предназначена для установки в стандартный 75-Вт слот PCI Express. Это означает, что для установки в 1U, 4U или иные стандартные серверные стойки не требуется думать о внешнем источнике питания: достаточно возможностей слота PCIe. А низкопрофильная конструкция обеспечивает широкую совместимость с самыми разными серверами.

Но главное, что NVIDIA разработала эти чипы специально для процессов логического умозаключения в искусственном интеллекте. «Столь эффективным графическим процессором для задач принятия решений Tesla T4 делают новые тензорные ядра архитектуры Turing, — подчеркнул вице-президент и руководитель по бизнесу ЦОД в NVIDIA Tesla Ян Бак (Ian Buck). — Исполнительный директор Дженсен Хуанг (Jensen Huang) уже говорил о тензорных ядрах и о том, что они могут предложить в играх, задачах рендеринга и в области ИИ, но они прежде всего предназначены для наибольшей эффективности в процессах логического умозаключения». Сообщается, что ускоритель включает 320 тензорных ядер и 2560 ядер CUDA Turing.

Поскольку объем онлайн-видео продолжает расти экспоненциально, спрос на решения для эффективного поиска и извлечения информации из видео также увеличивается. Tesla T4 обеспечивает высокую производительность и для задач, связанных с ИИ-анализом видео. А отдельные блоки перекодировки видеопотока обеспечивают двукратный рост производительности декодирования по сравнению с GPU предыдущего поколения. T4 может декодировать до 38 потоков видео 1080p, что позволяет легко интегрировать масштабируемое глубинное обучение в видеопрограммы для создания новых интеллектуальных услуг.

В дополнение к собственно Tesla T4 компания также представила обновление своего программного обеспечения TensorRT 5 для оптимизации моделей глубинного обучения. Эта новая версия также включает в себя сервер принятия решений TensorRT, полностью контейнерный микросервис для процессов логического умозаключения в центрах обработки данных, который легко подключается к существующей инфраструктуре Kubernetes.

Постоянный URL: http://servernews.ru/975330
28.07.2018 [14:30], Геннадий Детинич

В платформах Google для машинного обучения могут появиться NVIDIA Tesla P4

Как стало известно в ходе конференции Google Cloud Next 18, компания Google может дополнить свои облачные платформы по машинному обучению аппаратными решениями компании NVIDIA. Это довольно неожиданный шаг, поскольку для этих задач Google самостоятельно разрабатывает аппаратные ускорители Tensor Processing Unit (TPU) на базе ASIC. Оправданием этому может служить тот факт, что GPU NVIDIA в виде семейства решений Tesla пользуются широкой популярностью в отрасли как основа для платформ с машинным обучением.

Google TPU

Google TPU

Вместе с ускорителями Google TPU обещают соседствовать слегка устаревшие, но оптимальные для работы с разнообразными ML-моделями адаптеры NVIDIA Tesla P4. Решения выпускаются в виде 50-Вт и 75-Вт PCIe-карт. Максимальная производительность Tesla P4 для вычислений с одинарной точностью достигает 5,5 TFLOPS. Кроме этого ускоритель NVIDIA способен ускорять обработку видеопотоков (одновременно до 18 с разрешением Full HD) и обладает возможностью работать в составе виртуальных машин. Основная задача, которая будет возложена на Tesla P4 — это принятие решений, а не обучение, хотя GPU способны работать более-менее оптимально с целым спектром моделей, в отличие от того же Google TPU.

В случае использования Tesla P4 в составе обучающихся платформ Google (для обучения) выигрыш может оказаться в упрощении потоков данных, и это не создаст трудностей разработчикам, уже погрузившимся в фреймворк Google TensorFlow. Последний имеет тесную связь с NVIDIA TensorRT и может быть экспортирован для запуска на движке NVIDIA. Что также немаловажно, решения NVIDIA на базе GPU работают с существенно меньшими задержками, чем процессоры общего назначения, что крайне важно для операций с принятием решений. Разработчики Google, например, продемонстрировали 27-кратное превосходство Tesla P4 над процессорами Intel Xeon по параметру соотношения числа обработанных с секунду изображений на ватт.

В области облачных платформ для машинного обучения и принятия решений компании Google необходимо успешно соперничать с платформами Amazon AWS и Microsoft Azure. Последние не отказываются от продуктов NVIDIA Tesla, так что Google может взять от конкурентов лучшее, а не только полагаться на собственные аппаратные разработки.

Постоянный URL: http://servernews.ru/973224
26.06.2018 [16:26], Сергей Карасёв

ISC 2018: новая платформа ASRock Rack поддерживает десять ускорителей NVIDIA Tesla V100

Компания ASRock Rack на конференции ISC High Performance 2018 продемонстрировала ряд новейших решений для облачных систем, центров обработки данных и платформ высокопроизводительных вычислений.

В частности, показана серверная платформа 3U10G-F/C621. Эта система, выполненная в форм-факторе 3U, допускает установку десяти ускорителей NVIDIA Tesla V100 с 32 Гбайт памяти.

Платформа наделена 16 слотами для модулей оперативной памяти DDR4, шестью посадочными местами для 2,5-дюймовых SATA-накопителей с возможностью «горячей» замены и двумя сетевыми портами 10G Ethernet.

Кроме того, продемонстрирован сервер 2U4G-EPYCD8, поддерживающий установку одного процессора AMD семейства EPYC 7000. Для модулей оперативной памяти предусмотрены восемь слотов.

Сервер 2U4G-EPYCD8 соответствует формату 2U. Он может быть оснащён четырьмя графическими ускорителями, четырьмя 2,5-дюймовыми SATA-накопителями и двумя твердотельными модулями М.2.

Наконец, представлена серверная платформа 3U8G+/C621, допускающая установку восьми карт NVIDIA Tesla V100. Эта система может быть оборудована 16 модулями оперативной памяти DDR4. 

Постоянный URL: http://servernews.ru/971769
09.05.2018 [07:00], Иван Грудцын

Новые серверы Gigabyte поддерживают установку 8–10 ускорителей Tesla

На днях компания Gigabyte расширила модельный ряд barebone-серверов продуктами G481-S80 и G481-HA0, предназначенными для сборки мощных HPC-систем и вычислений в рамках решения задач глубинного обучения. Оба сервера выполнены в форм-факторе 4U (880 × 448 × 176 мм) и базируются на материнской плате MG61-G40, которая, в свою очередь, включает два процессорных разъёма LGA3647, чипсет Intel C621, 24 слота для оперативной памяти с шестиканальным доступом и 11 разъёмов Slimline 8i (по 8 линий PCI Express 3.0 на каждый). Вспомогательная плата позволяет подключать различные HPC-ускорители.

G481-S80

G481-S80

Схема материнской платы Gigabyte MG61-G40

Схема материнской платы Gigabyte MG61-G40

Barebone-сервер G481-S80 рассчитан на установку дуэта CPU Intel Xeon Scalable серий Platinum, Gold, Silver и Bronze (TDP до 205 Вт), а также восьми ускорителей NVIDIA Tesla V100 и P100 в форм-факторе SXM2. Система может включать до 1,5 Тбайт оперативной памяти RDIMM/LRDIMM DDR4-2133/2400/2666, дополнительные карты расширения PCI Express x8 (5 шт.) и PCI Express x16, и десять 2,5-дюймовых SSD/HDD (поддерживается горячая замена накопителей) с опциями RAID 0, 1, 5 и 10.

Сетевые возможности G481-S80 представлены тремя контроллерами Gigabit Ethernet. В качестве необязательного компонента в спецификации сервера указана связка из четырёх портов QSFP28 (Intel Omni-Path) с общей пропускной способностью 100 Гбит/с. Кроме того, в разъём PCI Express x8 можно установить сетевой адаптер с защитой от перегрузки по току. Питание системы обеспечивается четырьмя 2200-ваттными БП с резервированием. Используемые источники питания отмечены сертификатом 80 PLUS Platinum.

Ключевым отличием barebone-сервера Gigabyte G481-HA0 от родственной модели является поддержка десяти HPC-ускорителей с интерфейсом PCI Express x16. Помимо этого, система может похвастаться наличием двух 10-Гбит портов Ethernet и 22 разъёмов для накопителей (8 × U.2, 14 × SATA/SAS). Количество 2,2-кВт блоков питания с резервированием ограничено тремя.

Сервер Gigabyte G481-S80 без учёта массы CPU и GPU, и их охладителей весит 63 кг брутто. Продув радиаторов обеспечивается четырьмя 40-мм (25 000 об/мин) и шестью 60-мм (23 000 об/мин) вентиляторами. Масса продукта G481-S80 на сайте производителя не указана. Сервер продувается шестью вентиляторами типоразмера 60 × 60 × 76 мм.

Постоянный URL: http://servernews.ru/969442
28.03.2018 [12:10], Сергей Карасёв

Сервер GIGABYTE G190-G30 формата 1U допускает установку четырёх ускорителей Tesla V100

Компания GIGABYTE анонсировала сервер G190-G30 формата 1U, рассчитанный на монтаж в стойку.

Решение допускает установку двух процессоров Intel Xeon E5-2600 v4 или Xeon E5-2600 v3. Предусмотрены 16 слотов для модулей оперативной памяти DDR4-2133/2400, ёмкость каждого из которых может достигать 128 Гбайт.

Сервер может комплектоваться четырьмя ускорителями NVIDIA Tesla V100/P100 в форм-факторе SXM2. Предусмотрены два слота PCIe x16 (Gen3 x8) для низкопрофильных карт расширения.

Сервер имеет размеры 440 × 43,5 × 900 мм. Возможно использование четырёх 2,5-дюймовых накопителей с поддержкой «горячей» замены. Оснащение включает двухпортовый сетевой контроллер GbE LAN (Intel I350-AM2) и порт 10/100/1000 Management LAN. Устройство оборудовано двумя блоками питания мощностью 2000 Вт каждый.

Сервер допускает использование программных платформ Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, Ubuntu и VMware ESXi. Информации об ориентировочной цене новинки на данный момент, к сожалению, нет. 

Постоянный URL: http://servernews.ru/967632
Система Orphus