NVIDIA обвиняет Intel в некорректных результатах тестирования Xeon Phi

 

Корпорация NVIDIA активно продвигает свою продукцию не только в сфере дискретной графики, но и в сфере супервычислений (HPC). Именно поэтому, разрабатывая архитектуру Pascal, она уделила столько внимания её вычислительным возможностям. Intel, разумеется, не хочет уступать NVIDIA и активно продвигает свои решения в виде многоядерных ускорителей на базе процессоров Xeon Phi (в настоящее время это чипы с архитектурой Knights Landing). Борьба в этом секторе, похоже, идёт нешуточная, поскольку NVIDIA осмелилась обвинить Intel в предоставлении некорректных сравнительных данных о производительности Xeon Phi.

Слайд, ставший камнем преткновения

Слайд, ставший камнем преткновения

По версии NVIDIA, Intel использовала старое программное и аппаратное обеспечение для того, чтобы выставить свой продукт, Xeon Phi, в наилучшем свете. На слайде, продемонстрированном на ISC 2016, Intel утверждает, что Xeon Phi может обеспечивать более чем двукратный (2,3x) прирост скорости в обучении нейронных сетей, нежели конкурирующие решения NVIDIA. Xeon Phi также на 38 % лучше масштабируется, если верить данным, приведённым на этом слайде. NVIDIA посчитала нужным опровергнуть эти утверждения в блоге компании. Во-первых, Intel использовала старую версию тестового ПО Caffe AlexNet, в то время как последняя, содержащая соответствующие оптимизации версия этого программного пакета, даёт 30-процентное преимущество именно решениям NVIDIA, даже тем, которые использовались в сравнении Intel.

Процессор Xeon Phi с интегрированной памятью и интерфейсом Omni-path

Процессор Xeon Phi с интегрированной памятью и интерфейсом Omni-path

Во-вторых, было отмечено, что Intel сравнивает свои решения с ускорителями на базе архитектуры Maxwell; если бы это были процессоры Pascal, преимущество «зелёных» составило бы 90 %. Вопрос о масштабируемости также неоднозначен, поскольку Intel, по словам NVIDIA, сравнивала 32 сервера с Xeon Phi с 32 серверами, оснащёнными ускорителями NVIDIA Kepler четырёхлетней давности — Tesla K20X. Даже при использовании ускорителей на базе Maxwell, заявляет NVIDIA, масштабируемость была бы практически линейной при увеличении количества графических процессоров вплоть до 128. NVIDIA считает графические процессоры оптимальными решением для задач глубокого машинного обучения, но Intel с этим утверждением не согласна и защищает свои позиции, утверждая, что для нашумевшего сравнения производительности использовались широко доступные программные и аппаратные средства.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Источник:

Постоянный URL: https://servernews.ru/938033
Поделиться:  

Комментарии

Система Orphus