Материалы по тегу: xeon

16.12.2020 [23:00], Илья Коваль

Из-за ошибки в чипах выход серверных процессоров Intel Xeon Ice Lake-SP будет отложен как минимум до середины II квартала 2021 года

Часть тезисов, изложенных индустриальными аналитиками в ходе доклада для частной трейдинговой фирмы Susquehanna International Group, стала доступна широкой публике. Из них следует, что у Intel есть проблемы с серверным CPU поколения Ice Lake-SP, которые должны составить конкуренцию AMD EPYC Milan.

В частности, релиз Ice Lake-SP снова перенесён на более поздний срок из-за ошибки в чипах, о чём сообщают сразу несколько источников. Сейчас говорится о выпуске новинок в середине-конце второго или начале третьего квартала. Также сообщается, что производительность существенным образом не выросла. Кроме того, в релизных версиях максимальное число ядер в чипе сокращено с 38 до 36. Конкурент в лице EPYC Milan на базе Zen 3, анонс которого теперь уже наверняка состоится до выхода Ice Lake-SP, предложит как минимум те же 64 ядра в максимальной конфигурации, что и в поколении Rome.

Более того, предполагается, что Milan сможет составить конкуренцию и Sapphire Rapids, следующему поколению серверных процессоров Intel, релиз которых был перенесён со второго квартала 2021 года на второй квартал 2022-го. К этому моменту, если всё пойдёт по плану, AMD успеет подготовить следующее поколение CPU, EPYC Genoa. На него Intel сможет ответить в 2023 году процессорами Granite Rapids. В целом, если у обеих компаний не будет каких-то существенных изменений в реализации их планов, Intel сможет догнать AMD только в 2024-2025 годах, утверждают аналитики.

Постоянный URL: http://servernews.ru/1028038
17.11.2020 [18:00], Игорь Осколков

32-ядерные Intel Xeon Ice Lake-SP быстрее 64-ядерных AMD EPYC в ряде HPC-задач

Для Intel процессоры Xeon Scalable остаются основой для построения HPC- и ИИ-систем. Компания в очередной раз напомнила о соответствующих наборах инструкций AVX-512 для HPC и DL Boost для инференса, а также о поддержке Optane PMem, которая меняет иерархию памяти и позволяет работать с гигантскими наборами данных. Всё это будет и в новых CPU Ice Lake-SP.

Об архитектуре и новых возможностях этих CPU которых мы уже рассказывали ранее. Новые ядра Sunny Cove вкупе дают 18 % прироста IPC. Вкупе с увеличенной пропускной способностью памяти (8 каналов DDR4-3200, до 6 Тбайт RAM на сокет), а также с «удешевлением» инструкций AVX-512 (часть из них способна дольше работать на более высоких частотах) это дало прирост в 1,2-1,6 раз для популярных HPC-приложений в сравнении с процессорами прошлого поколения Cascade Lake. В SPECcpu2017 (fp) прирост составляет как раз средние для новых систем 38%. Кроме того, новинки, как и прежде, поддерживают до трёх профилей Intel Speed Select для оптимизации CPU под конкретные нагрузки.

На SC20 компания поделилась некоторыми новыми подробностями о грядущих процессорах. Полные спецификации Ice Lake-SP не раскрывает, однако предварительные результаты тестов впечатляют. Intel приводит сравнение 32-ядерных моделей Intel Xeon и с 64-ядерными AMD EPYC 7742. Утверждается, что новинки в 1,2-1,3 раза быстрее в задачах LAMMPS, NAMD (STMV) и расчётах по методу Монте-Карло. Речь идёт о двухсокетной системе Intel (2 × 32@2,2 ГГц) против двухсокетной же системы AMD (2 × 64@2,25 ГГц) с 256 Гбайт (16 × 16 Гбайт) DDR4-3200 RAM в обоих случаях.

Среди новых заказчиков, которые получат суперкомпьютеры и HPC-кластеры на базе новых процессоров компания особо выделяет следующих:

  • Корейская метеорологическая администрация (Korea Meteorological Administration, KMA) получит суперкомпьютер No. 5 производительностью 50 Пфлос. Он будет использоваться, как нетрудно догадаться, для изучения, моделирования и прогнозирования погоды и климата. Система будет развёрнута в январе 2021 года.
  • Вычислительный и информационный центр Общества Макса Планка (Max Planck Computing and Data Facility) будет использовать кластер Raven мощностью 9 Пфлопс для исследований в области физики, химии, биологии и так далее.
  • Японский национальный институт передовых промышленных наук и технологий (AIST) будет использовать Ice Lake-SP в новой системе AI Bridging Green Cloud Infrastructure, производительность которой в FP32-вычислениях составит до 850 Пфлопс.
  • Университеты Токи и Осаки получат кластеры на 2 и 2,8 Пфлопс соответственно. Это будут одни из первых систем на базе Ice Lake-SP в Японии.
  • В Oracle Cloud появятся облачные HPC-инстансы X9 на базе новых CPU Intel.
Постоянный URL: http://servernews.ru/1025597
14.10.2020 [16:00], Игорь Осколков

Intel Xeon Ice Lake-SP получат функции полного шифрования памяти, новые возможности SGX и аппаратную защиту платформы

Первые партии Intel Xeon Scalable третьего поколения, известные как Ice Lake-SP должны появиться в конце этого года, а массовый запуск, судя по всему, будет уже в следующем. Тем не менее, Intel постепенно делится информацией о грядущих новинках. Сегодня компании рассказала о новых функциях, направленных на повышение защиты и безопасности.

Первый анонс касается расширения возможностей Intel Software Guard Extensions (SGX) и AES-шифрования памяти. Сама по себе технология SGX не новая и уже довольно давно присутствовала в клиентских процессорах, а также в Xeon E. Intel SGX позволяет создавать выделенные, зашифрованные анклавы в оперативной памяти, куда имеет доступ только приложения (Ring 3), а ОС, гипервизор и прочие компоненты такого доступа не имеют. Для общения с памятью используется отдельный набор из 18 команд.

В Ice Lake-SP получили два значительных улучшения. Во-первых, операции собственно (де-) шифрования теперь имеют аппаратную реализацию, что значительно ускоряет процесс. Во-вторых, суммарный объём анклавов тоже заметно вырос — до 512 Гбайт на сокет или до 1 Тбайт для типовой двухсокетной машины. В старых CPU объём был 64-256 Мбайт, так что в такие анклавы приходилось складывать только наиболее ценные данные. Второе важное нововведение — поддержка полного прозрачного шифрования всей оперативной памяти Total Memory Encryption (TME), тоже с аппаратным ускорением.

Увы, Intel пока не делится подробностями об особенностях реализации новых функций. В частности, нет данных о том, каково максимальное количество анклавов и, соответственно, отдельных ключей шифрования может быть в системе, а также о том, как новые функции сочетаются с памятью Optane PMem, которая имеет собственный механизм принудительного шифрования в каждом модуле. Вероятно, в текущем виде в реальной системе придётся отказаться от одной из технологий.

Появление новых технологий шифрования памяти важно для концепции конфиденциальных вычислений (Confidential Computing), которая крайне актуальна для стремительно набирающих в условиях пандемии облачных сред — шифрования и изоляция данных в многопользовательской среде критически важна. Такие возможности в том или ином виде уже предлагают или изучают все крупные облачные провайдеры. А поддержка «старых» SGX присутствует в Microsoft Azure c 2015 года. Правда, Intel пока находится в догоняющих — AMD EPYC 7002 с аппаратным ускорением шифрования памяти SME и SEV появились больше года назад и постепенно проникают в облака.

Частично о нововведениях Intel уже рассказывала на Hot Chips 32. И сегодня ещё раз напомнила, что в Ice Lake-SP будет целый ряд новых инструкций для ускорения шифрования, генерации ключей, подписей, хеширования и так далее. Все они нужны для типовых операций, которые используются в наиболее распространённом ПО . Как и прежде, Intel активно сотрудничает с разработчиками, чтобы поддержка новых функций была готова к моменту выходу Ice Lake-SP на массовый рынок. Она даже организовала консорциум Confidential Computing Consortium.

Наконец, последняя новинка — Intel Platform Firmware Resilience (Intel PFR), система защиты от низкоуровневых атак на платформу в целом (по стандарту NIST-800-193). Она включает отдельную FPGA, которая контролирует работу других компонентов: микросхемы памяти BIOS и BMC, системные шины, Intel ME и прочее firmware, включая прошивку блоков питания. PFR позволяет определить и предотвратить вмешательство в низкоуровневые компоненты, а использование FPGA позволит конечным производителям кастомизировать системы под нужды конкретных заказчиков и индустрий в целом.

Постоянный URL: http://servernews.ru/1022927
22.09.2020 [15:58], Сергей Карасёв

Сервер Huawei FusionServer Pro 2488H V6: 4 CPU Intel Xeon Cooper Lake и 18 Тбайт памяти

На днях стало известно, что корпорация Intel получила разрешение от властей США разрешение на поставку продукции Huawei, а сегодня компании представили новый высокопроизводительный стоечный сервер FusionServer Pro 2488H V6 в форм-факторе 2U. Решение походит для использования в составе облачных сред, систем виртуализации, платформ HPC-вычислений и пр.

Новинка допускает установку до четырёх процессоров Intel Xeon Scalable третьего поколения (Cooper Lake) с максимальным значением рассеиваемой тепловой энергии (показатель TDP) до 250 Вт. Для модулей оперативной памяти DDR4-3200 доступны 48 разъёмов. Кроме того, можно задействовать до 24 модулей Intel Optane PMem 200. В сумме можно получить до 18 Тбайт памяти.

Сервер может быть оборудован 25 накопителями в форм-факторе 2,5 дюйма с интерфейсом SAS/SATA. Допускается также установка двух твердотельных накопителей типоразмера М.2. Поддерживаются массивы RAID 0, 1, 1E, 5, 50, 6, 60.

Предусмотрена возможность установки двух полноразмерных двухслотовых GPU-акселераторов. Один слот PCIe выделен для карты OCP 3.0 NIC. Питание обеспечивают два блока мощностью до 3000 Вт с возможностью «горячей» замены.

Говорится о совместимости с программными платформами Microsoft Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, CentOS, Citrix XenServer и VMware ESXi. Сервер имеет размеры 86,1 × 447 × 790 мм. Более подробно с техническими характеристиками устройства можно ознакомиться на этой странице

Постоянный URL: http://servernews.ru/1021231
18.08.2020 [15:26], Алексей Степин

Intel Xeon Ice Lake-SP: второе третье поколение Xeon Scalable

Корпорация Intel не так уж часто оказывается в роли догоняющего, но ей пришлось примерить на себя эту роль после анонса второго поколения AMD EPYC, а сейчас и IBM анонсировала более продвинутые в плане поддержки новейших интерфейсов и стандартов процессоры POWER10.

Разумеется, команда «синих» сдаваться не собирается и на мероприятии Hot Chips 32 компания раскрыла множество подробностей о процессорах Xeon с микроархитектурой Ice Lake. Их действительно можно назвать «вторым третьим поколением», поскольку звание третьего поколения они делят с анонсированными весной Xeon Cooper Lake.

Демонстрационный стенд Intel на базе Ice Lake-SP

Демонстрационный стенд Intel на базе Ice Lake-SP

Несмотря на это, данные серии процессоров отличаются кардинально. Cooper Lake рассчитаны на 4- и 8-сокетные системы, а Ice Lake-SP — на массовые 1- и 2-сокетные. При этом обе серии в определённой степени являются проходными, поскольку большая часть новейших технологий, таких как DDR5, PCIe 5.0, CXL 1.1 и других, будет реализована Intel лишь в поколении Sapphire Rapids в 2021 году.

Платформа Whitley, позволяющая устанавливать до двух Ice Lake-SP, не слишком отличается от классических двухпроцессорных систем на базе Xeon Scalable. Для связи CPU всё так же используется 2, либо 3 линии UPI, системная логика — по-прежнему Lewisburg. Однако в одном такая платформа сможет поспорить с AMD EPYC: Ice Lake-SP будут поддерживать PCI Express 4.0. Системные платы и разъёмы в любом случае потребуются новые, поскольку выросло число каналов памяти. Прототип такой платы уже был показан на Intel Architecture Day 2020.

Архитектурно Cooper Lake являются продолжением серии Cascade Lake Refresh и, в свою очередь, Skylake-SP. А вот ядра Ice Lake-SP базируются на ядрах Sunny Cove, которые были представлены два года назад; впрочем, речь идёт о внедрении продвинутой версии 10-нм техпроцесса Intel (SuperFin). Максимальное число ядер одного CPU осталось равным 28, здесь прорывов Intel не предлагает, однако mesh-компоновка всех блоков изменилась: вместо матрицы 6×6 теперь реализована 6×7.

Одной из причин этому стала смена контроллера памяти. Новый контроллер разработан с нуля и в сумме обеспечивает работу восьми каналов DDR4-3200, что даёт существенный прирост пропускной способности в сравнении с прошлыми поколениями «больших» Xeon, использующими шестиканальный контроллер. Количество точек подключения контроллера памяти к внутренней mesh-структуре возросло с двух до четырёх, это должно снизить латентность в некоторых сценариях.

Контроллер памяти также имеет ряд дополнительных мини-оптимизаций. Часть из них позволяет повысить производительность в специфических сценариях, например, в нагрузках OLTP, но и в целом параметры улучшились. Так, латентность при доступе к кешу соседнего процессора снижена до 70 наносекунд. Оптимизированы сценарии работы с малым количеством ядер и многое другое. Поддерживаются модули Optane DCPMM 200.

Детально об микроархитектуре Sunny Cove мы рассказывали ранее, её можно назвать эволюционным развитием Skylake. Увеличено буквально всё: ядро Sunny Cove может исполнять пять инструкций за такт вместо четырёх, исполнительных портов стало 10 вместо 8, увеличена пропускная способность кеша первого уровня, кеш второго уровня вырос с 1 до 1,25 Мбайт, появился второй блок FMA. И такой подход касается всего ядра, от размера окна внеочередного исполнения до объёма буфера ассоциативной трансляции (TLB).

Однако имеются не только количественные нововведения. В новых процессорах Intel реализовала поддержку новых векторных инструкций AES и VBMI, добавила поддержку GFNI, расширила в очередной раз набор AVX-512. Часть нововведений служит криптографическим задачам, но также внимание уделено и сценариям компрессии/декомпрессии данных. В различных сценариях превосходство над Cascade Lake может варьироваться от полуторакратного до более чем восьмикратного, что впечатляет.

В области технологий обеспечения безопасности Intel следует основной современной тенденции и Ice Lake-SP получили поддержку TME (Total Memory Encryption), то есть полного шифрования оперативной памяти по стандарту AES-XTS 128 бит. Естественно, обещано, что аппаратно сгенерированные ключ будет невозможно извлечь из системы, а накладные расходы на шифрование снизят производительность не более чем на 5% (в предварительных тестах это 2-3%).

В паре с SGX-анклавами получается, судя по всему, неплохая альтернатива AMD SVE и тому, что IBM реализовала в POWER10. Кроме того, значительно внимание уделено механизму когерентности и снижению задержек. В том числе, речь идёт об уменьшении задержек при переключении процессора между разными частотами и уровнями энергопотребления.

Intel придерживается целостного подхода и предпочитает говорить об оптимизации SoC как единой структуры в целом, а не только об отдельных компонентах. Тем не менее, интересно отметить, что система управления питанием процессора получило новую выделенную шину, функции которой отделены от шины общего управления и мониторинга. Подход довольно логичный: по количеству ядер «синие» пока не могут догнать AMD, поэтому уделяют первоочередное внимание повышению эффективности как отдельных ядер, так и процессора в целом.

И достигнутые результаты впечатляют: Ice Lake способен менять частоту ядер примерно за 12 микросекунд, причём процесс происходит без просадок, характерных для Cascade Lake, который может иногда «задумываться», что негативно сказывается на общей производительности. Так же легко новые процессоры меняют режим энергопотребления (P-state). Минимизирована известная проблема (или особенность, если хотите) процессоров Intel, а именно снижение частоты при использовании инструкций AVX, особенно AVX-512. Ряд не слишком «прожорливых» инструкций AVX теперь исполняется на более высоких частотах.

Важной частью Ice Lake-SP стали новые контроллеры PCI Express. В этом поколении о поддержке PCIe 5.0 говорить не приходится, тем более что соответствующей периферии на рынке всё равно ещё нет, но PCIe 4.0 поддерживается полностью. Сами контроллеры PCI Express усовершенствованы, они получили новый блок виртуализации (IOV) и лучше масштабируются на больших нагрузках.

В целом процессоры Intel Xeon Ice Lake-SP являют собой достаточно современный продукт. Конечно, достигнуть многоядерности AMD EPYC 7002 «синим» на этот раз не удалось, но многочисленные оптимизации и улучшения вкупе с поддержкой PCI Express 4.0 должны помочь Intel продержаться до появления действительно инновационных процессоров Sapphire Rapids. Также появление Ice Lake-SP благотворно скажется на скорости внедрения периферии с поддержкой PCI Express 4.0. Но на горизонте уже маячит PCI Express 5.0 и новые стандарты памяти.

Постоянный URL: http://servernews.ru/1018515
13.08.2020 [20:14], Алексей Степин

Intel Xeon Ice Lake-SP получат PCIe 4.0 и 8 каналов DDR4, а Sapphire Rapids — PCIe 5.0 с шиной CXL 1.1 и поддержку DDR5

На прошедшем на днях ежегодном мероприятии Intel Architecture Day компания рассказала немало интересного. В частности, «синие» анонсировали новый технологический процесс SuperFin с нормами 10-нм, обещающий до 20% прироста производительности транзисторов в сравнении с базовым 10-нм процессом Intel.Также компания раскрыла планы, относящиеся к выпуску серверных процессоров на базе архитектур Ice Lake и Sapphire Rapids.

О процессорах Ice Lake-SP до сегодняшнего дня официально было известно немногое. Ожидается, что они должны увидеть свет в рамках платформы Whitley уже к концу текущего года; не столь давно подтвердилась информация о том, что Ice Lake-SP получили официальную сертификацию PCI-SIG, свидетельствующее о поддержке интерфейса PCI Express 4.0. Сами процессоры уже существуют в кремнии. Ранее мы публиковали новость о том, что двухпроцессорная система на базе Ice Lake-SP смогла обойти в тестах 64-ядерный AMD EPYC.

На Intel Architecture Day была замечена демонстрационная платформа с процессором Xeon из семейства Ice Lake-SP. Она используется для разработки и тестирования новой графической архитектуры Intel Xe. По всей видимости, серийные системные платы для этой платформы также будут иметь по 16 разъёмов DIMM на процессорный разъём. Количество каналов памяти увеличится с шести до восьми, появится поддержка DDR4-3200 (Xeon Cascade Lake Refresh имеют шесть каналов DDR4-2933).

Также компания подтвердила поддержку полного шифрования оперативной памяти (Total Memory Encryption, TME) — это важный шаг с учётом того, что похожие технологии продвигают в «больших платформах» главные конкуренты Intel, компании ARM и AMD. Наследники Ice Lake-SP, процессоры Xeon Sapphire Rapids увидят свет уже в следующем году. Если Ice Lake-SP можно назвать эволюционным развитием серий Cascade Lake и Cooper Lake, то Sapphire Rapids претендуют название революционных. Для этого есть основания: платформа Sapphire Rapids получит поддержку DDR5, PCI Express 5.0, а также ряда других интересных технологий.

В частности, речь идёт о шине Compute Express Link 1.1. Это альтернативный способ общения процессоров друг с другом или иными компонентами системы, но работающий поверх физического уровня PCI Express. Это подразумевает отказ от UPI и более эффективную работу с памятью. К примеру, твердотельным накопителям на базе NAND не потребуется свой DRAM-кеш, они смогут эффективно использовать в этом качестве системную память. В первой инкарнации CXL будет использовать линки PCIe 5.0 со скоростью 32 Гт/с.

Для Sapphire Rapids также заявлена поддержка DSA (Data Streamig Accelerator). Это наследница технологии Intel I/O Acceleration Technology, её суть заключается в ускорении перемещения и преобразования крупных массивов данных, в том числе, в сценариях типа «перемещение из одного узла кластера в другой». Операции высокого уровня, вроде сверки контрольных сумм при этом будут выполняться автоматически. Компания также не забыла платформу Xeon D. Новое поколение Xeon D, которое будет базироваться на архитектуре Ice Lake, также появится в этом году.

Уже в течение длительного времени Intel вынуждена находиться на позиции догоняющего — компания не смогла освоить техпроцесс с 7-нм нормами, и даже освоение 10-нм поначалу шло с большим трудом, а ответить на 64-ядерные AMD EPYC оказалось и вовсе нечем. Однако уже к концу года ситуация начнёт меняться, а следующий год в сфере серверных технологий может пройти под знаком Intel благодаря внедрению «синими» таких передовых технологий, как DDR5, PCIe 5.0, DSA и CXL.

Постоянный URL: http://servernews.ru/1018191
01.07.2020 [14:08], Алексей Степин

Intel опубликовала первые сведения о новых инструкциях AMX

Изначально процессоры x86 были довольно простыми устройствами. Постепенно они обросли дополнительными наборами инструкций, начиная с MMX и заканчивая AVX-512. Но на AVX-512 прогресс не остановился, и x86 продолжает развиваться, что вполне логично на фоне активного наступления других архитектур. На днях Intel опубликовала сведения о наборе инструкций AMX, который будет реализован в Xeon Scalable следующего поколения.

Набор AMX (Advanced Matrix Extension) продолжает традицию снабжать современные процессоры инструкциями, облегчающими процесс вычислений для специфичных задач. Особенно для тех, что связаны с машинным интеллектом и обучением нейросетей. Первым таким набором Intel стали расширения AVX-512 VNNI (DL Boost), дебютировавшие в семействе Cascade Lake и предназначенные для векторных вычислений в формате INT8.

В Xeon Scalable Cooper Lake они получили поддержку формата bfloat16, также востребованного в системах машинного обучения, что позволило использовать CPU и для обучений нейросетей, а не только исполнения как прежде. Третьим же расширением в рамках инициативы Intel DL Boost станет AMX (Advanced Matrix Extension) — оно появится в четвёртом поколении процессоров Xeon Scalable Sapphire Rapids.

Также AMX можно назвать первым крупным расширенным набором команд со времён внедрения AVX-512. Оба варианта DL Boost строились на базе AVX-512, в то время как AMX является отдельным, независимым набором расширений. В целом, архитектура x86 затронута не будет, как это было и с AVX/AVX2, но процессоры получат новый регистровый файл с восемью тензорными регистрами («тайлами») максимальным размером в шестнадцать 64-байт строк (1 Кбайт на регистр, 8 Кбайт на файл).

Инструкции AMX будут синхронизированы с операциями load/store; использовать их можно будет одновременно с любым другим кодом, включая AVX2 и AVX-512. Также в AMX реализована новая концепция «ускорителей» (accelerators), которые и будут работать с вышеупомянутыми «тайлами». Сами «тайлы» заданы не жёстко и их можно конфигурировать через специальный регистр управления — задавать число строк и количество байт в строке для оптимального использования того или иного алгоритма.

В настоящее время набор AMX включает в себя всего 12 новых инструкций. Условно их можно разделить на три категории: инструкции конфигурирования, управление «тайлами» и работы с «тайлами». Стоит отметить, что «тайлы» могут использовать скалярное произведение (dot-product) векторов в форматах INT8 и BF16, реализованных ранее в Cascade Lake и Cooper Lake. Пока в спецификациях описан лишь один «ускоритель» — перемножение матриц «тайлов» (TMUL), однако это лишь начало.

Сейчас кристаллы с поддержкой AMX уже имеются лабораториях Intel. Компания сообщила о том, что «кремний» Sapphire Rapids успешно запущен и тестируется. Ожидать появления новых процессоров следует в 2021 году. А что касается AMX, то компания уже опубликовала подробную документацию на новые расширения. Скачать её можно с сайта Intel. Нужные сведения описаны в третьей главе документа и выделены зелёным цветом.

Постоянный URL: http://servernews.ru/1014687
23.06.2020 [12:49], Илья Коваль

OCS Distribution предлагает на тест HPE DL380 Gen10 на базе Intel® Xeon® Gold

В конце февраля компания Intel представила новые процессоры Cascade Lake Refresh — это третья по счёту серия в семействе Xeon Scalable. Пандемия расстроила планы по обновлению оборудования многих IT-отделов, но сейчас, с ослаблением различных ограничений и восстановлению цепочек поставок, самое время вспомнить, чем же процессоры Intel Xeon Scalable отличаются от других, их особенности и преимущества.

Семейство масштабируемых процессоров Intel® Xeon® второго поколения подразделяется на четыре класса, отличающиеся производительностью, возможностями и, конечно, ценой:

  • Bronze 3200 — недорогие CPU базового уровня. Они ориентирован использование в базовых системах хранения данных и серверах. Они, тем не менее, предоставляют необходимый уровень безопасности и удобства обслуживания и отлично подходят для малого бизнеса.
  • Silver 4200 — процессоры начального уровня, которые в сравнении с серий Bronze обладают более высокой производительностью и гибкостью за счёт числа ядер и потоков, частоты и памяти. Они оптимизированы для систем хранения данных, вычислений и сетевых функций и подойдут малому и среднему бизнесу, а также для ЦОД.
  • Gold 5200 и Gold 6200 — буквально «золотая середина». Процессоры этой серии имеют оптимизированную производительность, повышенную надёжность, продвинутую безопасность и лёгкую масштабируемость вплоть до четырёхсокетных систем. Эти универсальные CPU подходят для широкого ряда рабочих нагрузок и задач. Серия 6200 предлагает несколько более высокую скорость работы, зато серия 5200 более доступна.
  • Platinum 8200 ориентированы на высокую производительность, надёжность и безопасность, которые необходимы для построения гибридных и облачных сред, обработки больших потоков данных в режиме реального времени, машинного обучения и ИИ, HPC/HPDA и Big Data. Эти CPU поддерживают формирование восьмисокетных систем. В семейство Platinum также входит специализированная серия 9200, ориентированная на сверхтяжёлые вычислительные нагрузки.

Вне зависимости от серии все процессоры Cascade Lake (Refresh) имеют ряд отличительных особенностей. В частности, все они поддерживают «сверхширокие» векторные инструкции AVX-512, ускоряющие расчёты с плавающей запятой. Кроме того, есть поддержка инструкций VNNI, ориентированных на работу с нейронными сетями и ИИ — благодаря программно-аппаратным оптимизациями скорость работы в этих задачах увеличилась в 14 раз, так что в целом ряде случаев отпадает необходимость в покупке отдельного ускорителя. Речь идёт в первую очередь об исполнении, а не тренировке сетей, но именно это зачастую и требуется, так что процессоры довольно универсальны, так как позволяют работать и c FP64, и с INT8. А серии 6200/8200/9200 к тому же имеют сразу два FMA-порта для исполнения двух операций сразу.

Все процессоры предоставляют 48 линий PCIe 3.0, то есть в типовом двухсокетном сервере их будет уже 96, чего вполне достаточно для установки дополнительных контроллеров. Кроме того, чипсет Intel C620 может предоставить до четырёх 10GbE-портов с поддержкой RDMA, избавив таким образом от необходимости устанавливать сторонние адаптеры. А старшие версии чипсета предоставляют ещё Intel QuickAssist, аппаратный акселератор для ускорения (де)компрессии и операций шифрования, который снимает нагрузку с центрального процессора. Такой же функциональностью обладают и 100GbE-адаптеры Intel Ethernet 800, которые так же имеют функции ADQ и DDP для классификации и приоритетной обработки трафика.

PCIe-комплекс процессоров также включает NVMe-контроллер Intel VMD и программно-аппаратный RAID-контроллер VROC, что упрощает и ускоряет развёртывание быстрого и безопасного хранилища с возможностью горячей замены SSD. Это позволяет упростить платформу, ускорить развёртывание и повысить плотность. Причём, как и в случае с сетью от C620, можно получить комплексное решение — Intel предлагает различные варианты SSD, включая и недорогие, но ёмкие QLC-накопители, которые позволят ускорить обработку данных.

Наконец, у Intel есть и память Optane, доступная как в виде классической AIC, так и, в поколении Cascade Lake (Refresh), в виде DIMM-модулей (DCPMM), соседствующих с обычной оперативной памятью. Optane предлагает более высокие скорости в сравнении с SSD и более низкую стоимость в сравнении c DRAM. В сочетании с поддержкой от 1 до 4,5 Тбайт RAM на сокет открывается уникальная возможность получить действительно большой объём памяти без лишних затрат. Системы с Optane DCPMM идеально подходят для работы с Big Data, СУБД, анализа данных и SAP HANA. Как уже много раз говорилось, Intel фактически меняет иерархию памяти, сохраняя, если необходимо, совместимость с имеющимся ПО.

Помимо всего прочего, Intel также предоставляет целый ряд интегрированных технологий, помогающих повысить надёжность и стабильность работы в сочетании с лёгкой управляемостью как отдельного сервера, так и целого ЦОД. Также компания предлагает целый ряд программных инструментов, позволяющих максимально полно задействовать все имеющиеся технологии и аппаратные решения для упрощения и ускорения внедрения. Ну и, конечно, нельзя забывать о многолетнем сотрудничестве с массой разработчиков ПО, чьи решения заранее оптимизированы для работы на платформах Intel.

Самый простой способ изучить все возможности процессоров Intel и платформ на их основе — самому протестировать их в реальных нагрузках и задачах и получить при необходимости консультацию специалистов. Именно это предлагает известный российский дистрибьютор OCS, в демо-фонде которого теперь доступны HPE DL380 Gen10 и HPE DL360 Gen10 — одни из самых популярных универсальных двухсокетных 2U-серверов. Для теста доступны следующие машины:

  • HPE DL380 Gen10 c Intel Xeon Gold  6248 (20/40, 2,50/3,90 ГГц, L3 27,5 Мбайт) и корзиной 24 SFF;
  • HPE DL360 Gen10 c Intel Xeon Gold  6248 (20/40, 2,50/3,90 ГГц, L3 27,5 Мбайт) и корзиной 8 SFF;
  • HPE DL360 Gen10 c Intel Xeon Gold 6230 (20/40, 2,10/3,90 ГГц, L3 27,5 Мбайт) и корзиной 8 SFF.
Постоянный URL: http://servernews.ru/1013195
18.06.2020 [16:00], Алексей Степин

Intel представила Xeon Cooper Lake, третье поколение Scalable-процессоров

Крупнейший в мире производитель процессоров с архитектурой x86, компания Intel, представила новую платформу, нацеленную на быстро растущий рынок машинного обучения, аналитики и периферийных вычислений. Хотя платформа состоит из нескольких компонентов, главным из них являются новые процессоры Intel Xeon Scalable — это уже третье поколение серии Scalable.

Первое поколение Xeon Scalable (Skylake) отличалось наличием поддержки векторных расширений с длиной 512 бит, хотя эта поддержка была наиболее полной в других процессорах с разъёмом LGA 3647, ныне почивших Xeon Phi 72xx. Во втором поколении Xeon Scalable, известном под кодовым именем Cascade Lake, появились расширения AVX-512 VNNI (Vector Neural Network Instructions, они же DL Boost), и это был первый реверанс в сторону машинного обучения со стороны Intel — расширения позволялил работать с INT8 и подходили для инференса.

Третье поколение, получившее имя Cooper Lake, ещё больше продвинулось в сторону поддержки нетипичных для традиционной архитектуры x86 форматов вычислений. Главным нововведением здесь является поддержка формата bfloat16, который часто используется в комплексах машинного обучения и системах принятия решений (инференс). Он требует меньше вычислительных мощностей, нежели традиционные форматы FP32/64, но при этом в большинстве случаев обеспечивает достаточную точность вычислений, а итоговый выигрыш в производительности может быть почти двухкратным.

Популярные фреймворки, такие как TensorFlow и Pytorch, уже давно поддерживают bfloat16, а Intel-оптимизированные версии доступны в комплекте Intel AI Analytics Toolkit. Компания также оптимизировала среды OpenVINO и ONNX с учётом возможностей новых процессоров Xeon Scalable. Собственно говоря, самое главное в Cooper Lake то, что их теперь можно использовать и для обучения нейронных сетей, а не только для инференса. Intel отдельно подчёркивает универсальность новых CPU.

Что касается самих процессоров, то максимальное количество ядер сохранилось, их в серии Xeon Gold 53xx/63xx и Xeon Platinum 83xx по-прежнему 28 при поддержке SMT2. Однако улучшения есть, и достаточно серьёзные. Серия Xeon Platinum поддерживает память до DDR4-3200 (1DPC) и DDR4-2933 (2DPC), хотя младшие пяти- и шеститысячники так же ограничены 2666 и 2933 MT/с. Зато все они поддерживают память Intel Optane DCPMM 2-го поколения. Число каналов память осталось прежним, их шесть.

Существенное отличие от Cascade Lake в том, что теперь у всех CPU есть 6 линий UPI — они могут может «бесшовно» устанавливаться в системы с четырьмя или восемью процессорными разъёмами. Другое важное отличие — серия 53xx теперь имеет два FMA-порта для AVX-512, а не один как раньше. Часть новинок поддерживает Intel Speed Select.

У «ёмких» моделей с суффиксом HL максимальный объём оперативной памяти достиг 4,5 Тбайт, а у базовых H — до 1,12 Тбайт. Несколько подросли тактовые частоты, в серии есть модели с частотной формулой 2,9 ‒ 4,3 ГГц, причём большая часть новинок имеет частоту в турборежиме более 4 ГГц. Исключение — модели с пониженным энергопотреблением.

Всё это делает новые процессоры привлекательными для крупных предприятий, облачных провайдеров и гиперскейлеров вообще. Если даже на секунду забыть все новововведения для ИИ, Cooper Lake всё равно останется многосокетной платформой, а это значит, что он подходит для работы с большими СУБД, анализа больших объёмов данных в реальном времени, OLTP и виртуализации. В области 4S/8S-платформ у Intel давно крепкие позиции, так что новинки наверняка приглянутся определённому кругу заказчиков. Но массовыми Cooper Lake в текущем виде не станут.

Основной системный чипсет — Intel C620A, то есть обновлённый Lewisburg. В серию пока входит всего три модели, две из которых поддерживают технологию Intel QAT, ускоряющую работы по компресии и шифрованию. Так это обновление уже имеющихся чипсетов, поддержки PCI Express 4.0 нет. Сами процессоры Xeon Scalable третьего поколения по-прежнему могут предоставить в распоряжение системы до 48 линий PCIe 3.0. С учётом того, что ориентированы они на 4-сокетные системы, этого может быть вполне достаточно.

Однако другие процессоры Xeon Scalable «Ice Lake», для одно-двухсокетных платформ Whitley, которые Intel планирует представить позднее в этом году, уже получат поддержку PCI Express 4.0. Также известно, что четвёртое поколение Xeon Scalable под именем Sapphire Rapids получит набор новых матричных расширений (Advanced Matrix Extensions, AMX), которые, вероятно, буду напоминать тензорные ядра. Она увидит свет уже в 2021 году. Для массовых одно- и двухсокетных платформ пока предлагается использовать Cascade Lake Refresh

Вместе с Intel Xeon Cooper Lake компания также анонсировала второе поколение памяти Intel Optane DCPMM 200, накопители  Intel D7-P5500 и D7-5600 с интерфейсом PCIe 4.0 и новую FPGA Intel Stratix 10 NX.

Постоянный URL: http://servernews.ru/1013585
14.05.2020 [16:56], Юрий Поздеев

Penguin Computing представила OCP-платформу для Intel Xeon Platinum 9200

На мероприятии OCP Virtual Summit 2020 Penguin Computing представила новую модель сервера RELION XO1122eAP на базе Intel Xeon Cascade Lake-AP. Данное решение разработано с учетом стандартов OCP (Open Compute Project) и предназначено для использования в областях высокопроизводительных вычислений (HPC), ИИ и машинного обучения (AI/ML). 

Сервер RELLION XO1122eAP имеет форм-фактор 1U и предназначен для платформы TUNDRA AP второго поколения.

В компактном корпусе располагаются два узла Intel Server System S9200WK, каждый из которых включает в себя два процессора Intel Xeon 9200, до 3 Тбайт оперативной памяти DDR4 и два накопителя форм-фактора M.2.

Для отвода тепла от такой компактной системы используется жидкостная система охлаждения CoolIT. Питается система от стойки — для этого используется три независимых модуля с напряжением 48В постоянного тока (OCP Rack V.2). Данный сервер не предполагает использование дополнительных GPU/ускорителей. В портфолио Penguin Computing есть подобные решения, но они не обладают такой высокой плотностью размещения.

Таким образом, в 1U-сервере можно получить систему с 224 ядрами и 6 Тбайт оперативной памяти. При этом цена такой системы будет невысока — разработчик в своем пресс-релизе делает на этом акцент. Именно простота обслуживания и низкие эксплуатационные расходы являются преимуществами оборудования на базе OCP.

В стандартной стойке OCP Rack можно разместить до 40 подобных серверов, что делает это решение одним из самых компактных на рынке.

Постоянный URL: http://servernews.ru/1010937
Система Orphus