Материалы по тегу: intel

05.12.2019 [21:12], Владимир Романченко

Intel делает первые шаги по продвижению oneAPI в России

Intel провела первый в мире хакатон по гетерогенному программированию с использованием языка Data Parallel C++ для студентов. 

Одновременно Intel также провела в Нижнем Новгороде первое открытое командное соревнование для разработчиков по решению прикладных задач в области компьютерного зрения с иcпользованием инструментария Intel Distribution of OpenVINO.

Язык Data Parallel C++ (DPC++) является частью проекта oneAPI, представленного на SC19. Финалисты решали задачи по оптимизации кода под процессоры Intel Xeon Gold с использованием DPC++, открытого инструментария oneAPI Base toolkit и облачного сервиса для разработки Intel DevCloud. Призовой фонд студенческого состязания составил 60 тысяч рублей.

Результаты финального тура проверялись на специально сконфигурированных серверах. Основным критерием оценки стала производительность. Победителями стали студенты первого и второго курсов, при этом лучшее решение позволило за время хакатона добиться ускорения вычислений в 14 раз.

Хакатон Intel по компьютерному зрению c продолжался 30 часов, в нем приняли участие 40 опытных разработчиков. Задачей турнира стало создание алгоритмов на основе нейронных сетей для решения одной или нескольких актуальных прикладных задач и создание рабочего прототипа с применением инструментария Intel Distribution of OpenVINO. Сама концепция OpenVINO и стала во многом основой для oneAPI. Призовой фонд хакатона по компьютерному зрению составил 180 тысяч рублей.

Первое место занял проект по распознаванию речи и эмоций по аудио, что является областью применения OpenVINO. «Серебряные» призеры представили способ таргетирования рекламы по распознаванию посетителей магазинов, а также механизм поощрения клиентов за участие в мини-игре с использованием жестов. Третье место присуждено за решение проблемы поиска свободных мест на парковках. 

Отдельно жюри отметило работу по определению номеров автобусов, подъезжающих к остановкам. Озвучивая номера маршрутов, автоматическая система могла бы помочь слабовидящим людям выбрать нужный им транспорт.

Постоянный URL: http://servernews.ru/999133
30.11.2019 [21:04], Алексей Степин

Intel опубликовала предварительные спецификации технологии Data Streaming Accelerator

Корпорация Intel выложила в свободный доступ предварительную версию спецификаций новой технологии DSA. Расшифровывается это как Data Streaming Accelerator (ускоритель потоковой передачи данных).

Данная технология должна будет заменить используемую ныне QuickData, являющуюся подмножеством Intel I/O Acceleration Technology. Появится поддержка DSA во всех новых процессорах Xeon.

Технология DSA призвана ускорить операции с перемещением и преобразованием данных в самых различных ситуациях — от локальной работы с различными типами памяти до сценариев типа «перемещение данных в другой узел кластера». Она также может выполнять ряд операций высокого уровня, таких как генерация и сверка контрольных сумм или сравнение различных регионов памяти с последующей выдачей разницы (delta); последнее может быть полезно для дедупликации данных.

Архитектура Intel DSA полностью поддерживает виртуализацию

Архитектура Intel DSA полностью поддерживает виртуализацию

Спецификации DSA предусматривают PCIe-совместимый интерфейс, что должно упростить разработку программного обеспечения с поддержкой новой технологии. Также в DSA реализована развитая поддержка виртуализации, существенно упрощающая проверку и миграцию виртуальных машин. В документации, опубликованной Intel, содержится полноценное описание новой технологии, которое может помочь разработчикам ПО уже сейчас, хотя речь и идёт о предварительных спецификациях.

Постоянный URL: http://servernews.ru/998750
27.11.2019 [14:14], Алексей Степин

SC19: исследование эффективности Intel Optane DCPMM и IMDT в научных расчётах

Огромные объёмы данных генерируют не только пользователи социальных сетей; как мы уже рассказывали читателям, сервис «ВКонтакте» вынужден прибегать к использованию новых технологий Intel Optane, чтобы справиться с такой нагрузкой.

Не меньших, а то и сопоставимых ресурсов требуют некоторые научные задачи. Некоторые из них просто нуждаются в чудовищных объёмах оперативной памяти. Использование гибридных решений на базе памяти Intel Optane позволяет решить данную проблему.

Оценка сравнительной эффективности таких решений была представлена в докладе на SC19, сделанным c.н.с. к.ф.-м.н. химического факультета МГУ имени М. В. Ломоносова Владимиром Мироновым. Работа подготовлена при участии зав. лаб. Суперкомпьютерного моделирования ИВМИМГ СО РАН, к.ф.-м.н. Игоря Черных.

Традиционный ответ на задачу заключается в использовании гибридных систем хранения данных или, в случае массивных параллельных вычислений, систем распределённой памяти. Но оба варианта ответа имеют свои недостатки: СХД, даже гибридные, могут оказаться недостаточно быстры, а работа с распределённой памятью существенно усложняет программное обеспечение и, опять-таки, в некоторых случаях приводит к неприемлемому проседанию производительности.

Технология Intel IMDT позволяет расширять память за счёт накопителей Optane

Технология IMDT позволяет расширять память за счёт накопителей Optane

Кроме того, затраты на создание подобных инфраструктур бывают весьма велики ‒ достаточно сравнить стоимость гигабайта DRAM и флеш-памяти. Существует третий ответ, который заключается в применении гибридной памяти на базе микросхем Intel Optane. Сама технология Optane позволяет говорить об априори более высокой производительности, нежели у SSD, и тем более, HDD, а стоимость гигабайта продолжает оставаться ниже аналогичного показателя для DRAM.

Принципы функционирования IMDT

Принципы функционирования IMDT

Одно из предлагаемых Intel решений носит название IDMT (Intel Memory Drive Technology), причём, оно вовсе не обязательно требует применения модулей NVDIMM Optane DC Persistent Memory. Благодаря развитым средствам виртуализации, которые могут быть доступны ещё на этапе инициализации UEFI, становится возможным расширять объём оперативной памяти с помощью классических PCIe-накопителей Optane DC P4800X. 

Другой вариант базируется на применении модулей Optane DC PMM, он тоже позволяет расширять память за счет нового типа энергонезависимой памяти. Однако реализация DCPMM проще: она не требует установки накопителей с интерфейсом PCIe и лишена потенциального узкого места в виде пропускной способности PCI Express.

Вычисление полиномов. По мере роста интенсивности вычислений эффективность решений на базе Intel Optane приближается к уровню DRAM

В обоих сценариях память выглядит для рабочей задачи единым пространством; переделка программного обеспечения не требуется. Конечно, даже чипы Optane не столь быстры, как DRAM, но, как показывают результаты проведённых исследований, даже на задачах, чувствительных к пропускной способности подсистемы памяти, можно получить 25 ‒ 40% от производительности «только DRAM». В своей работе российский учёный использовал обе схемы, IMDT и DCPMM. Он оценил их эффективность в различных научных задачах и сравнил с показателями эталонной системы, использующей только классическую память DRAM.

Результаты тестирования: дискретные преобразования Фурье. IMDT справляется со сложными схемами доступа к памяти лучше, нежели DCPMM

В тех случаях, когда приложение не критично к ПСП, но чувствительно к объёмам, потери могут быть совсем незначительными, а выигрыш за счёт упрощения ПО ‒ весьма существенным. Обычно это задачи со сложными, но предсказуемыми схемами доступа к памяти. Есть свои выгоды и у схемы с использованием модулей Optane DCPMM ‒ она лучше всего показывает себя при простых алгоритмах доступа к данным.

Результаты тестирования: квантовая химия. Эффективность DCPMM выше, нежели IMDT

Для проведения экспериментов, доказавших надёжность и преимущества решений на базе Intel Optane, были использованы двухпроцессорные системы на базе Xeon Gold 6254. В конфигурации IMDT в системе присутствовало 192 Гбайт DDR4 и 4 накопителя Optane DC P4800X ёмкостью 375 Гбайт каждый (суммарно 1,5 Тбайт).

Результаты тестирования: моделирование динамики астрофизических объектов. Код не оптимален, потеря эффективности у обеих систем Optane

Сценарий DCPMM предусматривал установку 12 модулей DDR4 ECC по 16 Гбайт (192 Гбайт суммарно) и 12 модулей Optane DC PMM по 128 Гбайт (1,536 Тбайт суммарно); можно представить себе стоимость системы с таким объёмом памяти, построенной полностью на DRAM. «Контрольный» сервер использовал конфигурацию с 24 модулями объёмом 64 Гбайт ‒ те же 1,536 Тбайт суммарно.

Создано в России: программный комплекс HydroBox3D позволяет моделировать астрофизические феномены

В числе прочего стоит упомянуть использование отечественной разработки ‒ программного комплекса HydroBox3D для моделирования сложных гидродинамических процессов на базе технологии вложенных свёрток, применяющегося в астрофизике (проект AstroPhi). Авторство принадлежит сотрудникам Института вычислительной математики и математической геофизики СО РАН.

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

По итогам проведённого эксперимента становится очевидно, что использование технологий Intel Optane в научных расчётах полностью оправдано как с точки зрения достигаемой ёмкости подсистемы памяти, так и с точки зрения затрат на оборудование. В настоящий момент доступны модули Optane объёмом до 512 Гбайт и производительностью в районе 2,3 Гбайт/с при записи и 6,8 Гбайт/с при чтении данных. Массовые DIMM пока ограничены значением 64 Гбайт, хотя и более производительны.

Постоянный URL: http://servernews.ru/998430
26.11.2019 [13:15], Сергей Карасёв

Плата ASUS Pro WS C422-ACE поможет создать мощную рабочую станцию

Компания ASUS выводит на рынок системную плату Pro WS C422-ACE, о подготовке которой сообщалось в сентябре нынешнего года.

Новинка призвана стать основой мощной рабочей станции. Плата выполнена в формате ATX (305 × 244 мм) с применением набора логики Intel C422. Возможна установка процессоров Xeon W-2200 в исполнении LGA 2066.

Поддерживается работа с оперативной памятью DDR4-2933/2666/2400/2133: для этих модулей есть восемь слотов. Предусмотрены три коннектора M.2 и два разъёма U.2 для твердотельных модулей. Есть также шесть стандартных портов SATA 3.0 для подключения накопителей.

Видеоподсистема может быть сформирована по схеме NVIDIA 3-Way SLI или AMD 3-Way CrossFireX — для графических ускорителей доступны три слота PCIe 3.0 x16 (один функционирует в режиме x8).

Плата располагает сетевыми контроллерами Intel I219-LM и Intel I210-AT, а также многоканальным звуковым кодеком. На интерфейсной панели сосредоточены три порта USB 3.2 Gen 2 Type-A, порт USB 3.2 Gen 2 Type-C, четыре разъёма USB 3.2 Gen 1 Type-A, два порта USB 2.0, гнёзда для сетевых кабелей и аудиогнёзда.

Плата рассчитана на работу в круглосуточном режиме. Цена пока не раскрывается. 

Постоянный URL: http://servernews.ru/998455
25.11.2019 [10:57], Сергей Юртайкин

Ветеран серверного бизнеса Intel уходит в отставку

Раджиб Хазра (Rajeeb Hazra), вице-президент Intel Data Center Group и глава подразделения Enterprise and Government Group, уходит из компании после более 24 лет работы в ней. Кто займет его место, не сообщается.

Ранее в СМИ проходила информация о том, что вице-президент Intel Data Center Group Триш Дамкрогер (Trish Damkroger) сменит Хазру. Однако в Intel заявили, что Дамкрогер «останется во главе бизнеса в сфере высокопроизводительных вычислений, а слухи о том, что она заменит Раджа, не соответствуют действительности».

Как рассказал изданию сам Раджиб Хазра, он уходит в отставку по собственному желанию. Свою карьеру в Intel он назвал «потрясающим путешествием», а свой мозг — «ещё молодым». Хазра намерен остаться в полупроводной отрасли, но новую место работы он не назвал.

Хазра присоединился к Intel в 1995 году, перейдя из компании Lockheed. Прежде он пять лет работал в исследовательском центре NASA в Лэнгли.

За время своей работы в Intel Хазра занимал несколько инженерных и управленческих должностей в корпоративных исследовательских лабораториях и отделе Digital Enterprise Group. В серверном подразделении Intel под руководством Навина Шеноя (Navin Shenoy) Хазра возглавлял направление Enterprise and Government Business Group.

Постоянный URL: http://servernews.ru/998375
21.11.2019 [23:41], Алексей Степин

SC19: ИИ-ускорители Intel Nervana NNP-T в новых платформах SuperMicro

Мимо выставки, проходящей параллельно с конференцией SC19, не могла пройти такой крупный производитель и поставщик серверных аппаратных комплектующих и готовых платформ, как SuperMicro.

Это имя знакомо, наверное, всем, кто хоть как-то связан с серверным оборудованием. И на выставке новинки SuperMicro представлены весьма богато. Среди них есть весьма интересные наработки в популярной нынче сфере машинного обучения

К таким наработкам относится новая платформа на базе Nervana NNP-T, созданная в тесном сотрудничестве с корпорацией Intel. Как правило, в кластерах машинного обучения применяются графические ускорители NVIDIA, но в последнее время стали набирать популярность решения на базе специализированных чипов и FPGA. 

Основой новой кластерной платформы служат ускорители Intel Nervana. Они существуют в двух версиях, NNP-I (Spring Hill) и NNP-T (Spring Crest). Чип NNP-T представляет собой 16-нм 24-ядерный тензорный процессор, интегрированный с модулями памяти HBM2 объёмом 32 Гбайт.

Архитектура Intel NNP-T

Архитектура Intel NNP-T

Его производительность составляет примерно 120 Тераопс (триллионов операций в секунду) на частоте 1,1 ГГц, уровень энергопотребления варьируется в пределах 150 ‒ 250 Ватт. Каждое тензорное ядро имеет два блока перемножения матриц 32×32, форматы вычислений ‒ BFloat16 либо FP32/16/8. Также каждое ядро имеет небольшой объём собственной сверхбыстрой памяти, 2,5 Мбайт, 60 Мбайт на кристалл. Интерфейс у Spring Crest PCIe 4.0 x16, либо универсальный SerDes (16 линков x8).

Ускорители Intel NNP-T могут быть не только в формате PCI Express

Основой кластера SuperMicro для NNP-T является корпус высотой 4U, в котором можно разместить до восьми ускорителей Spring Crest. В качестве основных системных процессоров выбраны Xeon Scalable второго поколения; выбор не вполне понятный, поскольку они поддерживают только PCI Express 3.0, тогда как карты NNP-T могут работать и с PCI Express 4.0. Объём системной памяти одного узла ‒ до 6 Тбайт, не считая набортной HBM2 у ускорителей.

Таких узлов в кластере может быть до 128 (масштабируемость NNP-T ‒ до 1024 процессоров), что в пределе может дать свыше 15 Петаопс производительности. Демонстрируемая платформа позиционируется как идеальное решение для обучения нейросетей машинного зрения и распознавания речи, медицинской аналитики (реконструкция томограмм и т.п.), оснащения автономных транспортных средств, а также для исследований в нефтегазовой отрасли.

Разумеется, SuperMicro не ограничилась одной новой платформой, а представила также и ряд более классических новинок. К примеру, одной из таких новинок является сервер AS-4124GS-TNR. Он использует процессоры AMD EPYC второго поколения, 11 слотов расширения PCI Express 4.0 позволяют устанавливать до 8 полноразмерных ускорителей, таких, как NVIDIA Tesla или Quadro.

В этой системе поддерживаются новейшая версия Tesla

Полностью поддерживаются новейшие ускорители Tesla V100S с повышенной производительностью и HBM2. Заказчик может выбирать конфигурацию дисковой подсистемы, набираемой модулями по 16 дисков SATA либо 4 накопителя NVMe. 32 разъёма DDR4 DIMM позволяют установить до 8 Тбайт оперативной памяти. За питание этого монстра отвечает связка блоков питания 2 + 2 мощностью 2000 Ватт каждый.

Компания показала и новые сверхплотные лезвийные системы серии A+. Они также получили поддержку EPYC 7002, каждое из четырёх лезвий в шасси может нести по два 64-ядерных процессора AMD и по 4 Тбайт оперативной памяти. Установка однослотовых плат PCIe поддерживается, но для сетевых карт применяется компактный форм-фактор SIOM. Питается такой мини-кластер от блока питания мощностью 2200 Ватт. Каждое из четырёх лезвий имеет собственный шестидисковый отсек формата 2,5 в передней части корпуса системы.

Представляет интерес также новые системы хранения данных, к примеру, гибридная SYS-1029U-TN12RV. Она весьма компактна, занимает всего 1U в высоту, но в ней нашлось место для пары Xeon Scalable. Если это процессоры второго поколения, объём модулей Optane DC может достигать 6 Тбайт, а основное хранилище состоит из 12 двухдюймовых отсеков с поддержкой NVMe.

Похожими возможностями обладает SYS-1029P-N32R, но в ней количество накопителей с разъёмом U.2 достигает 32. Здесь интересна конструкция дисковых отсеков ‒ они выдвигаются подобно вычислительным лезвиям, накопители устанавливаются с боковых сторон.

А вот система SSG-1029P-NES32R представляет собой пример решения на базе накопителей «линеечного» формата EDSFF Short. На ухищрения по размещению накопителей здесь идти не пришлось, «линеечный» формат позволяет устанавливать рядом сразу 32 накопителя с поддержкой NVMe.

Линеечный форм-фактор твердотельных накопителей имеет свои преимущества

Также демонстрировалась и более крупная система SYS-8049U-E1CR4T. В ней уже четыре процессорных разъёма LGA 3647, а дисковая подсистема реализована 24 отсеками с горячей заменой формата 3,5″. Поддерживаются стандарты SAS и SATA, аппаратный RAID, опционально ‒ NVMe.

Классичекская платформа: четыре Xeon Scalable, 24 «больших» диска и сертификация SAP HANA

Наконец, SuperMicro показала новые суперсерверы серии SuperBlade. Модель SBE-820C-622 позволяет устанавливать до 20 двухпроцессорных узлов Xeon Scalable, либо 10 четырёхпроцессорных узлов. Поддерживаются смешанные конфигурации, до 15 узлов. Один из отсеков занимает коммутатор класса 100Gb (InfiniBand или Intel OmniPath).

Дополнительно можно установить до двух коммутаторов 10GbE. Конфигурация питания зависит от типа и количества установленных процессорных модулей, в максимальной конфигурации это 8 блоков мощностью по 2200 Ватт. Любопытна также модульная конструкция самих лезвий ‒ передний отсек может содержать либо 3 корзины для накопителей формата 2,5″, 2 корзины с поддержкой NVMe, либо полноценное место для установки однослотовой платы расширения PCI Express. Таким образом, описываемая система обладает большой гибкостью и может быть сконфигурирована в точности с нуждами заказчика. 

Постоянный URL: http://servernews.ru/998175
18.11.2019 [07:02], Игорь Осколков

SC19: подробности об архитектуре ускорителей Intel Xe HPC

Как и было обещано ранее, архитектура Xe (Exascale for everyone) будет универсальной, и на её основе можно будет создавать GPU любого уровня. Правда, речь, как оказалось, шла всё-таки больше о программной совместимости на уровне драйверов и интерфейсов для сохранения наследия, оставшегося от интегрированной графики. Ведь пользователей таких GPU миллионы и миллионы. 

А вот микроархитектур для разных задач будет несколько, и их соотношение в готовых продуктах тоже будет разным.

Ускоритель Intel X<sup>e</sup> HPC

Ускоритель Intel Xe HPC

Для ультрабуков и мобильных устройств всё так же останется интегрированная видеокарта класса Xe LP (Low Power) с упором на энергоэффективность. В картах среднего уровня Intel сделает акцент на графическую составляющую. Решения класса Xe HP для дата-центров уже не имеют существенных ограничений по питанию, поэтому получат более мощные вычислительные блоки.

Наконец, карты Xe HPC под кодовым названием Ponte Vecchio, которые и были представлены сегодня, получат тысячи исполнительных блоков и будут самыми мощными во всей серии. Ускорители Xe будут сочетать подходы SIMT и SIMD, характерные для GPU и CPU соответственно, и использовать векторные инструкции переменной длины. Предварительные тесты показывают, что такое сочетание может дать прирост в 1,5–2,5 раза на некоторых классах задач. Для упрощения разработки и портирования кода предлагается воспользоваться oneAPI, который также был анонсирован в рамках доклада Intel.

Кроме того, новые ускорители обещают эффективную работу и с разными типами данных. Для форматов INT8, Bfloat16 и FP32 будет отдельный движок Matrix Engine для параллельной обработки матриц. Вероятно, это аналог TensorCore. Проще говоря, всё это нужно для ИИ, машинного обучения и так далее. Но и классические для HPC вычисления двойной точности тоже не забыты. Обещано ускорение таких операций до 40 раз на каждый исполнительный блок.

Масштабирование касается не только типов вычислительных блоков и их числа, но и доступа к памяти, который в Xe тоже кардинально переделали. Сами блоки Xe и HBM2-память связаны посредством отдельной фабрики XEMF (XE Memory Fabric) с поддержкой когерентности. К ней же подключаются и CPU, и GPU, и другие ускорители. XEMF оснащена особым, сверхбыстрым и ёмким кешем Rambo Cache. Такой подход призван устранить дисбаланс, характерный для ряда современных ускорителей, которые могут попросту не получать вовремя данные для обработки.

Конкретный размер Rambo Cache пока не уточняется, но говорится, что его объёма хватит для наиболее крупных блоков данных, которые сейчас используются при вычислениях. Rambo Cache будет упакован с помощью Foveros, а для подключения HBM-памяти будет использоваться EMIB. Техпроцесс, как уже было сказано много-много раз, будет 7-нм.

Кроме того, ускорители Xe HPC получат те же технологии обеспечения надёжности и стабильности работы, что используются в Intel Xeon. Итого: к 2021 году за счёт аппаратных и программных инноваций компания обещает в 500 раз повысить производительность вычислительных узлов на базе технологий Intel.

Постоянный URL: http://servernews.ru/997874
18.11.2019 [04:00], Андрей Созинов

SC19: Intel oneAPI — унифицированная модель программирования для разных архитектур

Помимо первого ускорителя на архитектуре Xe, компания Intel в рамках конференции SC19 представила oneAPI — единую унифицированную модель программирования, которая должна упростить разработку программного обеспечения, работающего сразу с несколькими архитектурами.

Проще говоря, Intel создала бесплатную, открытую и стандартизированную альтернативу NVIDIA CUDA и подобным проприетарным решениям, которая позволяет легко адаптировать ПО под другие архитектуры и оборудование, будь то центральные или графические процессоры, ПЛИС или ускорители. Причём oneAPI не привязан к оборудованию Intel и способен работать на самых разных устройствах.

Как отмечает Intel, инициатива кросс-архитектурной модели разработки oneAPI основана на отраслевых стандартах и открытой спецификации, что должно обеспечить широкое внедрение и распространение. Спецификация oneAPI включает в себя язык прямого программирования Data Parallel C++ (расширение Khronos SYCL), мощные API, готовые библиотеки и инструменты разработки.

Однако в инициативе oneAPI компания Intel не ставит задачу создать какой-то универсальный код для всех платформ. Вместо этого предполагается, что за счёт oneAPI при переносе ПО с одной архитектуры на другую можно будет адаптировать лишь части кода, не меняя всё остальное.

Бета-версия программного обеспечения oneAPI, также представленная Intel, предоставляет разработчикам полный набор инструментов для разработки, включающий компиляторы на базе LLVM, готовые библиотеки и отладчики, собранные в специальные наборы инструментов (Toolkit), предназначенные для тех или иных областей применения. Ещё Intel выпустит множество обучающих материалов по oneAPI и готова оказывать разработчикам помощь в адаптации их кода под oneAPI.

Ещё Intel предоставляет разработчикам возможность тестирования программного обеспечения в процессе адаптации его под oneAPI. Для этого был создан сервис DevCloud, который позволяет тестировать ПО на различных актуальных архитектурах Intel, включая как серверные процессоры Xeon Scalable, так и настольные Core (для тестирования ПО на встроенных GPU), а также FPGA Arria и Stratix.

Первая бета-версия oneAPI как раз и предназначена для серверных процессоров Intel Xeon Scalable, потребительских процессоров Intel Core с интегрированной графикой и программируемых матриц Intel FPGA. С выходом новых версий модели набор поддерживаемого аппаратного обеспечения будет расширяться.

В конце же отметим, что инициативу Intel oneAPI уже поддержало довольно много компаний и университетов. В том числе: Lenovo, AtoS, Cray, HPE, Tencent, Стокгольмский университет и многие другие.

Постоянный URL: http://servernews.ru/997868
14.11.2019 [20:18], Алексей Степин

Обнаружена уязвимость TPM-Fail: ключи, хранимые в модулях TPM, под угрозой

Модули TPM (Trusted Platform Module) часто устанавливаются в системы, с помощью которых осуществляется обработка конфиденциальной информации. Одна из функций этих модулей — генерация и безопасное хранение ключей шифрования. Для этого на борту модуля имеется отдельный криптопроцессор.

Но, как выяснилось, использование TPM не дает стопроцентной гарантии от утечки данных.

Архитектура криптопроцессора TPM

Архитектура криптопроцессора TPM

Группа исследователей, в которую вошли представители Вустерского политехнического института, а также Любекского и Калифорнийского университетов, разработала метод атаки, позволяющий восстанавливать значения закрытых ключей, сохранённых в модуле TPM.

Атака получила название TPM-Fail — она затрагивает как программно-аппаратные решения Intel (CVE-2019-11090), так и модули, построенные на базе чипов STMicroelectronics ST33 (CVE-2019-16863). Исследовали выложили в публичный доступ прототип ПО для атаки, а также продемонстрировали возможность восстановления 256-битного закрытого ключа, который используется в ЭЦП-алгоритмах ECDSA и EC-Schnorr.

Модуль TPM, установленный на системную плату. Версия Infineon, уязвимости нет

Модуль TPM, установленный на системную плату. Версия Infineon, уязвимости нет

В основе новой атаки лежит временной анализ операций в процессе генерирования цифровой подписи. Оценка задержек позволяет получить информацию об отдельных битах, но для успешного восстановления ключа необходимо довольно существенное время.

Это время оценивается в 4-20 минут (до 15 тысяч операций) в случае решения Intel и порядка 80 минут (до 40 тысяч операций) для аппаратных TPM на базе ST33, поскольку для временного анализа необходима генерация нескольких тысяч ЭЦП для уже известных атакующему данных.

STMicroelectronics признала ошибку и сообщает, что в новой редакции криптопроцессора работа алгоритма ECDSA более не даёт задержек, которые можно было бы проанализировать. Интересно, что в аналогичных чипах Infineon и Nuvoton данная уязвимость отсутствует изначально.

Результаты аудита SDK для создания защищённых приложений

Результаты аудита SDK для создания защищённых приложений

Что касается решений Intel, то описываемая проблема затрагивает все процессоры, начиная с поколения Haswell — как мобильные и десктопные, так и серверные. Но компания также признаёт наличие уязвимости и уже в ноябрьском обновлении прошивок она была устранена наряду с 24 другими различными уязвимостями.

Дополнительно стоит отметить публикацию результатов аудита различных средств разработки приложений, работающих с кодом, выполняемых в изолированных анклавах. По результатам выявлено 35 уязвимостей, потенциально позволяющих извлечь из AES-ключи или даже запускать какой-либо вредоносный код. Как выяснилось, архитектура Intel SGX не является единственной уязвимой — потенциально под угрозой находится также и RISC-V Keystone

Постоянный URL: http://servernews.ru/997692
14.11.2019 [08:00], Андрей Созинов

Intel Ponte Vecchio: первый дискретный графический процессор на архитектуре Intel Xe

Компания Intel поделилась с прессой информацией о своих будущих 7-нм графических процессорах на архитектуре Intel Xe с кодовым названием Ponte Vecchio. Ресурс VideoCardz по своему обыкновению поделился этой информацией с широкой общественностью.

Ponte Vecchio или по-русски Понте-Веккьо — старинный и весьма известный мост во Флоренции. Такое кодовое название явно указывает на то, что для этих графических процессоров предполагается работа не поодиночке, а в связках, например, с использованием интерконнекта CXL (Compute Express Link).

Использование интерконнекта говорит о том, что Intel Ponte Vecchio будут использоваться не в игровых видеокартах. Первые графические процессоры с архитектурой Xe лягут в основу ускорителей вычислений для суперкомпьютеров экзафлопсного уровня.

Сообщается, что 17 ноября Intel раскроет подробности о своём новом проекте Aurora (англ. — Аврора) — экзафлопсной суперкомпьютерной платформе на центральных процессорах Xeon Sapphire Rapids, графических процессорах Ponte Vecchio и с новыми средствами разработки OneAPI. Если точнее, то кластер Aurora будет включать:

  • Два процессора Intel Xeon Scalable на микроархитектуре нового поколения Sapphire Rapids
  • Шесть графических процессоров Intel Xe Ponte Vecchio
  • Среду OneAPI

По данным источника, в новых материалах для прессы Intel заявляет, что при создании графических процессоров Ponte Vecchio будет использоваться многокристальная 3D-компоновка Foveros и интерконнект CXL. Сообщается, что графические процессоры Intel Xe будут обладать очень большим объёмом кеша и высокой пропускной способностью памяти. Ещё отмечается, что чипы Ponte Vecchio будут обладать высокой производительностью в вычислениях двойной точности (FP64).

Также в свежих материалах Intel перечисляет все направления, в которых будет представлена графическая архитектура Intel Xe. Это высокопроизводительные вычисления и суперкомпьютеры экзафлопсного уровня, глубокое обучение и ИИ, облачные системы, рабочие станции, игровые компьютеры, а также мобильные и ультрамобильные ПК. То есть, Intel планирует использовать свою новую графику везде.

Постоянный URL: http://servernews.ru/997616
Система Orphus