Материалы по тегу: intel

17.01.2020 [20:40], Владимир Романченко

Реорганизация ЦОД-подразделения Intel может сопровождаться массовыми увольнениями

SemiAccurate со ссылкой на собственные источники в компании сообщил, что на этой неделе в одном из подразделений компании Intel начались массовые увольнения. Официальные представители Intel пока не подтверждают эту информацию, ограничившись ранее таким комментарием: «Сообщения о значительном сокращении сотрудников в нашем подразделении Data Platforms Group (DPG) неточны».

По их словам, в ЦОД-подразделении компании в настоящее время идут «скорее перестановки, нежели реорганизация» в связи с «новыми рыночными целями компании».

По данным SemiAccurate, речь идет о сокращении до 25-33% от общего числа сотрудников дивизиона Data Center Group, но не всех сразу, а постепенно, до конца первого квартала 2020 года. Как отмечают источники SemiAccurate, в DCG, которая теперь влилась DPG, ряд ключевых сотрудников уходят на пенсию, часть получили повышение, но некоторые все же попали под массовые сокращения.

В свою очередь, портал Anandtech со ссылкой на собственные источники подтверждает информацию о том, что в связи с реорганизацией бизнеса и переформатирования рабочих групп внутри дивизиона Data Center Group, ряд сотрудников в настоящее время «переводится на другие должности, получают повышения, меняют названия должностей, а кто-то действительно будет уволен».  

Фактически Data Center Group (DCG) стала одним из подразделений Data Platforms Group (DPG) — наряду с рядом других подразделений по различным продуктам. Ключевое отличие DPG от DCG заключается в том, что отныне Intel намерена сфокусировать свои усилия на продвижении платформ, а не отдельных продуктов.

Самой заметной перестановкой в топ-менеджменте Intel в рамках реорганизации пока что является назначение Навина Шеноя (Navin Shenoy), бывшего исполнительного вице-президента и генерального директора DCG, на аналогичную должность в DPG. Другой значительной перестановкой можно назвать назначение Лизы Спелман, вице-президента DCG и генерального менеджера по маркетингу процессоров Xeon и ЦОДов, на должность вице-президента и генерального директора новой группы Xeon and Memory (Optane) (XMG). Ей предстоит координировать развитие продуктов Xeon и памяти Optane, но с сохранением участия в маркетинге.

Недавно также сообщалось, что Радж Хазра (Raj Hazra) уходит в отставку с должности главного управляющего подразделения решений для предприятий и правительств в DCG. Эта группа будет объединена с группой облачных платформ и технологий DCG, которой в настоящее время руководит Джейсон Гребе (Jason Grebe), а Джейсон станет генеральным директором новой объединенной группы, охватывающей значительную часть корпоративного и облачного бизнеса Intel, а также решений для государственных предприятий.

По данным Anandtech, если увольнения в DCG и/или других подразделениях Intel и носят массовый характер, то они затронут скорее сотрудников отделов продаж и маркетинга. На просьбу портала представить организацию новую корпоративной структуры в Intel заявили, что в настоящее время они не в состоянии обнародовать эту информацию публично.

Постоянный URL: http://servernews.ru/1001699
16.01.2020 [12:19], Алексей Разин

Ценовые «войны» с AMD: Intel резко снижает стоимость Xeon Cascade Lake L и отказывается от M-версий CPU

Информация о соответствующих действиях Intel начала распространяться по не совсем обычным каналам. Компания уведомила крупные зарубежные сайты о прекращении поставок процессоров Xeon серии «M» поколения Cascade Lake через почтовую рассылку, одновременно снизив цены на процессоры серии «L», но публичный прайс-лист на сайте производителя до последнего момента содержал данные от четвёртого ноября прошлого года.

Данный документ Intel пообещала обновить в ближайшие дни.

Источник изображения: Intel

Источник изображения: Intel

В семействе Xeon поколения Cascade Lake присутствуют три типа процессоров, если ориентироваться на максимальный поддерживаемый объём оперативной памяти. Стандартное исполнение подразумевает ограничение объёма ОЗУ на отметке 1,5 Тбайт. Процессоры серии «M» поднимают планку до 2 Тбайт, но требуют доплаты примерно в $3000 на процессор по сравнению со стандартной моделью. Наконец, процессоры серии «L» обеспечивают поддержку 4,5 Тбайт оперативной памяти, но они дороже стандартных моделей примерно на $7000.

Anandtech

Anandtech

Реформа Intel призвана немного исправить подобное неравенство. Модели с литерой «M» в обозначении модели вообще перестают поставляться. На их ценовые позиции переводятся модели с литерой «L». Таким образом, в ассортименте процессоров Xeon поколения Cascade Lake остаются только стандартные процессоры с поддержкой 1,5 Тбайт памяти и процессоры с поддержкой 4,5 Тбайт памяти, которые потребуют доплаты в районе $3000. Впрочем, L-версии актуальны скорее для тех, кому интересна память Intel Optane DCPMM.

AMD, напомним, старается за подобные различия в функциональных возможностях смежных моделей доплаты не брать. Скорее всего, к гуманизации ценовой и ассортиментной политики Intel подтолкнула именно конкурентная угроза со стороны EPYC Rome

Постоянный URL: http://servernews.ru/1001562
10.01.2020 [14:28], Алексей Разин

Эксперты не исключают вероятности задержки анонса 10-нм процессоров Ice Lake-SP

Продвижение 10-нм технологии производства процессоров Intel заметно только в мобильном сегменте, поскольку поставки процессоров Ice Lake начались ещё в прошлом полугодии, а на CES 2020 в январе уже были представлены процессоры Tiger Lake, которые будут выпускаться по 10-нм технологии следующего поколения.

В серверном сегменте 10-нм процессоры Ice Lake-SP должны дебютировать во второй половине этого года, хотя они уже отстают от первоначального графика. Некоторые аналитики продолжают утверждать, что процессоры Ice Lake-SP во втором полугодии выйти не успеют.

Источник изображения: Intel

Источник изображения: Intel

Компании Intel уже приходилось отрицать подобные слухи, и тогда её представители заявили, что анонс процессоров Ice Lake-SP и платформы Whitley намечен на вторую половину 2020 года. Ранее считалось, что они выйдут в первой половине текущего года, но небольшая задержка, по некоторым данным, должна позволить Intel улучшить характеристики этих процессоров — прежде всего, увеличить количество ядер до 38 штук, поскольку им предстоит конкурировать с 7-нм процессорами AMD EPYC.

Эксперты Mizuho Securities склонны считать, что AMD сможет увеличивать свою долю серверного рынка более быстрыми темпами, чем ожидают многие аналитики. Во-первых, как утверждают авторы прогноза, возможные шаги Intel по активизации так называемой «ценовой войны» уже были предприняты в прошлом году, и теперь влияние этого фактора более предсказуемо. Во-вторых, стабилизация взаимоотношений КНР и США должна способствовать более активному росту серверного рынка в наступившем году.

Кроме того, специалисты Mizuho Securities верят, что предрекаемая ими задержка анонса Ice Lake-SP позволит AMD быстрее увеличить свою долю рынка. Другое дело, что они оценивают долю AMD в 9,1 % по состоянию на конец текущего года, тогда как собственные прогнозы компании говорят о преодолении планки в 10 % уже к середине этого года. Безусловно, могут иметь место расхождения в методике подсчёта и источниках статистических данных.

Постоянный URL: http://servernews.ru/1001178
31.12.2019 [22:32], Андрей Галадей

В Linux 5.6 может улучшиться производительность Intel-серверов

Как известно, сейчас идёт разработка ядра Linux 5.6. И, по данным ресурса Phoronix, некоторые серверные платформы Intel могут получить улучшение производительности с выходом новой версии. 

Рафаэль Высоцкий (Rafael Wysocki) из Intel добавил в перечень патчей доработки для драйвера Intel-Idle. Это позволяет лучше использовать ACPI _CST на серверных системах.

По словам разработчика, во мноигх случаях состояния управления питанием процессоров (или C-состояния) отключены в BIOS, за исключением C1E. Эти состояния позволяют оптимизировать энергопотребление процессора в зависимости от нагрузки. При этом в отключённом виде C-состояния не перечислены ACPI _CST. Поэтому если используется intel_idle с таблицей C-состояний для текущей версии процессора, они не будут доступны в и рамках этого режима.

pixabay.com

pixabay.com

Отмечается, что патчи позволяют улучшить показатели производительности на уровне 12,6 % в бенчмарке FS-Mark, для которого важна и производительность CPU. Правда, пока неизвестно, как они влияют на другие показатели энергоэффективности и рабочие нагрузки системы. Изменения коснутся всех последний поколений CPU Intel, вплоть до Nehalem. 

Постоянный URL: http://servernews.ru/1000743
30.12.2019 [16:15], Андрей Галадей

Intel Clear Linux стал самым быстрым дистрибутивом для x86-64

За последние годы количество дистрибутивов Linux только увеличивалось. Однако самым интересным из них оказался Clear Linux, который создан специалистами корпорации Intel. Если верить Phoronix, он оказался одним из наиболее производительных и быстрых x86_64-дистрибутивов, а также смог предложить ряд новых функций, которых нет у других.

В Clear Linux удалось на порядок ускорить загрузку — она сократилась с 3 секунд до 300 мс. Кроме того, разработчики активно наращивают пакетную базу Clear Linux, чтобы сравниться с другими популярными дистрибутивами. Доступно скачивание live-образов и сборок для виртуальных машин и облачных сервисов.

geekswithblogs.net

geekswithblogs.net

Если говорить непосредственно о задачах, в которых  Clear Linux превосходит другие дистрибутивы, то это касается нескольких аспектов. К примеру,тестирование   Clear Linux и   Manjaro (на базе Arch) в более чем сотне бенчмарков показало, что решение Intel превосходит аналоги по ряду показателей. 

phoronix.com

phoronix.com

В сравнении с Ubuntu и Fedora дистрибутив за год показал рост быстродействия на 7 %, тогда как у вышеназванных сборок он не превышает 1-2 %. А тестирование в Python 3.7.2 показывает полуторакратное превосходство в Clear Linux. Это говорит об отличной оптимизации. Дистрибутив, как сообщается, получил улучшения по части обработки видео HEVC/VP9/AV1 (проверялось на последних Xeon), поддержки инструкций AVX и памяти Optane DCPMM. 

А вот так выглядят результаты тестов скорости загрузки:

phoronix.com

phoronix.com

phoronix.com

phoronix.com

phoronix.com

phoronix.com

Столь высокая скорость загрузки полезна для встраиваемых систем. В частиности, китайский автопроизводитель Chery  в новых SUV использует аппаратную платформу Intel Apollo Lake вкупе с ACRN для запуска Clear Linux и Android 9. MontaVista, разработчик решений для встраиваемых систем также освоил Clear Linux. 

Помимо этого, новинку уже используют многие компании, в том числе китайский гигант Alibaba, который отказался от CentOS. Ранее Microsoft анонсировала доступность Clear Linux для Azure. Сама Intel предлагает готовые, предоптимзированные стеки ПО на базе Clear Linux для типовых задач и конфигураций. 

Напомним, что Clear Linux представили в 2015-м. В системе используются атомарные обновления ПО, агрессивная оптимизация, жёсткое разделение конфигурации самой системы и пользовательского окружения. ОС отличается возможностью глубокой кастомизации сборок. Для запуска хватает одноядерного процессора и 128 Мбайт ОЗУ.

Постоянный URL: http://servernews.ru/1000657
13.12.2019 [09:55], Алексей Разин

Intel отрицает дальнейшую задержку выхода 10-нм процессоров Ice Lake-SP

Компании Intel однажды уже пришлось признаться, что 10-нм процессоры Xeon серии Ice Lake-SP выйдут позднее, чем ожидалось. В сентябре глава корпорации заявил, что анонс перенесён со второго квартала 2020 года на второе полугодие.

На этой неделе в высказываниях другого руководителя Intel проскочило упоминание о «конце 2020 года» при обсуждении сроков выхода Ice Lake-SP. Это сразу породило слухи о возможности переноса анонса этих процессоров на 2021 год, но представители Intel их быстро опровергли.

Источник изображения: AnandTech

Источник изображения: AnandTech

Напомним, на технологической конференции UBS представляющий интересы Intel Венката Рендучинтала (Venkata Renduchintala) обмолвился, что 10-нм процессоры Xeon должны дебютировать к концу 2020 года. Когда ведущий переспросил его по поводу сроков, он назвал уже укрупнённый период — вторую половину года. Дальнейшим возмутителем спокойствия традиционно выступил ресурс SemiAccurate, который среди своих подписчиков распространил информацию о смещении анонса Ice Lake-SP на 2021 год. Этот же слух поддержали аналитики Wells Fargo, получившие соответствующую информацию по независимым каналам из отраслевых источников.

Сайт Tom’s Hardware связался с представителями Intel, и те опровергли внесение изменений в график анонса своих серверных процессоров. Они напомнили, что в первой половине следующего года появятся 14-нм процессоры Cooper Lake, а 10-нм процессоры Ice Lake-SP начнут производиться во втором полугодии. Оба семейства процессоров смогут работать в одних материнских платах с разъёмом LGA 4189, их объединит платформа с условным обозначением Whitley. Наконец, в 2021 году Intel обещает представить серверные процессоры семейства Sapphire Rapids. Недавние откровения ASML о планах Intel позволяют судить, что они будут выпускаться по четвёртому поколению 10-нм техпроцесса.

Добавим, что первоначальное решение о смещении анонса процессоров Ice Lake-SP на второе полугодие было принято Intel ради более равномерного обновления ассортимента продуктов, поскольку 14-нм процессоры Cooper Lake должны дебютировать уже в следующем полугодии. По неофициальным данным, задержка позволила Intel увеличить количество ядер у старших моделей Ice Lake-SP с 26 до 38 штук.

Обновление: Российский офис Intel также подтвердил, что для платформы Whitley в первом полугодии 2020 начнётся производство Cooper Lake, а во втором — Ice Lake. Sapphire Rapids появится в 2021 году.

Постоянный URL: http://servernews.ru/999650
09.12.2019 [20:30], Алексей Степин

Intel начала поставки ИИ-ускорителей Nervana NNP

Образцы ускорителей Intel Nervana и готовых систем на их основе были продемонстрированы на выставке, сопутствующей конференции SC19.

Официальный анонс Intel состоялся ещё на мероприятии AI Summit в начале ноября, а совсем недавно стало известно о начале поставок первых партий этих ИИ-ускорителей заказчикам, в число которых входит компания Supermicro. Также появились точные данные об их технических характеристиках.

Образец ускорителя Intel NNP-T (вариант OAM)

Образец ускорителя Intel NNP-T (вариант OAM)

Начнём с мощных ускорителей Nervana на базе тензорного процессора NNP-T, известного под кодовым именем Spring Crest. Это 24-ядерный чип с производительностью около 120 Тераопс, способный работать с форматами BFloat16 или FP32/16/8. Он производится с использованием 16-нм техпроцесса и интегрирован с четырьмя сборками HBM2 общим объёмом 32 Гбайт.

Архитектура Intel NNP-T

Архитектура Intel NNP-T

В серию пока входит две модели ‒ NNP-T 1300 и NNP-T 1400, они выполнены в форм-факторах PCIe x16 4.0 и Open Accelerator Module (OAM). Поскольку формат PCIe ограничен в габаритах, он имеет менее мощную систему охлаждения. Поэтому в нём активно только 22 тензорных ядра из 24, а тактовая частота снижена до 950 МГц. Но даже с применением таких мер теплопакет составляет внушительные 300 Ватт.

Доступные на сегодня модели ускорителей на базе NNP-T

Доступные на сегодня модели ускорителей на базе NNP-T

Модель NNP-T 1400 благодаря формату OAM имеет более внушительный радиатор и здесь процессор работает в полную силу. Активны все ядра, а тактовая частота составляет 1100 МГц при теплопакете 375 Ватт. Объём памяти HBM2 у обеих версий одинаков и составляет 32 Гбайт. Также оба ускорителя имеют 16 линий интерфейса ICL (inter-chip link) для соединения с другими ускорителями в системе.

Система на базе PCIe-варианта NNP-T. Видны соединительные мостики ICL

Система на базе PCIe-варианта NNP-T. Видны соединительные мостики ICL

Масташбируемость у NNP-T высока, до 1024 процессоров, однако младшая модель ограничена меньшим числом и может использовать только кольцевую топологию ICL. А вот NNP-T 1400 могут быть сконфигурированы и в более сложные сети, например, «все соединены со всеми» или «гибридный куб». Компания Supermicro сообщила, что оба варианта систем на базе NNP-T уже готовы к массовому производству и их поставки начнутся в ближайшее время. Вероятнее всего, речь идёт о начале 2020 года.

Intel NNP-I, вариант M.2

Intel NNP-I, вариант M.2

Не забыла Intel и о решениях на базе процессора NNP-I (Spring Hill). Этот чип имеет совсем другую архитектуру и производится с испольованием 10-нм технологических норм. Его производительность варьируется в широких пределах, от 50 Тераопс у модели NNP-I 1100 до 170 Тераопс у NNP-I 1300. Соответственно, отличаются и теплопакеты: 12 и 75 Ватт. Стоит также напомнить, что в составе кристалла NNP-I имеются два ядра Sunny Cove с архитектурой x86. Их наличие существенно упростит разработку ПО под эти ускорители.

Доступные модели ускорителей на базе NNP-I

Доступные модели ускорителей на базе NNP-I

Младшая модель выполнена в популярном форм-факторе M.2 и использует 4 линии PCI Express 3.0. Старшая являет собой обычную плату расширения PCI Express x8 3.0. Благодаря большим размерам платы, на ней размещается сразу два 12-ядерных процессора NNP-I. На SC19 была показана версия в «линеечном» формате EDSFF, однако она пока не анонсирована официально.

Новый форм-фактор позволит разместить до 32 ускорителей в корпусе высотой 1U. Удельная производительность такой платформы очень высока: в сравнении с 4U-платформой на базе 20 ускорителей NVIDIA T4s решение Supermicro/Intel оказалось быстрее до 3,75 раз. Информации о сроках доступности NNP-I в формате EDSFF пока нет; остальные модели, как и было сказано в начале, уже поставляются заказчикам.

Постоянный URL: http://servernews.ru/999368
05.12.2019 [21:12], Владимир Романченко

Intel делает первые шаги по продвижению oneAPI в России

Intel провела первый в мире хакатон по гетерогенному программированию с использованием языка Data Parallel C++ для студентов. 

Одновременно Intel также провела в Нижнем Новгороде первое открытое командное соревнование для разработчиков по решению прикладных задач в области компьютерного зрения с иcпользованием инструментария Intel Distribution of OpenVINO.

Язык Data Parallel C++ (DPC++) является частью проекта oneAPI, представленного на SC19. Финалисты решали задачи по оптимизации кода под процессоры Intel Xeon Gold с использованием DPC++, открытого инструментария oneAPI Base toolkit и облачного сервиса для разработки Intel DevCloud. Призовой фонд студенческого состязания составил 60 тысяч рублей.

Результаты финального тура проверялись на специально сконфигурированных серверах. Основным критерием оценки стала производительность. Победителями стали студенты первого и второго курсов, при этом лучшее решение позволило за время хакатона добиться ускорения вычислений в 14 раз.

Хакатон Intel по компьютерному зрению c продолжался 30 часов, в нем приняли участие 40 опытных разработчиков. Задачей турнира стало создание алгоритмов на основе нейронных сетей для решения одной или нескольких актуальных прикладных задач и создание рабочего прототипа с применением инструментария Intel Distribution of OpenVINO. Сама концепция OpenVINO и стала во многом основой для oneAPI. Призовой фонд хакатона по компьютерному зрению составил 180 тысяч рублей.

Первое место занял проект по распознаванию речи и эмоций по аудио, что является областью применения OpenVINO. «Серебряные» призеры представили способ таргетирования рекламы по распознаванию посетителей магазинов, а также механизм поощрения клиентов за участие в мини-игре с использованием жестов. Третье место присуждено за решение проблемы поиска свободных мест на парковках. 

Отдельно жюри отметило работу по определению номеров автобусов, подъезжающих к остановкам. Озвучивая номера маршрутов, автоматическая система могла бы помочь слабовидящим людям выбрать нужный им транспорт.

Постоянный URL: http://servernews.ru/999133
30.11.2019 [21:04], Алексей Степин

Intel опубликовала предварительные спецификации технологии Data Streaming Accelerator

Корпорация Intel выложила в свободный доступ предварительную версию спецификаций новой технологии DSA. Расшифровывается это как Data Streaming Accelerator (ускоритель потоковой передачи данных).

Данная технология должна будет заменить используемую ныне QuickData, являющуюся подмножеством Intel I/O Acceleration Technology. Появится поддержка DSA во всех новых процессорах Xeon.

Технология DSA призвана ускорить операции с перемещением и преобразованием данных в самых различных ситуациях — от локальной работы с различными типами памяти до сценариев типа «перемещение данных в другой узел кластера». Она также может выполнять ряд операций высокого уровня, таких как генерация и сверка контрольных сумм или сравнение различных регионов памяти с последующей выдачей разницы (delta); последнее может быть полезно для дедупликации данных.

Архитектура Intel DSA полностью поддерживает виртуализацию

Архитектура Intel DSA полностью поддерживает виртуализацию

Спецификации DSA предусматривают PCIe-совместимый интерфейс, что должно упростить разработку программного обеспечения с поддержкой новой технологии. Также в DSA реализована развитая поддержка виртуализации, существенно упрощающая проверку и миграцию виртуальных машин. В документации, опубликованной Intel, содержится полноценное описание новой технологии, которое может помочь разработчикам ПО уже сейчас, хотя речь и идёт о предварительных спецификациях.

Постоянный URL: http://servernews.ru/998750
27.11.2019 [14:14], Алексей Степин

SC19: исследование эффективности Intel Optane DCPMM и IMDT в научных расчётах

Огромные объёмы данных генерируют не только пользователи социальных сетей; как мы уже рассказывали читателям, сервис «ВКонтакте» вынужден прибегать к использованию новых технологий Intel Optane, чтобы справиться с такой нагрузкой.

Не меньших, а то и сопоставимых ресурсов требуют некоторые научные задачи. Некоторые из них просто нуждаются в чудовищных объёмах оперативной памяти. Использование гибридных решений на базе памяти Intel Optane позволяет решить данную проблему.

Оценка сравнительной эффективности таких решений была представлена в докладе на SC19, сделанным c.н.с. к.ф.-м.н. химического факультета МГУ имени М. В. Ломоносова Владимиром Мироновым. Работа подготовлена при участии зав. лаб. Суперкомпьютерного моделирования ИВМИМГ СО РАН, к.ф.-м.н. Игоря Черных.

Традиционный ответ на задачу заключается в использовании гибридных систем хранения данных или, в случае массивных параллельных вычислений, систем распределённой памяти. Но оба варианта ответа имеют свои недостатки: СХД, даже гибридные, могут оказаться недостаточно быстры, а работа с распределённой памятью существенно усложняет программное обеспечение и, опять-таки, в некоторых случаях приводит к неприемлемому проседанию производительности.

Технология Intel IMDT позволяет расширять память за счёт накопителей Optane

Технология IMDT позволяет расширять память за счёт накопителей Optane

Кроме того, затраты на создание подобных инфраструктур бывают весьма велики ‒ достаточно сравнить стоимость гигабайта DRAM и флеш-памяти. Существует третий ответ, который заключается в применении гибридной памяти на базе микросхем Intel Optane. Сама технология Optane позволяет говорить об априори более высокой производительности, нежели у SSD, и тем более, HDD, а стоимость гигабайта продолжает оставаться ниже аналогичного показателя для DRAM.

Принципы функционирования IMDT

Принципы функционирования IMDT

Одно из предлагаемых Intel решений носит название IDMT (Intel Memory Drive Technology), причём, оно вовсе не обязательно требует применения модулей NVDIMM Optane DC Persistent Memory. Благодаря развитым средствам виртуализации, которые могут быть доступны ещё на этапе инициализации UEFI, становится возможным расширять объём оперативной памяти с помощью классических PCIe-накопителей Optane DC P4800X. 

Другой вариант базируется на применении модулей Optane DC PMM, он тоже позволяет расширять память за счет нового типа энергонезависимой памяти. Однако реализация DCPMM проще: она не требует установки накопителей с интерфейсом PCIe и лишена потенциального узкого места в виде пропускной способности PCI Express.

Вычисление полиномов. По мере роста интенсивности вычислений эффективность решений на базе Intel Optane приближается к уровню DRAM

В обоих сценариях память выглядит для рабочей задачи единым пространством; переделка программного обеспечения не требуется. Конечно, даже чипы Optane не столь быстры, как DRAM, но, как показывают результаты проведённых исследований, даже на задачах, чувствительных к пропускной способности подсистемы памяти, можно получить 25 ‒ 40% от производительности «только DRAM». В своей работе российский учёный использовал обе схемы, IMDT и DCPMM. Он оценил их эффективность в различных научных задачах и сравнил с показателями эталонной системы, использующей только классическую память DRAM.

Результаты тестирования: дискретные преобразования Фурье. IMDT справляется со сложными схемами доступа к памяти лучше, нежели DCPMM

В тех случаях, когда приложение не критично к ПСП, но чувствительно к объёмам, потери могут быть совсем незначительными, а выигрыш за счёт упрощения ПО ‒ весьма существенным. Обычно это задачи со сложными, но предсказуемыми схемами доступа к памяти. Есть свои выгоды и у схемы с использованием модулей Optane DCPMM ‒ она лучше всего показывает себя при простых алгоритмах доступа к данным.

Результаты тестирования: квантовая химия. Эффективность DCPMM выше, нежели IMDT

Для проведения экспериментов, доказавших надёжность и преимущества решений на базе Intel Optane, были использованы двухпроцессорные системы на базе Xeon Gold 6254. В конфигурации IMDT в системе присутствовало 192 Гбайт DDR4 и 4 накопителя Optane DC P4800X ёмкостью 375 Гбайт каждый (суммарно 1,5 Тбайт).

Результаты тестирования: моделирование динамики астрофизических объектов. Код не оптимален, потеря эффективности у обеих систем Optane

Сценарий DCPMM предусматривал установку 12 модулей DDR4 ECC по 16 Гбайт (192 Гбайт суммарно) и 12 модулей Optane DC PMM по 128 Гбайт (1,536 Тбайт суммарно); можно представить себе стоимость системы с таким объёмом памяти, построенной полностью на DRAM. «Контрольный» сервер использовал конфигурацию с 24 модулями объёмом 64 Гбайт ‒ те же 1,536 Тбайт суммарно.

Создано в России: программный комплекс HydroBox3D позволяет моделировать астрофизические феномены

В числе прочего стоит упомянуть использование отечественной разработки ‒ программного комплекса HydroBox3D для моделирования сложных гидродинамических процессов на базе технологии вложенных свёрток, применяющегося в астрофизике (проект AstroPhi). Авторство принадлежит сотрудникам Института вычислительной математики и математической геофизики СО РАН.

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

По итогам проведённого эксперимента становится очевидно, что использование технологий Intel Optane в научных расчётах полностью оправдано как с точки зрения достигаемой ёмкости подсистемы памяти, так и с точки зрения затрат на оборудование. В настоящий момент доступны модули Optane объёмом до 512 Гбайт и производительностью в районе 2,3 Гбайт/с при записи и 6,8 Гбайт/с при чтении данных. Массовые DIMM пока ограничены значением 64 Гбайт, хотя и более производительны.

Постоянный URL: http://servernews.ru/998430
Система Orphus