Материалы по тегу: optane dc persistent memory

20.05.2020 [08:08], Алексей Степин

Стартап MemVerge делает ставку на вычисления in-memory

Наряду с ускорением вычислений (GPU, FPGA) и совершенствованием шин (NVLink, CXL), технологии класса in-memory computing станут частью высокопроизводительных систем нового поколения. Речь идёт о переносе как можно больших объёмов данных в RAM, что должно решить целый спектр проблем, вызываемый достаточно высокой латентностью традиционных накопителей.

Молодой стартап MemVerge согласен с этим видением, но полагает, что для достижения наилучшего результата потребуется соответствующая программная прослойка.

Хранить данные в оперативной памяти всегда было заманчивой идеей, поскольку такая память на порядки быстрее традиционных накопителей. Однако до недавних пор реализация этой идеи была достаточно ограниченной. С одной стороны, DRAM является достаточно дорогим удовольствием, а с другой — её объёмы ограничены и в ряде случаев их может оказаться недостаточно. С появлением новых типов энергонезависимой памяти класса SCM, главным из которых пока является Intel Optane, ситуация начинает понемногу меняться. Этого потребует и сам рост объёмов данных, получаемых в реальном времени, считает MemVerge.

Концепция in-memory computing в версии MemVerge

Концепция in-memory computing в версии MemVerge

Согласно исследованию, проведенному IDC, в следующие пять лет четверть всех данных, обрабатываемых вычислительными системами планеты, будут составлять данные реального времени. Следовательно, от машин нового поколения потребуется не только скорость работы с памятью, но и солидные её объёмы. MemVerge полагает, что для оптимальной реализации вычислений in-memory потребуется сочетание DRAM, энергонезависимой SCM-памяти и специальной программной прослойки. Последнюю компания называет Memory Machine. 

Основой, как уже было сказано, считается память Intel Optane DCPMM, поскольку пока только эта технология позволяет создавать массивы памяти нужного для воплощения концепции memory centric объёма. MemVerge надеется занять нишу первопроходца в программной части реализации Memory Machine и стать основополагателем соответствующего стандарта. На сегодняшний день Optane хотя и опробована большинством крупных владельцев ЦОД, но единого стандарта на реализацию in-memory computing нет, что сдерживает широкое распространение концепции.  Однако к 2022 году ситуация может измениться и у Optane появится 3 ‒ 4 конкурирующих типа энергонезависимой памяти. Одним из них может стать MRAM — рабочие образцы такой памяти уже существуют, но по объёму пока не могут сравниться с Optane.

Постоянный URL: http://servernews.ru/1011336
11.04.2020 [00:44], Алексей Степин

HANA всем: в Microsoft Azure появились 9-Тбайт инстансы с Intel Optane DCPMM

Ещё в 2019 году Microsoft Azure анонсировала инстансы SAP HANA Large. В основу платформы легли процессоры Intel Xeon Scalable второго поколения, поддерживающие, в числе прочего, модули Optane DCPMM. Теперь же Azure объявила о доступности новых, ещё более крупных с точки зрения объёма памяти вариантов ВМ.

Нагрузки SAP HANA создаёт весьма серьёзные, особенно в случаях, когда речь идёт о задачах класса high availability/disaster recovery (HA/DR). Здесь нуждающимся в подобного масштаба услугах должна прийти на помощь новая услуга HANA Large with Intel Optane PMem.

Инстансы на базе S224: четыре варианта из семи используют Optane PMem

Инстансы на базе S224: четыре варианта из семи используют Optane PMem

Разработка новой платформы для SAP HANA велась совместными силами троих разработчиков: SAP, Intel и Microsoft Azure. Помимо того, что упростилась программная архитектура, удалось снизить и стоимость владения (TCO) за счёт того, что Optane дешевле того же объёма DRAM. Всего MS Azure теперь предлагает семь вариантов S224 HANA Large, с объёмами памяти от 3 до 9 Тбайт; объём памяти Optane — 3 или 6 Тбайт.

Узел с Optane ускоряет загрузку данных в случае сбоя и уменьшает стоимость владения в целом

Узел с Optane ускоряет загрузку данных в случае сбоя и уменьшает стоимость владения в целом

Соотношение DRAM к DCPMM может составлять 1:1, 1:2 или 1:4, так что заказчик может сконфигурировать инстанс в соответствии со своими потребностями. В задачах, требующих быстрого аварийного восстановления, новым инстансам нет равных: если классический вариант после системной перезагрузки восстанавливался за 44 минуты, то версия на базе Optane справлялась за 2 минуты, то есть в 22 раза быстрее — за счёт отказа от необходимости заново загружать данные с обычных накопителей.

Новая услуга доступна в тех же регионах, что и предыдущие реализации HANA Large. DCPMM-модули SAP HANA поддерживает с версии 2.0 SPS 03, но к использованию рекомендуется версия 2.0 SPS 04, которую нужно соответствующим образом сконфигурировать, чтобы она распознала наличие в системе памяти Optane DCPMM.

Сами модули в режиме Application Direct поддерживаются операционными системами Red Hat Enterprise Linux версии от 7.6 и выше, а также SUSE Linux Enterprise Sever версий 12 SP4, 15 и выше. Руководство по использованию SAP в облачных системах Azure можно скачать с сайта Azure.

Постоянный URL: http://servernews.ru/1008150
21.02.2020 [18:08], Алексей Степин

Японский институт AIST опубликовал результаты сравнительного тестирования Intel Optane DCPMM и DRAM

Ещё весной прошлого года Intel анонсировала новый тип модулей памяти на базе технологии 3D XPoint — Optane DCPMM. Технология заинтересовала всех, кому нужны большие объемы оперативной памяти, и кто готов при этом мириться с некоторой потерей производительности.

Японский национальный институт передовых технических наук и технологии (AIST) опубликовал результаты сравнительного тестирования DCPMM, в котором эти модули сравнивались с традиционной памятью DRAM.

Модуль DCPMM объёмом 128 Гбайт. Фото StorageReview.

Модуль DCPMM объёмом 128 Гбайт. Фото StorageReview.

В отличие от блочных накопителей Optane, существует не так уж много доступных результатов тестирования DCPMM, вот почему данные AIST представляют существенную ценность, о чём говорят и сами авторы проекта.

Для тестирования они использовали инструментарий собственной разработки и вот каких результатов им удалось достичь: при чтении латентность DCPMM составила порядка 374 наносекунд, в режиме случайной записи write-back она возросла до примерно 390 наносекунд.

Пропускная способность при этом составила 38 и 3 Гбайт/с, соответственно. Иными словами, задержки DCPMM примерно в четыре раза выше, нежели у DRAM, однако при этом такие модули способны обеспечить 37% пропускной способности обычной памяти. Это не так уж мало и, во всяком случае, на операциях чтения — намного быстрее любых традиционных блочных накопителей. Также подтвердилась польза от включения чередования (interleaving).

Любопытно, что для точного измерения задержек японским учёным пришлось пойти на ряд ухищрений, поскольку, по их словам, большинство современных архитектур используют предвыборку (prefetch) и внеочередное исполнение (out-of-order execution), что позволяет минимизировать негативные последствия, вызываемые задержками при обращении к оперативной памяти. Полностью ознакомиться с методикой и результатами тестирования можно по этой ссылке.

Постоянный URL: http://servernews.ru/1004263
27.11.2019 [14:14], Алексей Степин

SC19: исследование эффективности Intel Optane DCPMM и IMDT в научных расчётах

Огромные объёмы данных генерируют не только пользователи социальных сетей; как мы уже рассказывали читателям, сервис «ВКонтакте» вынужден прибегать к использованию новых технологий Intel Optane, чтобы справиться с такой нагрузкой.

Не меньших, а то и сопоставимых ресурсов требуют некоторые научные задачи. Некоторые из них просто нуждаются в чудовищных объёмах оперативной памяти. Использование гибридных решений на базе памяти Intel Optane позволяет решить данную проблему.

Оценка сравнительной эффективности таких решений была представлена в докладе на SC19, сделанным c.н.с. к.ф.-м.н. химического факультета МГУ имени М. В. Ломоносова Владимиром Мироновым. Работа подготовлена при участии зав. лаб. Суперкомпьютерного моделирования ИВМИМГ СО РАН, к.ф.-м.н. Игоря Черных.

Традиционный ответ на задачу заключается в использовании гибридных систем хранения данных или, в случае массивных параллельных вычислений, систем распределённой памяти. Но оба варианта ответа имеют свои недостатки: СХД, даже гибридные, могут оказаться недостаточно быстры, а работа с распределённой памятью существенно усложняет программное обеспечение и, опять-таки, в некоторых случаях приводит к неприемлемому проседанию производительности.

Технология Intel IMDT позволяет расширять память за счёт накопителей Optane

Технология IMDT позволяет расширять память за счёт накопителей Optane

Кроме того, затраты на создание подобных инфраструктур бывают весьма велики ‒ достаточно сравнить стоимость гигабайта DRAM и флеш-памяти. Существует третий ответ, который заключается в применении гибридной памяти на базе микросхем Intel Optane. Сама технология Optane позволяет говорить об априори более высокой производительности, нежели у SSD, и тем более, HDD, а стоимость гигабайта продолжает оставаться ниже аналогичного показателя для DRAM.

Принципы функционирования IMDT

Принципы функционирования IMDT

Одно из предлагаемых Intel решений носит название IDMT (Intel Memory Drive Technology), причём, оно вовсе не обязательно требует применения модулей NVDIMM Optane DC Persistent Memory. Благодаря развитым средствам виртуализации, которые могут быть доступны ещё на этапе инициализации UEFI, становится возможным расширять объём оперативной памяти с помощью классических PCIe-накопителей Optane DC P4800X. 

Другой вариант базируется на применении модулей Optane DC PMM, он тоже позволяет расширять память за счет нового типа энергонезависимой памяти. Однако реализация DCPMM проще: она не требует установки накопителей с интерфейсом PCIe и лишена потенциального узкого места в виде пропускной способности PCI Express.

Вычисление полиномов. По мере роста интенсивности вычислений эффективность решений на базе Intel Optane приближается к уровню DRAM

В обоих сценариях память выглядит для рабочей задачи единым пространством; переделка программного обеспечения не требуется. Конечно, даже чипы Optane не столь быстры, как DRAM, но, как показывают результаты проведённых исследований, даже на задачах, чувствительных к пропускной способности подсистемы памяти, можно получить 25 ‒ 40% от производительности «только DRAM». В своей работе российский учёный использовал обе схемы, IMDT и DCPMM. Он оценил их эффективность в различных научных задачах и сравнил с показателями эталонной системы, использующей только классическую память DRAM.

Результаты тестирования: дискретные преобразования Фурье. IMDT справляется со сложными схемами доступа к памяти лучше, нежели DCPMM

В тех случаях, когда приложение не критично к ПСП, но чувствительно к объёмам, потери могут быть совсем незначительными, а выигрыш за счёт упрощения ПО ‒ весьма существенным. Обычно это задачи со сложными, но предсказуемыми схемами доступа к памяти. Есть свои выгоды и у схемы с использованием модулей Optane DCPMM ‒ она лучше всего показывает себя при простых алгоритмах доступа к данным.

Результаты тестирования: квантовая химия. Эффективность DCPMM выше, нежели IMDT

Для проведения экспериментов, доказавших надёжность и преимущества решений на базе Intel Optane, были использованы двухпроцессорные системы на базе Xeon Gold 6254. В конфигурации IMDT в системе присутствовало 192 Гбайт DDR4 и 4 накопителя Optane DC P4800X ёмкостью 375 Гбайт каждый (суммарно 1,5 Тбайт).

Результаты тестирования: моделирование динамики астрофизических объектов. Код не оптимален, потеря эффективности у обеих систем Optane

Сценарий DCPMM предусматривал установку 12 модулей DDR4 ECC по 16 Гбайт (192 Гбайт суммарно) и 12 модулей Optane DC PMM по 128 Гбайт (1,536 Тбайт суммарно); можно представить себе стоимость системы с таким объёмом памяти, построенной полностью на DRAM. «Контрольный» сервер использовал конфигурацию с 24 модулями объёмом 64 Гбайт ‒ те же 1,536 Тбайт суммарно.

Создано в России: программный комплекс HydroBox3D позволяет моделировать астрофизические феномены

В числе прочего стоит упомянуть использование отечественной разработки ‒ программного комплекса HydroBox3D для моделирования сложных гидродинамических процессов на базе технологии вложенных свёрток, применяющегося в астрофизике (проект AstroPhi). Авторство принадлежит сотрудникам Института вычислительной математики и математической геофизики СО РАН.

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

Сочетание неоптимального кода и плохой балансировки между NUMA-узлами. Оптимизация кода или политик NUMA улучшают ситуацию

По итогам проведённого эксперимента становится очевидно, что использование технологий Intel Optane в научных расчётах полностью оправдано как с точки зрения достигаемой ёмкости подсистемы памяти, так и с точки зрения затрат на оборудование. В настоящий момент доступны модули Optane объёмом до 512 Гбайт и производительностью в районе 2,3 Гбайт/с при записи и 6,8 Гбайт/с при чтении данных. Массовые DIMM пока ограничены значением 64 Гбайт, хотя и более производительны.

Постоянный URL: http://servernews.ru/998430
01.11.2019 [21:42], Алексей Степин

ВКонтакте осваивает Intel Optane DCPMM и FPGA Arria 10 GX

«ВКонтакте» имеет 97 млн активных пользователей в месяц. Каждый день они просматривают 9 млрд постов, ставят 1 млрд лайков, пишут 10 млрд сообщений, 650 млн раз просматривают видео и генерируют трафик 3,5 Тбит/с. Общий объём пользовательских данных достиг 1,1 экзабайта. 

За всем этим стоит немалая IT-инфрастуктура: 19 тыс. серверов, 3 связанных между собой ЦОД, 30 CDN-узлов и дополнительных точек присутствия по всему миру. Малейшая возможность повысить их эффективность выливается в миллионы долларов экономии ежегодно. На мероприятии Intel Experience Day 2019 VK рассказала о такой возможности. 

До недавних пор имелись два основных типа машин: 1U-сервер приложений на базе пары Intel Xeon 2660v4 и четырёх HDD + 4U-сервер хранения данных с двумя Xeon 2620v4 и 36 HDD. То есть фактически было лишь два уровня хранения информации: DRAM и жёсткие диски. Разделение между «горячими» и «холодными» данными простое, но далеко не самое эффективное, так как с ростом объёма информации итоговая производительность падает, а стоимость хранения, напротив, растёт день ото дня. 

В результате проведённых экспериментов было принято решение по изменению серверной инфраструктуры с учётом новых технологий хранения данных, имеющихся на рынке. Это снижает стоимость владения инфраструктурой на величину от 65% до 90%.

Проект получился комплексный: число уровней хранения информации выросло до четырёх, не считая DRAM. Для наиболее «горячих» данных используются модули Intel Optane DC Persistent Memory (DCPMM) объёмом 1 Тбайт (8 × 128 Гбайт) в сочетании с PCIe-накопителями Intel Optane P4800X ёмкостью 750 Гбайт. Использование DCPMM и DRAM вместо одной только оперативной памяти снизило капитальные затраты в два раза. 

Появился новый уровень, «тёплый», где данные хранятся на 8 SSD Intel P4320 с интерфейсом NVMe (QLC 7,68 Тбайт). Так что все эти 1U-сервера работают исключительно с твердотельными накопителями. Лишь на самом «холодном» уровне по-прежнему используются традиционные HDD. Но и тут плотность размещения резко возросла — в 4U-шасси с вертикальной загрузкой теперь помещается 102 жёстких диска. 

Но даже при новой системе разделения слоёв содержание более 1 экзабайта данных стоит очень дорого. Компания решила провести опыт по оптимизации хранения изображений, которых на серверах VK хранится несколько сотен петабайт, причём часто в нескольких форматах и разрешениях. 

Наилучшим решением проблемы стало использование серверов с восемью ускорителями Intel на базе ПЛИС Arria 10 GX, производящих при отдаче контента преобразование изображений на лету в нужную пользователю форму. По итогу удалось уменьшить объём хранимых изображений на 20%, сэкономив десятки петабайт места. В настоящее время компания рассматривает возможность применения FPGA для других типов нагрузок. 

Все новые серверы построены на базе двух процессоров Intel Xeon Gold 6230  (20/40, 2,1/3,9 ГГц, 27,5 Мбайт, 125 Вт), так что вычислительные мощности существенно возросли. Сеть подверглась модернизации c 10GbE на 25GbE. Пересмотр структуры хранения и передачи данных позволил увеличить среднюю плотность размещения в три раза, что положительно сказывается на затратах на содержание. 

Постоянный URL: http://servernews.ru/996764
26.09.2019 [09:25], Андрей Галадей

Intel выпустила Database Reference Stack 1.0 для упрощения работы баз данных с Optane DCPMM

Весной вместе с анонсом процессоров Intel Xeon Scalable под кодовым названием Cascade Lake компания также выпустила память Optane DCPMM в форм-факторе DIMM-модулей, которая способна ускорить работу, например, баз данных без лишних трат на закупку обычной DRAM. 

А на днях Intel выпустила первый релиз эталонного стека ПО для баз данных, заранее оптимизированного для использования в системах с Optane DCPMM.

Intel Database Reference Stack 1.0 представляет собой ещё одну инициативу с использованием ОС Linux. В качестве операционной системы применяется ОС Clear Linux собственной разработки, которая «из коробки» оптимизирована для аппаратных решений Intel. 

Первый релиз стека поддерживает только Apache Cassandra и Redis. Kubernetes применяется для оркестрации и управления системой. А для упрощения развёртывания экземпляры баз данных  и сопутствующий набор ПО запускаются в контейнерах Kata или Docker. 

Постоянный URL: http://servernews.ru/994649
02.09.2019 [11:16], Геннадий Детинич

Baidu закупает Intel Optane DCPMM для in-memory БД Feed-Cube

Память Intel Optane DC Persistent Memory (DCPMM) в виде DIMM-модулей позволяет обойти ограничения, которые накладывают на серверные системы высокая цена и сравнительно низкая плотность оперативной памяти DRAM и относительная удалённость от процессоров классических SSD. 

Память Intel Optane DCPMM обеспечивает существенно большую ёмкость за те же деньги, чем может позволить оперативная память. Это открывает путь к росту объёмов баз данных в памяти (in-memory) и к сокращениям задержек при обращении к таким базам. 

Как сообщает нам официальный пресс-релиз компании Intel, китайский гигант электронной коммерции, компания Baidu, внедряет платформы с процессорами Intel Xeon Scalable второго поколения и памятью Intel Optane DCPMM. В частности, эти платформы Intel используются для обслуживания рекомендательных сервисов Baidu для поиска интересной пользователям информации в облачном сервисе Feed Stream.

Для этого Baidu разработала in-memory БД Feed-Cube. Проверка на практике показала, что в случае использования гибридной подсистемы памяти из DRAM и Intel Optane DCPMM поисковый запрос обрабатывается быстрее даже «под давлением одновременного доступа [к данным]».

Если вместо Intel Optane DCPMM использовать обычный пул памяти и NVMe SSD, то SSD создают «серьёзные задержки при обработке очереди команд», что снижает качество обслуживания. При размещении базы Feed-Cube только лишь в памяти DRAM этого не происходит, но высокая стоимость и сравнительная низкая плотность традиционной оперативной памяти не позволяет бесконечно наращивать объём пула. С памятью Intel Optane DCPMM масштабирование происходит намного проще.

Это не первый и не последний опыт сотрудничества Intel и Baidu. Компании являются стратегическими партнёрами во многих проектах в течение вот уже почти 10 лет. Последним значимым событием стало заключение в начале августа стратегического соглашения между Intel и Baidu на почве развёртывания ИИ-платформ с использованием решений Intel Nervana для машинного обучения (Intel NNP-T).

Постоянный URL: http://servernews.ru/993331
23.07.2019 [14:18], Сергей Юртайкин

Intel и SAP оптимизируют свои продукты для их совместной работы

Intel и SAP объявили о многолетнем технологическом сотрудничестве, в рамках которого американская корпорация оптимизирует свои платформы для взаимодействия с корпоративным программным обеспечением немецкого партнёра.

В частности, партнёрство касается доработки поддержки процессоров Intel Xeon Scalable и энергонезависимой памяти Intel Optane DCPMM для работы с системой автоматизации бизнес-процессов SAP S/4HANA.

Партнёры утверждают, что использование SAP HANA с Intel Optane «существенно уменьшает сложности и риски запуска приложений в оперативной памяти в режиме реального времени за счёт использования постоянных данных, которые более устойчивы к компьютерным сбоям».

Сотрудничество Intel и SAP направлено на то, чтобы помогать клиентам внедрять высокопроизводительные и высокооптимизированные приложения в облаке, корпоративных дата-центрах и на периферии.

Планируется создание центра передовых технологий (Center of Excellence), в котором заказчики смогут оценивать, развивать инновации и применять технологии, оптимизированные компаниями Intel и SAP.

«Расширение технологического сотрудничества с SAP означает, что наши общие клиенты смогут быстрее понять самые серьезные проблемы с данными, получая конкурентное преимущество», — заявил Навин Шеной (Navin Shenoy), исполнительный вице-президент и генеральный менеджер группы центров обработки данных в корпорации Intel.

Постоянный URL: http://servernews.ru/991184
22.05.2019 [07:20], Алексей Разин

Серверные процессоры Intel предложат поддержку DDR5 и PCI Express 5.0 в 2021 году

Корпорация Intel достаточно подробно обсуждала свои планы на недавнем мероприятии для инвесторов, и это позволило нам узнать, что первые 7-нм продукты марки найдут применение в серверном сегменте. В 2021 году выйдет дискретный графический процессор, который будет применяться для ускорения вычислений в серверной среде, следом за ним должен быть представлен первый 7-нм центральный процессор Intel. Ещё в середине апреля китайская компания Huawei, имя которой в эти дни чаще упоминается совсем в другом контексте, провела для партнёров мероприятие в Санкт-Петербурге, и имеющиеся в открытом доступе презентации докладчиков позволяют обнаружить упоминания о планах Intel по выпуску серверных процессоров на ближайшие годы.

Источник изображения: Huawei

Источник изображения: Huawei

Действительно, судя по появлению в этих материалах процессоров Sapphire Rapids-SP в привязке к первому кварталу 2021 года, они могут оказаться первыми 7-нм продуктами для платформы Intel с двумя процессорными разъёмами на сервер. Платформа Eagle Stream предложит поддержку скоростного интерфейса CXL (Compute Express Link), восьмиканальной памяти типа DDR5 и шины PCI Express 5.0. В 2022 году в рамках этой же платформы выйдут процессоры Granite Rapids-SP. Вполне возможно, что их предшественники в 2021 году будут выпускаться по 10-нм технологии, а уже в 2022 году Intel представит 7-нм процессоры для серверного применения, поскольку другими причинами столь быструю смену поколений объяснить трудно. Тем более, что первый квартал 2021 года — это слишком рано для дебюта центральных процессоров Intel, выпускаемых по 7-нм технологии. На мероприятии для инвесторов Навин Шеной (Navin Shenoy), который в Intel отвечает за решения для центров обработки данных, однозначно указал на последовательность выхода 7-нм продуктов в серверном сегменте: сперва выйдет графический процессор, и только потом центральный.

Ежегодно будет обновляться и поколение памяти семейства Optane DC. Если в 2021 году дебютирует Crow Pass, то годом позже будет представлена память семейства Donahue Pass. Оба поколения Optane DC, по всей видимости, будут разработаны Intel без участия Micron, не говоря уже о самом производстве этой памяти. Совместное предприятие с Micron будет расформировано 31 октября текущего года, когда Intel получит деньги от бывшего партнёра за свою долю.

Не менее интересными выглядят планы по выпуску 10-нм процессоров Intel Ice Lake-SP. Нам уже доводилось слышать предположения о том, что даже к 2020 году 10-нм техпроцесс Intel не позволит создавать процессоры с высокими частотами или большим количеством ядер. В планах Intel в изложении Huawei этим процессорам, которые выйдут ближе ко второму кварталу следующего года, достаются лишь 26 ядер максимум, зато поддержкой PCI Express 4.0 они наделены без ограничений, в отличие от делящих с ними платформу Whitley процессоров Cooper Lake-SP, которые выйдут чуть раньше и будут выпускаться по 14-нм технологии.

В двухпроцессорных серверах семейство Cooper Lake сможет предложить до 48 ядер включительно, поддержку памяти Optane DC поколения Barlow Pass и PCI Express 3.0, а также восьмиканальной памяти типа DDR4. Возможности 10-нм процессоров Ice Lake-SP в плане поддерживаемых типов памяти будут идентичны. В версии для систем с четырьмя или восемью процессорными разъёмами количество ядер у Cooper Lake сможет достигать лишь 26 штук, а количество каналов памяти типа DDR4 будет ограничено шестью. Судя по ссылкам на продолжительность жизненного цикла процессоров Cooper Lake, он будет не таким уж длинным, и к середине 2022 года Huawei начнёт сворачивать поставки серверов на основе этих процессоров.

Постоянный URL: http://servernews.ru/987868
25.04.2019 [13:28], Игорь Осколков

Fujitsu обновила серии серверов PRIMEQUEST и PRIMERGY: теперь с Xeon Cascade Lake и Optane DC Persistent Memory

В начале апреля компания Intel представила самое большое, по её словам, обновление платформы для серверов и дата-центров, которое касается выхода новых процессоров Intel Xeon Cascade Lake, памяти Intel Optane DC Persistent Memory, SoC серии Xeon D, а также FPGA и сетевых контроллеров. А в середине месяца состоялся официальный анонс новинок в России, и, как уже было отмечено, часть компаний представила свои решения в рамках этого мероприятия, а часть решила провести собственные презентации продуктов на базе обновлённой платформы Intel. Fujitsu пошла по второму пути.

Пожалуй, наиболее мощным и наиболее интересным стал выход нового поколения серверов серии PRIMEQUEST — 3800E2. Как и прежде, это высокоплотное решение для обеспечения бесперебойной работы критичных для бизнеса задач. Оно подходит для больших баз данных, для обработки транзакций, для виртуализации, для систем аналитики, а также для переноса и консолидации уже имеющихся в компании решений.

Шасси высотой 7U с унифицированным питанием и IO-модулями вмещает четыре двухсокетных узла и две дисковые полки (24 × 2,5” SAS). Узлы поддерживают CPU Xeon Cascade Lake серии Platinum, а также серию Gold. В последнем случае возможна работа и четырёхсокетных конфигураций. Вариант с использованием самых старших моделей процессоров позволяет получить до 224 ядер в составе одной машины в связке с 24 Тбайт ОЗУ или 36 Тбайт при использовании Optane DC Persistent Memory — по 28 ядер и 12 модулей памяти на каждый сокет — и до 56 слотов PCI-E.

Сценариев использования 3800E2 несколько. Первый и самый очевидный — это резервирование критических систем с помощью физического разделения (physical partitioning, PPAR):  один или несколько узлов отправляются в резерв. При сбое одного из активных узлов он отключается, а вся нагрузка автоматически переносится на резервный узел, что значительно сокращает время простоя и при сохранение достаточного уровня надёжности позволяет сэкономить на лицензировании ПО. Инициализация резерва зависит от конфигурации, но для узла с 6 Тбайт ОЗУ указывается срок в 2 минуты. Остальные компоненты — питание, охлаждение, IO-модули, карты PCI(E) — либо зарезервированы по умолчанию, либо поддерживают горячее подключение и динамическую реконфигурацию.

Второй  вариант с использованием собственной «фишки» Fujitsu, расширенного разделения ресурсов (extended partitioning, XPAR), подходит для простого и быстрого переноса имеющихся приложений с устаревших систем на PRIMEQUEST. XPAR позволяет изолировать нагрузки не на уровне узлов, а на уровне отдельных сокетов. Это не виртуализация, а именно физическое разделение. Таким образом можно избавиться от устаревшего оборудования и консолидировать имеющиеся ресурсы и системы в одной, сэкономив на питании, охлаждении и пространстве, не потеряв при этом в производительности и управляемости. 

Для универсального 2U-шасси PRIMERGY CX400 M4 Fujitsu также выпустила обновлённые узлы серии CX25x0 M5. Оно обеспечивает гибкость конфигурации и масштабируемость благодаря поддержке различных вариантов как самих узлов, так и их компоновки. Поэтому его зачастую выбирают те, кто полагается на гиперконвергентные системы. В серии CX25x0 M5 есть конфигурации, оптимизированные для «тяжёлых» вычислений, для создания классических универсальных и облачных серверов, для GPU-задач. Все новые узлы поддерживают второе поколение платформы  Purley и DDR-модули Optane, а также имеют версии с интегрированной СЖО.

Ровно то же можно сказать и про обновление стоечных решений серии PRIMERGY RX25x0 M4/M5, а также RX4770 M5: все они получили поддержку новых процессоров и памяти. Вообще говоря, это самая популярная серия продуктов Fujitsu, так что суммарный список обновлений и дополнений для всех моделей сразу не так уж мал. По словам разработчиков, машины этой серии отличаются «одними из самых лучших в отрасли характеристик отказоустойчивости» в сочетании с масштабируемостью и производительностью. 

Из любопытного отметим, что для ряда продуктов появилась опция СЖО (как у старших семейств), часть шасси теперь предлагает сразу множество вариантов набора дисковой подсистемы, более активно внедряется поддержка M.2-накопителей для установки ОС, появились новые опции питания от сетей 48 В DC и 380 В. Ну и в целом появилось больше возможностей для тонкого конфигурирования машин под нужды конкретных заказчиков. 

Наконец, младшие модели PRIMERGY TX/RX 1330 M4, ориентированные на сектор SMB и филиальные системы, тоже не остались без внимания. В обоих вариантах исполнения — башенном и стоечном — используются процессоры Intel Xeon E-2100 с поддержкой до 64 Гбайт ОЗУ. Данная платформа отличается широким набором возможных конфигураций дисковой подсистемы, поддержкой карт PCI для сохранения совместимости с уже имеющимся оборудованием,  улучшенным охлаждением, низким уровнем шума и дополнительными опциями питания. Вместо традиционного резервного БП в тот же самый слот можно установить внутреннюю резервную батарею, способную обеспечить до 1 часа автономной работы. Такой встроенный ИБП прозрачно интегрируется с системой управления Fujitsu ISM.

Собственно сама ISM теперь тоже стала доступнее для пользователей серверов Fujitsu. Базовая бесплатная версия ISM Essential будет доступна для скачивания с конца апреля. Отличия от версии Advanced заключаются в наборе функций. ISM предлагает единую точку мониторинга и обслуживания всей IT-инфраструктуры, причём эти возможности не ограничиваются только серверами компании и продукцией Fujitsu вообще — есть поддержка ряда сторонних хранилищ и сетевых компонентов.

Постоянный URL: http://servernews.ru/986116
Система Orphus