Материалы по тегу: суперкомпьютер

14.01.2020 [17:17], Алексей Степин

Самый мощный метеорологический суперкомпьютер в мире будет использовать AMD EPYC Rome

Компания AMD продолжает успешно начатую экспансию на рынке супервычислений. Опорой в этом деле являются процессоры AMD EPYC второго поколения (Rome).

Именно эти чипы, а точнее, старшая версия в лице EPYC 7H12 позволила установить системе на базе Atos BullSequana XH2000 ряд мировых рекордов. Похожая система скоро станет самым мощным в мире метеорологическим суперкомпьютером.

Платформа BullSequana XH2000 оказалась настолько удачной, что на неё обратились взоры множества научных организаций, нуждающихся в серьёзных вычислительных мощностях. Так, Университет Люксембурга уже подписал контракт с Atos на постройку суперкомпьютера AION.

И эта же платформа была избрана Европейским центром среднесрочных прогнозов погоды (ECMWF, European Centre for Medium-Range Weather Forecasts). Центр заключил аналогичный четырёхлетний контракт с Atos на ввод в эксплуатацию и сопровождение ещё одного супервычислительного кластера на базе XH2000.

В новом суперкомпьютере будут использованы процессоры AMD EPYC 7742, которые в сравнении с 7H12 обладают пониженным уровнем тепловыделения (225 против 280 Ватт). Их базовая частота заметно ниже (2,25 ГГц против 2,6 ГГц), но максимальная даже несколько выше, нежели у 7H12, и составляет 3,4 ГГц против 3,3 ГГц.

Новый суперкомпьютер позволит ECMWF улучшить горизонтальное разрешение с 18 до 10 километров при составлении 15-дневных погодных прогнозов, повысить вертикальное разрешение с 91 до 137 слоёв и, наконец, позволит создавать расширенные прогнозы ежедневно, а не два раза в неделю. Повысится и точность предсказаний возникновения экстремальных погодных явлений по всему миру.

Система будет доставлена в Болонью, Италия, уже в этом году. Напомним, что BullSequana XH2000 представляет собой гибридный модульный суперкомпьютер с прямым жидкостным охлаждением, который может использовать в качестве интерконнекта InfiniBand со скоростью 200 Гбит/с.

Постоянный URL: http://servernews.ru/1001411
13.01.2020 [21:33], Алексей Степин

2020 год станет годом разнообразия на рынке супервычислений

Довольно долго рынок супервычислений был скучным местом, если рассматривать его с точки зрения разнообразия вычислительных архитектур. Доминирующей стала x86-64, и практически всегда речь шла о процессорах Intel Xeon, «дополненных» в последние годы ускорителями NVIDIA. 

Однако ушедший год показал, что ситуация меняется и разнообразие нарастает: к Intel присоединилась AMD, появились производительные чипы на базе архитектуры ARM, не собирается сдаваться OpenPOWER. В 2020 году эти тенденции по мнению зарубежных аналитиков лишь укрепятся.

Подавляющее большинство систем класса HPC всё ещё использует процессоры Intel Xeon и ускорители NVIDIA, но 2020 год обещает стать настоящим годом перемен. Во-первых, производители суперкомпьютеров проявляют очень живой интерес ко второму поколению AMD EPYC (Rome), как обеспечивающему великолепное соотношение цены и производительности. Именно в этом году войдёт в строй ряд новых машин на базе AMD Rome в разных странах, от Великобритании до Финляндии или Люксембурга. Впервые за достаточно долгий период времени Intel придётся защищаться. Насколько успешной окажется эта защита в лице новых Xeon Cooper Lake (14 нм) и Ice Lake (10 нм), покажет время.

Во-вторых, нарастает давление со стороны архитектуры ARM. Она хотя и не обеспечивает серьёзных технических преимуществ перед x86 или POWER, является лицензируемой, что позволит создавать множество вариантов процессоров под конкретные задачи, но объединены они будут единой программной экосистемой. Жизнеспособность ARM на рынке HPC должен доказать японский проект Fugaku с проектной мощностью 400 Пфлопс, базирующийся на процессорах Fujitsu A64FX.

Также ожидается, что конкуренцию AMD Rome может составить и новый 7-нм процессор Marvell ThunderX3. Аналитики полагают, что поставки процессоров с архитектурой ARM для рынка HPC возрастут с 50 тысяч единиц в прошлом году до 233 тысяч в этом, 2020 году, а к 2024 году превысят 610 тысяч.

В секторе POWER пока остаётся один игрок, это по-прежнему IBM, несмотря на все усилия консорциума OpenPOWER. Хотя компания и готовит к выпуску процессоры POWER10, но, по всей видимости, они увидят свет только в 2021 году. Тем не менее, европейская лаборатория открытых архитектур (LOCA) выбрала OpenPOWER в качестве одной из трёх архитектур для создания высокопроизводительных процессоров. Двумя другими архитектурами, напомним, являются RISC-V и MIPS.

А вот в сегменте вычислительных ускорителей наблюдается настоящий бум разнообразия: здесь и различные китайские разработки вроде Sugon DCU и Matrix-3000, и самые разнообразные ИИ-ускорители, как, например, Intel Nervana, и решения на базе ПЛИС последнего поколения Intel и Xilinx.

Главной ускорительной платформой пока останутся потомки графических процессоров, но NVIDIA может быть потеснена на этом рынке AMD c её ускорителями Radeon Instinct. Характеристики у них весьма серьёзные: старшая модель MI60 развивает 7,4 Тфлопс на 64-битных вычислениях с плавающей запятой, несёт на борту 32 Гбайт быстрой памяти HBM2 и использует систему межсоединений Infinity Fabric со скоростью 200 Гбайт/с. Возможности Infinity Fabric будут протестированы Национальной лабораторией Ок-Риджа в экзафлопной системе Frontier.

А в Аргоннской национальной лаборатории будет запущена другая система экзафлопного класса, Aurora, в которой дебютируют ускорители Intel Xe, которые компания-разработчик позиционирует в качестве ответа NVIDIA V100 и T4. Впрочем, «зелёные» сдаваться не планируют и новая архитектура Ampere, которая также должна дебютировать в этом году, может вновь укрепить позиции NVIDIA.

Суммируя сказанное, можно с уверенностью заявить — 2020 год действительно станет годом разнообразия на рынке HPC. Подействовать это разнообразие должно благотворно: усилившаяся конкуренция приведёт к ускорению разработки новых, ещё более производительных решений, расширится выбор у производителей суперкомпьютеров, а учёные и инженеры получат ещё больше вычислительных мощностей для решения важных задач, стоящих перед человечеством.

Постоянный URL: http://servernews.ru/1001347
09.01.2020 [19:52], Алексей Степин

Atos построит AMD-суперкомпьютер AION в Люксембурге: большая машина для маленькой страны

Компания Atos, нынешний владелец брендов Bull и BullSequana, заключила контракт с Университетом Люксембурга на постройку нового суперкомпьютера AION на базе процессоров AMD EPYC.

Четырёхлетний контракт предусматривает сборку, монтаж и наладку суперкомпьютера семейства BullSequana XH2000 на базе AMD EPYC.

Машины BullSequana XH2000 относятся к разряду гибридных суперкомпьютеров: каждая стойка может содержать в себе до 32 вычислительных модулей на базе процессоров Intel или AMD, а также чипов с архитектурой ARM или графических процессоров NVIDIA. Реализована система прямого жидкостного охлаждения. Интерконнект у XH2000 тоже модульный — до 10 коммутаторов BXI, Infiniband HDR или высокоскоростного Ethernet. Производитель заявляет о масштабируемости высочайшего уровня.

В варианте, предложенном Университету Люксембурга, будут использованы процессоры AMD EPYC второго поколения. Это позволит нарастить вычислительные мощности университета до 2,8 Пфлопс (из них 1,7 Пфлопс придётся на новую машину), а ёмкость разделяемого хранилища данных вырастет до 10 Пбайт. Новый суперкомпьютер будет использоваться для ускорения исследований в самых различных отраслях: от физики частиц и материаловедения до построения погодных моделей и запуска экономических симуляций.

Постоянный URL: http://servernews.ru/1001126
26.12.2019 [13:21], Сергей Юртайкин

Разработчик суперкомпьютеров «Т-платформы» может перейти под контроль государства

Разработчик суперкомпьютеров «Т-платформы» может перейти под контроль государства. Дальнейшая судьба компании обсуждалась на совещании в правительстве.

Рассматривалось несколько вариантов, включая передачу 100 % «Т-платформ» «дочке» ВЭБа — «НМ-теху». Также допускается возможность прямого денежного дофинансирования «Т-платформ» — из-за ареста основного владельца компания не может привлечь кредит, рассказал «Ведомостям» представитель основного совладельца (75%) компании Всеволода Опанасенко. 

По его словам, судьба «Т-платформ» стала предметом обсуждения в правительстве из-за того, что компания имеет уникальные технологии, часть которых созданы благодаря субсидиям Минпромторга.

Ранее в 2019 году генеральный директор компании «Т-Платформы» Всеволод Опанасенко был взят под стражу в рамках дела о злоупотреблении полномочиями. Компания поставляла компьютеры МВД, Росгидромету и МГУ.

Финансовое положение компании с ареста Опанасенко сильно ухудшилось, сожалеет его представитель. По его словам, «Т-платформам» не хватает оборотных средств, компания не может получить банковские гарантии для участия в госконкурсах, часть сотрудников уволились.

Сотрудник компании, владеющей собственным суперкомпьютером, сообщил «Ведомостям», что когда-то «Т-платформы» создавали лучшие в России суперкомпьютеры, но рынок меняется. Прибыль компании снижается, а для того, чтобы исправить ситуацию, нужно становиться производителем оборудования, заниматься ИТ-интеграцией и техподдержкой одновременно, считает собеседник.

Постоянный URL: http://servernews.ru/1000500
16.12.2019 [15:55], Владимир Романченко

Суперкомпьютер Christofari Сбербанка запущен в коммерческую эксплуатацию

Сбербанк и его дочерняя компания SberCloud объявили о коммерческом запуске суперкомпьютера «Кристофари» (Christofari). Отныне его мощности доступны сторонним юридическим лицам по специальным тарифам.

Суперкомпьютер Christofari позиционируется его создателями как решение для научно-исследовательских, коммерческих и государственных организаций, заинтересованных в работе с алгоритмами искусственного интеллекта – в частности, с целью обучения программных моделей на базе сложных нейронных сетей в рекордно короткие сроки.

Список областей применения новой системы ориентирован на нефтегазовую отрасль, электроэнергетику, тяжелую промышленность, медицину, телекоммуникации, ритейл, финансовый и другие секторы.

Суперкомпьютер Christofari создан специалистами Сбербанка и Sbercloud в содружестве с компанией Nvidia. Кластер выполнен на 24-ядерных процессорах Xeon Platinum 8168 с тактовой частотой 2,7 ГГц и графических ускорителях Nvidia DGX-2.

Графический ускоритель Nvidia DGX-2

Nvidia DGX-2

Суммарное число процессорных и графических вычислительных ядер системы Christofari на момент запуска составляло 99,6 тысяч, объём оперативной памяти составил 115,2 тысяч Гбайт. Для соединения узлов кластера применяется интерконнект стандарта Mellanox InfiniBand EDR.

Система работает под управлением операционной системы Ubuntu 18.04.01. В работе суперкомпьютера применяются компиляторы Nvidia NVCC 10 и Intel Composer XE, математические библиотеки Intel MKL и Nvidia CUDA BLAS, I/O библиотеки OpenMPI-3.1.4-cuda.

Эффективная производительность суперкомпьютера Christofari в тесте LINPACK по данным рейтинга Топ-500 составила 6,7 петафлопс, пиковая производительность достигала 8,8 петафлопс. Таким образом, «Кристофари» сразу же возглавил российский суперкомпьютерный рейтинг Топ-50 и занял 29 строчку в мировом рейтинге суперкомпьютеров Top500. Среди европейских систем Christofari занимает седьмое место.

Особенностью «Кристофари» является доступ к его мощностям коммерческим заказчикам из облака компании SberCloud. В рамках акции «100 рублей за 100 минут» мощности суперкомпьютера для обучения моделей могут быть предоставлены клиентам на 100 минут с объемом данных до 10 Гбайт за символические 100 рублей. Акция продлится до 12 июня 2020 года. Для участия необходимо зарегистрироваться на сайте SberCloud, добавить услугу AI Cloud и активировать участие, затем пополнить счет на 100 рублей.

«Кристофари» разместился в одном из залов ЦОД Сбербанка, расположенного в Сколково. Данный ЦОД имеет сертификат Tier III и был запущен в декабре 2017 года. Особенностью дата-центра является то, что он на 85 % охлаждается с помощью фрикулинга — одноконтурной прямоточной системы. Атмфосферный воздух забирается и проходит двухступенчатую очистку, после чего направляется в залы. Система работает при температуре окружающей среды ниже 20° C. При необходимости воздух доохлаждается классическими чиллерами. Текущий уровень PUE заявлен на уровне 1,6. После полного заполнения ЦОД (2000 стоек) он снизится до 1,3. 

Кроме того, в ЦОД применена новая система ИБП — дизель-динамическая. Вместо традиционных химических аккумуляторов энергия запасается путём раскручивания до 2880 об./мин. пятитонного маховика, который способен «набрать» до 30 МДж. При сбое питания его энергии хватит на то, чтобы в течение 11 секунд обеспечивать работу генератора. Одновременно в течение 3 секунд должны включиться традиционные дизель-генераторы, запаса топлива для которых хватит на 72 часа работы ЦОД под полной нагрузкой. 

Постоянный URL: http://servernews.ru/999836
16.12.2019 [14:30], Юрий Поздеев

ИИ-суперкомпьютер IBM AiMOS послужит для создания новых ИИ-архитектур

Политехнический институт Ренсселера в Нью-Йорке продемонстрировал суперкомпьютер IBM AiMOS с производительностью в 8 Пфлопс. 

IBM заявляет, что AiMOS является самым мощным суперкомпьютером, среди размещенных в частных университетах. В ноябре прошлого года суперкомпьютер дебютировал в Топ 500 и занял там 24 место.

Институт планирует применять его вычислительные ресурсы для исследований по четырем направлениям:

  • ИИ и разработка новых типов устройств;
  • Биотехнологии;
  • Энергетика и окружающая среда;
  • Нанотехнологии.

В AiMOS используется та же технология Power Systems, что и в двух самых мощных суперкомпьютерах – Summit и Sierra (тоже созданные IBM). Суперкомпьютер AiMOS будет так же использоваться для проекта Джефферсона, инициативе по мониторингу окружающей среды, которая ежегодно собирает более девяти терабайт данных с датчиков и устройств IoT, находящихся вокруг озера Джоржия в Нью-Йорке.

Стоимость инвестиций в проект не разглашается, однако только развертывание системы оценивается в 30 млн долларов.Cтоит заметить, что суперкомпьютер IBM не самый мощный, например, в Государственном Техасском Университете в этом году запущен суперкомпьютер Frontera (созданный совместно DELL и Intel), который занимает пятое место в рейтинге Топ 500. Так, Frontera обладает производительностью 38,7 Пфлопс, что делает его самым мощным суперкомпьютером в научном мире.

Постоянный URL: http://servernews.ru/999729
04.12.2019 [01:11], Андрей Созинов

Huawei строит в Китае ИИ-суперкомпьютер Cloud Brain II производительностью выше 1000 Пфлопс

Компания Huawei и исследовательская лаборатория Пэн Чэн (Peng Cheng Laboratory, PCL) совместно представили первую фазу проекта суперкомпьютера Peng Cheng Cloud Brain II. Данная система ориентирована на вычисления, связанные с искусственным интеллектом, и её проектная производительность составит порядка 1000 Пфлопс FP16.

Суперкомпьютер Cloud Brain II построен на кластерах Huawei Atlas 900 AI, в которых используются фирменные ARM-процессоры Huawei Kunpeng и ускорители ИИ-вычислений Huawei Ascend 910. К сожалению, информация о том, сколько кластеров и процессоров использовано в Cloud Brain II, пока что не раскрывается.

Однако отмечается, что на текущий момент, то есть по завершению первой стадии строительства системы, производительность Cloud Brain II составляет 100 Пфлопс. Но уже в следующем году планируется поднять производительность выше 1000 Пфлопс. 

Как отмечают представители Huawei, они очень горды тем, что именно их платформа легла в основу суперкомпьютера Cloud Brain II. В свою очередь представители лаборатории PCL отмечают, что по завершению строительства системы она имеет все шансы стать самой производительность в мире платформой для исследований, связанных с искусственным интеллектом. В целом, Cloud Brain II ориентирован на исследования в области ИИ, в том числе связанные с машинным зрением, беспилотными автомобилями и т.д.

Постоянный URL: http://servernews.ru/999000
02.12.2019 [21:12], Алексей Степин

Учёные задействовали 50 тыс. GPU в «облаках» для астрофизического эксперимента

Облачные вычислительные платформы вполне могут составить конкуренцию традиционным суперкомпьютерам. Это доказал эксперимент, поставленный совместно Суперкомпьютерным центром Сан Диего и Нейтринной обсерваторией Ice Cube.

В эксперименте было задействовано свыше 50 тысяч доступных ускорителей, располагавшихся в облачных платформах Amazon Web Services, Microsoft Azure и Google Cloud Platform в 28 регионах трёх континентов ‒ Северной Америки, Европы и Азии.

Статистика эксперимента: типы GPU и динамика нарастания мощности

Статистика эксперимента: типы GPU и динамика нарастания производительности

Всего в облаках сейчас имеет примерно 80 тысяч NVIDIA Tesla V100. Фактически же для опыта задействовался весь доступный на тот момент для аренды массив разнородных ускорителей ‒ 51500 единиц. Он был объединён в единый комплекс с помощью ПО HTCondor

Эксперимент начался 16 ноября и длился порядка 200 минут. Он преследовал три основных цели: выяснить, насколько серьёзные мощности можно задействовать таким образом; выявить реальные масштабы использования ГП в облаках; и, наконец, решить реальную научную задачу.На графике хорошо видно, как нарастала мощность «облачного суперкомпьютера»; она достигла максимума примерно к 110 минуте и составила приблизительно 350 Пфлопс (FP32). Для сравнения, лидер списка TOP500, суперкомпьютер Summit, развивает порядка 400 Пфлопс на вычислениях такой же точности.

Все сегменты общей задачи были оптимизированы с учётом особенностей каждой из восьми моделей доступных ускорителей NVIDA. Время работы сегментов не превышало 15‒30 минут для минимизации риска отключения от сервиса из-за внезапно возникшего спроса. Примерная оценка затрат: от $120 до $150 тысяч в первый день вычислений. То есть около половины выделенного на описываемый проект гранта EAGER.

Вклад различных моделей GPU в общее дело

Вклад различных моделей GPU в общее дело

Для расчётов использовались данные, полученные нейтринной обсерваторией IceCube. Это крупнейший в мире детектор нейтрино, размещённый на антарктической станции Амундсен-Скотт. Он имеет массив из 5160 высокочувствительных оптических детекторов, размещённых в специальных скважинах на глубинах от 1450 до 2450 метров.

В 2017 году с помощью нового массива удалось впервые зафиксировать космические нейтрино сверхвысоких энергий и отследить их источник. За час эксперимента удалось провести симуляцию такого объема данных с детекторов IceCube, который в обычных условиях потребовал бы месяца.

Доля разных регионов в проекте

Доля разных регионов в проекте

В настоящее время активно развивается так называемая «многоканальная астрономия» (multi-messenger astronomy). Её суть заключается в комплексном исследовании всего, что могут испускать астрономические объекты, от электромагнитного излучения до гравитационных волн и элементарных частиц. Но такая астрономия требует обработки гигантских массивов данных.

Проведённый эксперимент показал, что «облачные системы» подходят для подобных целей и позволяют развёртывать серьёзные мощности весьма оперативно, в течение небольшого промежутка времени, что крайне важно для проектов с жёсткими сроками.

Лаборатория IceCube

Хотя добиться запланированных изначально 80 тысяч ускорителей NVIDIA Tesla V100 и не удалось, но был получен бесценный опыт, который в перспективе должен проложить дорогу широкому использованию облачных сервисов с ГП-ускорителями и для других научных проектов. В ближайшем будущем бума облачных супервычислений не ожидается, ведь если они станут широко популярными, то стоимость такого предприятия неизбежно вырастет.

Следует также отметить, что «виртуальный суперкомпьютер» подходит для решения далеко не всех научных задач, связанных с супервычислениями. Некоторые из таких задач критичны к пропускной способности межсоединений, а это не самая сильная сторона подобного рода решений. Поставщики облачных услуг это понимают; в частности, на выставке SC19 Microsoft представила новые облачные серверы Azure, использующие внутреннюю сеть на базе InfiniBand HDR со скоростью 200 Гбит/с и поддержкой RDMA.

Постоянный URL: http://servernews.ru/998876
23.11.2019 [14:14], Андрей Созинов

SC19: Ливерморская лаборатория получит новый суперкомпьютер Magma и обновит Corona

Компания Penguin Computing объявила о работе над двумя проектами для Ливерморской национальной лаборатории им. Э. Лоуренса (Lawrence Livermore National Laboratory, LLNL).

Первый проект состоит в обновлении лабораторного суперкомпьютера Corona, тогда как другой подразумевает создание нового суперкомпьютера Magma.

Суперкомпьютер Corona был построен в конце прошлого года, а сейчас он получит обновление в виде ускорителей вычислений AMD Radeon Instinct MI60. Данные ускорители построены на 7-нм графических процессорах AMD Vega второго поколения с 4096 потоковыми процессорами и частотой 1800 МГц. Также данные ускорители обладают 32 Гбайт памяти HBM2 с пропускной способностью 1 Тбайт/с.

Система Corona состоит из 170 узлов, каждый из которых включает два 24-ядерных процессора AMD EPYC 7401 и твердотельный накопитель PCIe объёмом 1,6 Тбайт. На данный момент половина из этих узлов имеет по четыре ускорителя AMD Radeon Instinct MI25, что обеспечивает производительность в 4,2 Пфлопс в вычислениях одинарной точности. После апгрейда с помощью ускорителей Radeon Instinct MI60 производительность вырастет до 9,45 Пфлопс.

Что касается суперкомпьютера Magma, то он будет построен из 752 вычислительных кластеров Penguin Relion XE2142eAP. Каждый из кластеров включает в себя два 48-ядерных процессора Xeon Platinum 9242. В сумме суперкомпьютер будет обладать 144 384 ядрами, а также 293 Тбайт оперативной памяти. Для свези между узлами будет использоваться интерконнект Omni-Path, а за отвод тепла — система жидкостного охлаждения CoolIT. Теоретическая пиковая производительность всей системы Magma составит 5,313 Пфлопс.

В конце же отметим, что Ливерморская национальная лаборатория сходит в структуру Министерства энергетики США, и занимается задачами национальной безопасности США, связанными с ядерным вооружением, энергетикой и экологией, а также противодействием терроризму. Данная лаборатория уже располагает одним из самых производительных суперкомпьютеров в мире — Sierra, который занимает вторую строчку рейтинга TOP500.

Постоянный URL: http://servernews.ru/998275
19.11.2019 [23:32], Андрей Созинов

SC19: РСК представила Tornado AP на базе Xeon 9200 и All-Flash СХД ёмкостью 1 Пбайт в 1U (Обновлено)

Российский разработчик суперкомпьютеров РСК представил в рамках конференции SC19 новые вычислительные узлы Tornado AP, а также новые All-Flash системы хранения данных большой ёмкости.

Новинки выделяются в первую очередь тем, что за отвод тепла в них полностью отвечают системы жидкостного охлаждения.

Вычислительный узел Tornado AP построен на серверной платформе Intel S9200AP с парой высокопроизводительных процессоров Xeon Platinum 9200-й серии. Напомним, что данные процессоры выполнены в корпусе BGA, то есть распаяны прямо на материнской плате, и способны предложить от 32 до 56 ядер. Производительность одного узла Tornado AP может достигать весьма внушительных 9 Тфлопс.

Что касается системы хранения данных Tornado All-Flash, то, как нетрудно догадаться по названию, она построена на твердотельных накопителях. Здесь использованы твердотельные накопители Intel SSD D5-P4326, выполненные в «линеечном» форм-факторе (Ruler). Всего СХД вмещает до 32 «линеек» общим объёмом до 1 Пбайт. В основе системы лежит пара процессоров Intel Xeon Scalable второго поколения и память Intel Optane DC Persistent Memory.

Как в вычислительной системе Tornado AP, так и в системе хранения данных Tornado All-Flash используется фирменная система охлаждения горячей водой РСК, которая, по словам производителя, позволяет достичь высокой энергетической плотности и эффективности. Также это обеспечивает бесшумную работу системы.

Обновление от 29.11:

РСК раскрыла новые подробности о новинках, представленных в рамках SC19. Касательно вычислительных систем Tornado AP было отмечено, что они могут нести в себе до 1,5 Тбайт оперативной памяти и до двух твердотельных NVMe-накопителей.

Причём это могут быть либо накопители формата M.2, например, Intel Optane SSD DC P4801X или Intel SSD DC P4511 (M.2), либо «линеечные» накопители, например, Intel SSD DC P4511 (E1.S). Также опционально предлагается расширенное хранилище данных с шестью накопителями E1.L, каждый объёмом до 15,36 Тбайт. Это даёт более 100 Тбайт скоростной памяти для хранения данных.

Российский разработчик отмечает, что с помощью высокопроизводительных и компактных машин Tornado AP в рамках одного монтажного шкафа 42U можно создавать систему с суммарной пиковой производительностью в 0,8 Пфлопс и с хранилищем данных на 8,4 Пбайт. 

Что касается систем хранения данных Tornado AFS (All-Flash System), то здесь было отмечена поддержка технологии NVMe-over-Fabric (NVMe-oF), которая обеспечивает скоростное подключение СХД к другим узлам системы. Также отметим, что новинка может комплектоваться адаптерами с различными интерконнектами со скоростью передачи данных до 200 Гбит/с, включая Intel Omni-Path, InfiniBand и Ethernet. На базе Tornado AFS можно получить хранилище со скоростью работы несколько Тбайт/с и ёмкостью до 20,64 Пбайт на шкаф. 

Обновление получила и гиперконвергентная СХД RSC Tornado HS с 12 NVMe-накопителями. Она получила поддержку памяти Intel Optane DCPMM, что позволит использовать программный стек Intel DAOS. Именно такие решения в ходе модернизации суперкомпьютера имени Н.Н. Говоруна в Объединенном институте ядерных исследований позволили достичь производительности распределенной системы хранения данных в 300 ГБайт/c. 

Кроме того, РСК провела унификацию форм-фактора монтажного шкафа, включая «распределенную систему энергопитания с дублированием N+x, встроенную систему мониторинга и управления вычислительной и коммутационной компонентами», что позволит совмещать в одной стойке как собственные решения РСК со 100% жидкостным охлаждением, так любое другое стандартное 19" оборудование сторонних вендоров, оснащённое воздушной или гибридной СО. 

Постоянный URL: http://servernews.ru/998020
Система Orphus