Материалы по тегу: sc19

23.11.2019 [18:18], Алексей Степин

SC19: Inspur показала первые ускорители Intel Nervana NNP-T в формате Open Accelerator Module

Нашим читателям уже знакомо имя Inspur ‒ ранее она анонсировала на саммите OCP Regional Summit платформу для ускорителей в новом формате Open Accelerator Module (OAM).

Эти довольно компактные «кубики», похожие на SXM2, избавлены от недостатков, свойственных обычным ускорителям в формате PCI Express, легко монтируются и обладают развитой системой охлаждения. На выставку SC19 компания привезла уже готовые образцы таких ускорителей и платформ для них. 

Продемонстрированные ранее платформы других разработчиков, решивших использовать ускорители Intel Nervana NNP-T, реализованы с использованием PCIe-версии NNP-T, а вот Inspur стала первой, кто продемонстрировал и сам модуль OAM NNP-T, и платформу на его основе. В ней поддерживаются модули как с привычным напряжением питания 12 вольт, так и более прогрессивные, имеющие 54-вольтовую шину питания.

Система Inspur MX1 выполнена в достаточно компактном корпусе высотой 2U, но благодаря форм-фактору OAM, разработчику удалось разместить в системе сразу 8 ускорителей NNP-T. А поскольку основой платформы являются процессоры AMD EPYC 7002, поддерживается шина PCI Express 4.0 с более высокой скоростью передачи данных, нежели могут предложить решения на базе Xeon Scalable. Заявлено 112 Гбайт/с в двунаправленных соединениях «точка-точка».

Обслуживание новой платформы организовано удобно: достаточно выдвинуть отсек с ускорителями и заменить неисправный модуль, либо добавить в систему новый, в том случае, если изначальная конфигурация включала в себя меньшее их количество. По бокам от основного модуля видны 4 посадочных места половинной высоты. Они предназначены для установки высокоскоростных адаптеров InfiniBand или Ethernet.

Целиком отказываться от традиционных плат расширения компания не стала и показала также классические ускорители Intel Nervana L-1000: всё-таки инфраструктура OAM ещё весьма молода, а слоты PCI Express имеются практически в любом сервере, лишь бы хватило места и мощности системы охлаждения.

Другая новая система Inspur, NF5468M5, выглядит гораздо более громоздкой, нежели описанная выше версия с поддержкой OAM, но она относится к другому классу и возможности её шире: здесь поддерживается установка 16 новых тензорных ускорителей NVIDIA T4 и до 8 классических NVLink-модулей Tesla V100.

Система поистине универсальна, позволяет переключать топологию ускорителей буквально на лету и предназначена для широкого круга задач, от машинного обучения до применения в медицине и финансовых структурах. Емкость набортной подсистемы хранения данных составляет 384 Тбайт ‒ вполне неплохо для столь универсальной платформы.

Широко на выставке были представлены и другие новые платформы Inspur, например, NF5280M5 может похвастаться четырьмя ускорителями V100 PСIe в корпусе высотой всего 2U.  Система NF5488M5 вообще является первым в индустрии стандартным сервером, использующем коммутаторы NVIDIA NVSwitch и поддерживающим не только текущее поколение NVIDIA Volta, но и следующее (SXM3).

Для сравнения, NVIDIA DGX-1 при том же числе ускорителей использует менее производительную топологию соединений P2P, а DGX-2, хотя и несёт на борту 16 ускорителей и использует NVSwitch, но весьма громоздка и не слишком дружелюбна к подсистемам питания серверных, поскольку потребляет под нагрузкой 10 киловатт. В это же время NF5488M5 может потреблять менее 5 киловатт, обладая всеми преимуществами NVSwitch.

Имеется в арсенале компании и сервер AGX-5. Он базируется на партнёрском дизайне NVIDIA HGX-2. В корпусе высотой 8U расположены 2 процессора Xeon Scalable второго поколения и 16 ускорителей Tesla V100 с топологией NVSwitch. Поддерживаются модули SXM3 (Volta Next).

Более компактная Inspur AGX-2 также предназначена для создания систем класса HPC. При высоте всего 2U в системе размещается 8 ускорителей NVIDIA Tesla P100 или P40, но имеется и возможность расширения до 16 ускорителей за счет дополнительной «ускорительной полки» (JBOG). Система обладает поддержкой NVLink 2.0 и имеет 4 порта InfiniBand EDR со скоростью 100 Гбит/с.

Inspur уделяет внимание и другим процессорным архитектурам. Так, 4U-сервер FP5466G2 использует в качестве процессоров IBM POWER9 (Sforza) с частотой 2,75 ГГц. Максимальное количество ядер составляет всего 22 на процессор, но с учётом поддержки SMT4, система может предложить 176 тредов. Имеется 8 слотов PCI Express 4.0. Дисковая система вмещает до 40 накопителей формата 3,5″ ‒ 24 во фронтальных отсеках горячей замены и 16 в задних отсеках, причём, в последнем случае 4 отсека из 16 могут поддерживать NVMe.

Модель FP5280G2 имеет меньшую высоту, но использует те же процессоры POWER9. Количество слотов PCIe 4.0 аналогично более крупному собрату. А вот подсистема накопителей модульная: сервер можно сконфигурировать как 12 × 3,5″, так и как 24 × 2,5″. Возможна установка четырёх накопителей NVIDIA Tesla V100.

На базе POWER9 представлен также модульный сервер гетерогенных вычислений FP5468G2. Его модуль ускорителей может содержать как 16 однослотовых PCIe-плат NVIDIA T4, так и 8 блоков Tesla V100 с интерфейсом NVLink. Дисковые полки поддерживают до 24 накопителей формата 3,5″, 6 отсеков при этом могут содержать SSD с разъёмом U.2 NVMe.

Экспозиция Inspur вообще очень богата на различного рода экзотические решения. Так, помимо серверов с архитектурой POWER9, компания показала уникальный ускоритель F37X. Выглядит он как обычная двухслотовая карта расширения PCIe половинной длины, но под радиатором здесь установлена высокопроизводительная ПЛИС Xilinx Virtex UltraScale+ с более чем 2,8 миллионами ячеек системной логики и 9024 модулями DSP.

Это не просто ПЛИС, впервые в мире микросхеме самой матрицы сопутствует и 8 Гбайт памяти HBM2 с пропускной способностью 460 Гбайт/с. Новинка может обеспечить 28,1 тераопс (триллионов операций в секунду) на вычислениях формата INT8, потребляя при этом менее 75 ватт. Имеется также два порта 100GbE (QSFP28+). Спектр применения такого ускорителя весьма широк, от транскодирования видео до секвенирования генома.

Ускоритель Insupr F10A компактнее своего собрата F37X, а братьями их можно назвать постольку, поскольку эта новинка также использует ПЛИС, правда, другую ‒ Intel Arria 10 GX1150. Это 1,5 миллиона логических ячеек и свыше 427 тысяч модулей адаптивной логики, а также два порта 10GbE SFP+.  Объём оперативной памяти изменяемый, стандартная комплектация включает в себя 16 Гбайт DDR4 SODIMM. При потреблении всего 45 ватт данный ускоритель развивает примерно 1,37 терафлопс (FP32) и может работать даже в режиме пассивного охлаждения.

Постоянный URL: http://servernews.ru/998320
23.11.2019 [15:42], Андрей Созинов

SC19: Liqid, разработчик сверхбыстрых SSD и СХД, «подружился» с WD OpenFlex

Компания Liqid, известная сверхбыстрыми SSD и платформой для создания композитных систем, объявила о сотрудничестве с Western Digital.

Теперь скоростные системы хранения данных Western Digital OpenFlex полностью поддерживают программное обеспечение Liqid Command Center, благодаря чему могут использоваться в составных серверных системах.

Платформа Liqid Command Center позволяет объединять в одну систему компоненты различных узлов, расположенных в одной или даже нескольких стойках. То есть, имея некий набор ресурсов (узлы с CPU, ускорителями, накопителями и т.д.) с помощью ПО Liqid можно скомпоновать систему, которая наилучшим образом подойдёт под ваши задачи. Такой подход может быть интересен, например, для центров обработки данных со множеством пользователей, которые смогут сами «собрать» систему под свои нужды.

Как отмечает Liqid, её платформа позволяет за считанные секунды масштабировать, изменять и настраивать серверные системы с нуля из имеющихся в ЦОД компонентов. Это позволяет наилучшим образом подстраивать системы под свои рабочие процессы, которые в современном мире нередко меняются. Композитные системы позволяет использовать имеющиеся ресурсы более эффективно, нежели в случае традиционных физических серверов.

И теперь поддержку работы с программным обеспечением Liqid Command Center 2.2 получили системы хранения данных Western Digital OpenFlex. Эти системы используют для подключения скоростной интерфейс NVMe over Fabric (NVMe-oF). Система OpenFlex E3000 может включать в себя до десяти хранилищ OpenFlex F3100, каждое из которых обладает объёмом до 61,4 Тбайт и имеет два порта 50GbE для подключения NVMe-oF. Общая скорость передачи данных в системе OpenFlex E3000 достигает 110 Гбайт/с, а производительность достигает 22 млн IOPS.

Отмечается, что платформа Liqid Command Center 2.2 была полностью интегрирована с WD Open Composability API, за счёт чего обеспечивается полный спектр возможностей для управления и мониторинга систем Western Digital.

Ранее же ПО Liqid работало преимущественно с их собственными твердотельными накопителями Element LQD. Данные накопители хоть и не являются новинками, но также были показаны на конференции SC19. Напомним, ёмкость накопителей Element LQD3000 достигает 16 Тбайт, они используют интерфейс PCIe 3.0 x8, обладают скоростью до 7 Гбайт/с и производительностью 1,25 млн IOPS.

В свою очередь более новые Element LQD4500 имеют ёмкость до 32 Тбайт, подключаются по PCIe 4.0 x16, обладают скоростью до 24 Гбайт/с и производительностью до 4 млн IOPS. Возможно, если верить характеристиками, это самый быстрый твердотельный накопитель в мире.

Постоянный URL: http://servernews.ru/998254
23.11.2019 [14:14], Андрей Созинов

SC19: Ливерморская лаборатория получит новый суперкомпьютер Magma и обновит Corona

Компания Penguin Computing объявила о работе над двумя проектами для Ливерморской национальной лаборатории им. Э. Лоуренса (Lawrence Livermore National Laboratory, LLNL).

Первый проект состоит в обновлении лабораторного суперкомпьютера Corona, тогда как другой подразумевает создание нового суперкомпьютера Magma.

Суперкомпьютер Corona был построен в конце прошлого года, а сейчас он получит обновление в виде ускорителей вычислений AMD Radeon Instinct MI60. Данные ускорители построены на 7-нм графических процессорах AMD Vega второго поколения с 4096 потоковыми процессорами и частотой 1800 МГц. Также данные ускорители обладают 32 Гбайт памяти HBM2 с пропускной способностью 1 Тбайт/с.

Система Corona состоит из 170 узлов, каждый из которых включает два 24-ядерных процессора AMD EPYC 7401 и твердотельный накопитель PCIe объёмом 1,6 Тбайт. На данный момент половина из этих узлов имеет по четыре ускорителя AMD Radeon Instinct MI25, что обеспечивает производительность в 4,2 Пфлопс в вычислениях одинарной точности. После апгрейда с помощью ускорителей Radeon Instinct MI60 производительность вырастет до 9,45 Пфлопс.

Что касается суперкомпьютера Magma, то он будет построен из 752 вычислительных кластеров Penguin Relion XE2142eAP. Каждый из кластеров включает в себя два 48-ядерных процессора Xeon Platinum 9242. В сумме суперкомпьютер будет обладать 144 384 ядрами, а также 293 Тбайт оперативной памяти. Для свези между узлами будет использоваться интерконнект Omni-Path, а за отвод тепла — система жидкостного охлаждения CoolIT. Теоретическая пиковая производительность всей системы Magma составит 5,313 Пфлопс.

В конце же отметим, что Ливерморская национальная лаборатория сходит в структуру Министерства энергетики США, и занимается задачами национальной безопасности США, связанными с ядерным вооружением, энергетикой и экологией, а также противодействием терроризму. Данная лаборатория уже располагает одним из самых производительных суперкомпьютеров в мире — Sierra, который занимает вторую строчку рейтинга TOP500.

Постоянный URL: http://servernews.ru/998275
22.11.2019 [23:46], Алексей Степин

SC19: Microsoft показала серверы Open CloudServer — сердце Azure

Мы уже рассказывали нашим читателям об инициативе Microsoft по запуску высокопроизводительной инфраструктуры в облачном сервисе Azure. Новые виртуальные машины компании предназначены для тех, кому требуются самые интенсивные вычисления.

Анонсом дело не ограничилось, и на SC19 компания продемонстрировала новое высокопроизводительное аппаратное обеспечение Azure на базе ускорителей NVIDIA и Graphcore.

Новые серверы Microsoft Azure являются частью инициативы Open Compute Project. Платформа называется Open CloudServer (изначально MS Project Olympus) и частично является открытой; код инструментария управления будет выкладываться на GitHub. Аппаратный дизайн открыт полностью, стандартизирован и его описание можно найти по вышеприведённой ссылке, а также на ресурсе MSDN

Открывает серию сервер Azure NDv2, самый крупный из новинок. Его высота обусловлена применением 8 ускорителей NVIDIA Tesla V100 в формате SXM2, каждый из которых снабжён солидным радиатором. Неудивительно, поскольку каждый такой чип может выделять до 300 ватт тепла.

Основным процессором в этих серверах выступает Xeon Platinum 8168 (24C/48T, 205 Ватт TDP), его дополняет 672 Гбайт оперативной памяти, но основная мощь скрыта именно в ускорителях V100, каждый из которых несёт на борту 32 Гбайт быстрой памяти HBM2. Заказчикам новой услуги доступны кластеры, включающие до 100 таких серверов (до 800 ускорителей NVIDIA). В качестве межсоединений используется сеть InfiniBand, как обеспечивающая меньшую латентность, нежели Ethernet.

А вот серверы Azure HBv2 отличаются от NDv2 буквально всем. Они используют компактные корпуса и процессоры AMD серии EPYC 7002. Весьма любопытно выглядит система охлаждения с четырьмя тепловыми трубками на каждый процессор, но такое решение продиктовано желанием повысить плотность размещения вычислительных мощностей.

Виртуальные машины, которые будут размещаться на этих серверах, смогут предоставить заказчикам до 120 ядер AMD Rome (без SMT), до 480 Гбайт оперативной памяти и локальное хранилище данных объёмом до 1,6 Тбайт. Внутренняя сеть NDv2 на базе InfiniBand HDR будет использовать RDMA и работать на скорости 200 Гбит/с, внешняя сеть Azure ‒ на скорости 40 Гбит/с.

Максимальный объём кластера на базе NDv2 для одной задачи может достигать 36 тысячи ядер, крупнейшим клиентам Microsoft сможет предоставить до 80 тысяч ядер. Любопытно, что в выставочном экземпляре HBv2 явно видна установленная обычная видеокарта GIGABYTE, использовавшаяся, скорее всего, в демонстрационных целях.

Серверы Azure NDv3 используют более высокий корпус, что вызвано необходимостью размещения полноразмерных плат ускорителей на базе интеллектуального процессора (IPU) Graphcore C2. Об этом процессоре мы уже рассказывали, он имеет уникальную тайловую архитектуру и предназначен для ускорения задач машинного обучения.

Каждая виртуальная машина нового типа сможет предоставить в распоряжение заказчика 16 процессоров IPU, каждый из которых способен выполнять более 1200 потоков. Система межсоединений, задействованных в NDv3, обеспечит обучение больших нейросетей на крупномасштабных моделях. Объём доступной системной памяти составит 768 Гбайт, внутренней памяти IPU ‒ 300 Мбайт на чип.

Наконец, серверы Azure NVv4 представляют собой решения на базе процессоров AMD EPYC 7002 и ускорителей AMD Radeon Instinct. Выставочная модель была оснащена пакетами плат Instinct MI25. Пожалуй, это самое гибкое решение, поскольку заказчики смогут использовать виртуальные машины даже с 1/8 от ускорителя. Microsoft предлагает широкий выбор вариантов.

В отличие от NDv2, поддержка SMT в этой варианте будет включена. Данная версия сервера предназначается, главным образом, для сервисов удалённой визуализации и удалённых рабочих сред (virtual desktops). Поддерживаются протоколы RDP 10, Teradici PCoIP и HDX 3D Pro, пользователь сможет работать с API DirectX9 ‒ 12, OpenGL 4.6 или Vulkan 1.1. Максимально возможная конфигурация одной виртуальной машины NVv4 ‒ 32 процессора, 112 Гбайт памяти и 16 Гбайт памяти GPU. Скорость сети Azure для этих систем составляет 50 Гбит/с.

Постоянный URL: http://servernews.ru/998260
22.11.2019 [23:00], Алексей Степин

SC19: Viking Enterprise Solutions продемонстрировала одну из первых в мире СХД с поддержкой накопителей U.2 PCIe 4.0

Viking Enterprise Solutions ‒ компания, основным профилем которой является разработка и выпуск систем хранения данных, как классических, так и гибридных, и полностью твердотельных. Это крупный  поставщик OEM/ODM-решений, так что многие СХД на рынке, известные под другими брендами, на самом деле созданы именно этим производителем.

В последнее время компания концентрируется на разработке таких технологий, как NVMe over Fabric и систем класса all flash, как обеспечивающих самые высокие показатели производительности. На выставке была продемонстрирована новейшая модель NSS-2249.

Она представляет собой высокоскоростной сервер данных высотой 2U, способный вместить 24 накопителя с интерфейсом NVMe. В его состав входит пара вычислительных модулей на базе AMD EPYC 7002 и, как следствие, поддерживается стандарт PCI Express 4.0. Это одна из первых в мире систем на рынке, поддерживающих одновременно новые процессоры AMD, стандарт PCIe 4.0 и накопители с поддержкой этой шины.

Это немаловажно, поскольку на рынке уже появляются модели накопителей U.2 с поддержкой нового интерфейса. Благодаря тому, что в формате U.2 поддерживается двухпортовое подключение, все 24 накопителя в системе видны каждому из обоих процессоров. Также нет проблем и с межсоединениями ‒ благодаря новому стандарту, узлы общаются друг с другом на скорости до 96 Гбайт/с. Наличие слотов OCP NIC позволяет устанавливать высокоскоростные сетевые карты, включая новейшие решения Broadcom, такие, как N2200G с двумя портами 200GbE. Можно использовать и платы Mellanox ConnectX-6 Infiniband HDR.

Результаты независимого тестирования впечатляют: NSS-2249 смогла продемонстрировать скорости записи и чтения 60 и 80 Гбайт/с соответственно, а производительность на случайных операциях достигла 3 миллионов IOPS, что для столь компактной системы может быть рекордом. Максимальный объём тоже впечатляет: при использовании новых SSD объёмом 30,6 Тбайт общее пространство хранения данных может достигать 734 Тбайт.

Не забывает компания и о классических дисковых системах большой ёмкости, поскольку в сфере потокового вещания задействуются огромные объёмы данных. Представленную на выставке модель NSS-41000, к примеру, использует такой крупный провайдер контента, как Netflix.

Системы такого класса не требуют мощных процессоров, главное в них – плотность упаковки накопителей, и новая СХД NSS-41000 относится именно к такому типу решений. В ней используется пара процессоров Xeon E5-2600 v4, зато максимальный объём хранимых данных может достигать 1 петабайта в корпусе высотой 4U.

При этом система использует стандартные SATA-диски с интерфейсом SATA 6 Гбит/с, что делает её более выгодной, нежели решения на базе более дорогих накопителей SAS 12 Гбит/с, особенно с учётом количества дисковых отсеков. Обслуживание у NSS-41000 полностью безотвёрточное, что сильно упрощает замену модулей

Интересно отметить, что данная СХД не просто легка в обслуживании. Она может эксплуатироваться даже вне специального продуваемого серверного шкафа и, помимо блоков, у неё резервирована система охлаждения. Поддерживаются различные модели разметки дискового пространства, включая зонирование.

Постоянный URL: http://servernews.ru/998246
22.11.2019 [13:41], Алексей Степин

SC19: консорциум Gen-Z демонстрирует модули DDIMM и NVDIMM-P, мост к UPI и поддержку ARM

Одну из интереснейших экспозиций на выставке SC19 продемонстрировал консорциум Gen-Z, в который входят крупнейшие игроки на рынке серверного оборудования, такие, как IBM, HPE, Dell EMC, Huawei, Samsung, Seagate и ряд других известных компаний.

Напомним, что целью Gen-Z является разработка и создание технологий HPC нового поколения. Главным образом, речь идёт о новой инфраструктуре межсоединений (interconnect). Решения Gen-Z должны решить проблему истощения пропускной способности подсистем памяти и хранения данных по мере роста вычислительных мощностей.

Разработка спецификаций была начата ещё в 2016 году, в 2018-м была ратифицирована версия Gen-Z 1.0, а в этом году консорциум показал вполне работоспособные прототипы решений, пригодных для использования в системах, чувствительных к пропускной способности межсоединений.

Модуль Samsung NVDIMM-P с поддержкой Gen-Z

В частности, были продемонстрированы модули Samsung NVDIMM-P с поддержкой Gen-Z. Использовался сценарий машинного обучения с двумя серверами, обращающимися по Gen-Z к системе хранения данных Samsung Media Box.

DDIMM вблизи. Контроллер SMC 1000, память SKHynix

Были в экспозиции и модули DDIMM ‒ нового прогрессивного формата оперативной памяти, продвигаемого компанией IBM и группой Open Compute Project. Известно, что Gen-Z разрабатывает свой стандарт модулей памяти. Какой из них победит, покажет время.

Мост UPI<‒>Gen-Z позволит использовать новую память в существующих системах на базе Intel Xeon

Повторимся, что одновременно с DDIMM консорциум продвигает новый формат модулей памяти EDSFF 3″, и уже существуют прототипы таких модулей объёмом 256 Гбайт. Они построены на чипах Samsung и используют контроллер IntelliProp Mamba. Также этой компанией разработан контроллер гибридной памяти под кодовым названием Cobra.

Новая технология межсоединений уже совместима с инфраструктурой Intel UPI

Стоит отметить, что основой контроллера Gen-Z является микросхема FPGA производства Intel, хотя сама компания не входит в консорциум. Тем не менее, поскольку процессоры Xeon пока продолжают доминировать на серверном рынке, консорциум разработал мост между шинами UPI и Gen-Z.

Gen-Z и ARM: налаживая мосты

Также на одном из стендов демонстрировалась совместная работа Gen-Z с процессорами с архитектурой ARM, которая сейчас набирает популярность в сегменте серверных систем и HPC-решений. Два прототипа вполне успешно использовали ресурсы друг друга, используя волоконно-оптическое соединение. При этом обеспечивалась целостность данных, как и заявлено в спецификациях Gen-Z.

Хотя сам контроллер Gen-Z в данном случае был реализован с помощью отладочной платы с гибридной матрицей Zynq UltraSCALE+, создание специализированного чипа явно не за горами. Консорциумом разработаны средства отладки и тестирования нового протокола и решений на его основе; в частности, был показан первый в мире анализатор Gen-Z, созданный в сотрудничестве с известным производителем контрольно-измерительного оборудования, компанией Teledyne LeCroy.

Пока это прототип, но Gen-Z находится в самом начале жизненного пути

О массовом внедрении Gen-Z говорить пока не приходится, но переход на новый тип межсоединений обещает многое. В частности, задержки при обращении к общему пулу памяти, могущему содержать различные её типы, от DDRAM до Optane и NAND, удастся снизить до 100 наносекунд и менее. Контролер для такого пула был разработан SMART Modular Technologies ещё в 2017 году. А не так давно HPE опубликовала детали о разработанном ей коммутаторе Gen-Z с поддержкой PCIe 4.0 и оптических соединений. Он продемонстрировал пропускную способность 90 Гбайт/с на пакетах размером 4К.

Постоянный URL: http://servernews.ru/998193
21.11.2019 [23:41], Алексей Степин

SC19: ИИ-ускорители Intel Nervana NNP-T в новых платформах SuperMicro

Мимо выставки, проходящей параллельно с конференцией SC19, не могла пройти такой крупный производитель и поставщик серверных аппаратных комплектующих и готовых платформ, как SuperMicro.

Это имя знакомо, наверное, всем, кто хоть как-то связан с серверным оборудованием. И на выставке новинки SuperMicro представлены весьма богато. Среди них есть весьма интересные наработки в популярной нынче сфере машинного обучения

К таким наработкам относится новая платформа на базе Nervana NNP-T, созданная в тесном сотрудничестве с корпорацией Intel. Как правило, в кластерах машинного обучения применяются графические ускорители NVIDIA, но в последнее время стали набирать популярность решения на базе специализированных чипов и FPGA. 

Основой новой кластерной платформы служат ускорители Intel Nervana. Они существуют в двух версиях, NNP-I (Spring Hill) и NNP-T (Spring Crest). Чип NNP-T представляет собой 16-нм 24-ядерный тензорный процессор, интегрированный с модулями памяти HBM2 объёмом 32 Гбайт.

Архитектура Intel NNP-T

Архитектура Intel NNP-T

Его производительность составляет примерно 120 Тераопс (триллионов операций в секунду) на частоте 1,1 ГГц, уровень энергопотребления варьируется в пределах 150 ‒ 250 Ватт. Каждое тензорное ядро имеет два блока перемножения матриц 32×32, форматы вычислений ‒ BFloat16 либо FP32/16/8. Также каждое ядро имеет небольшой объём собственной сверхбыстрой памяти, 2,5 Мбайт, 60 Мбайт на кристалл. Интерфейс у Spring Crest PCIe 4.0 x16, либо универсальный SerDes (16 линков x8).

Ускорители Intel NNP-T могут быть не только в формате PCI Express

Основой кластера SuperMicro для NNP-T является корпус высотой 4U, в котором можно разместить до восьми ускорителей Spring Crest. В качестве основных системных процессоров выбраны Xeon Scalable второго поколения; выбор не вполне понятный, поскольку они поддерживают только PCI Express 3.0, тогда как карты NNP-T могут работать и с PCI Express 4.0. Объём системной памяти одного узла ‒ до 6 Тбайт, не считая набортной HBM2 у ускорителей.

Таких узлов в кластере может быть до 128 (масштабируемость NNP-T ‒ до 1024 процессоров), что в пределе может дать свыше 15 Петаопс производительности. Демонстрируемая платформа позиционируется как идеальное решение для обучения нейросетей машинного зрения и распознавания речи, медицинской аналитики (реконструкция томограмм и т.п.), оснащения автономных транспортных средств, а также для исследований в нефтегазовой отрасли.

Разумеется, SuperMicro не ограничилась одной новой платформой, а представила также и ряд более классических новинок. К примеру, одной из таких новинок является сервер AS-4124GS-TNR. Он использует процессоры AMD EPYC второго поколения, 11 слотов расширения PCI Express 4.0 позволяют устанавливать до 8 полноразмерных ускорителей, таких, как NVIDIA Tesla или Quadro.

В этой системе поддерживаются новейшая версия Tesla

Полностью поддерживаются новейшие ускорители Tesla V100S с повышенной производительностью и HBM2. Заказчик может выбирать конфигурацию дисковой подсистемы, набираемой модулями по 16 дисков SATA либо 4 накопителя NVMe. 32 разъёма DDR4 DIMM позволяют установить до 8 Тбайт оперативной памяти. За питание этого монстра отвечает связка блоков питания 2 + 2 мощностью 2000 Ватт каждый.

Компания показала и новые сверхплотные лезвийные системы серии A+. Они также получили поддержку EPYC 7002, каждое из четырёх лезвий в шасси может нести по два 64-ядерных процессора AMD и по 4 Тбайт оперативной памяти. Установка однослотовых плат PCIe поддерживается, но для сетевых карт применяется компактный форм-фактор SIOM. Питается такой мини-кластер от блока питания мощностью 2200 Ватт. Каждое из четырёх лезвий имеет собственный шестидисковый отсек формата 2,5 в передней части корпуса системы.

Представляет интерес также новые системы хранения данных, к примеру, гибридная SYS-1029U-TN12RV. Она весьма компактна, занимает всего 1U в высоту, но в ней нашлось место для пары Xeon Scalable. Если это процессоры второго поколения, объём модулей Optane DC может достигать 6 Тбайт, а основное хранилище состоит из 12 двухдюймовых отсеков с поддержкой NVMe.

Похожими возможностями обладает SYS-1029P-N32R, но в ней количество накопителей с разъёмом U.2 достигает 32. Здесь интересна конструкция дисковых отсеков ‒ они выдвигаются подобно вычислительным лезвиям, накопители устанавливаются с боковых сторон.

А вот система SSG-1029P-NES32R представляет собой пример решения на базе накопителей «линеечного» формата EDSFF Short. На ухищрения по размещению накопителей здесь идти не пришлось, «линеечный» формат позволяет устанавливать рядом сразу 32 накопителя с поддержкой NVMe.

Линеечный форм-фактор твердотельных накопителей имеет свои преимущества

Также демонстрировалась и более крупная система SYS-8049U-E1CR4T. В ней уже четыре процессорных разъёма LGA 3647, а дисковая подсистема реализована 24 отсеками с горячей заменой формата 3,5″. Поддерживаются стандарты SAS и SATA, аппаратный RAID, опционально ‒ NVMe.

Классичекская платформа: четыре Xeon Scalable, 24 «больших» диска и сертификация SAP HANA

Наконец, SuperMicro показала новые суперсерверы серии SuperBlade. Модель SBE-820C-622 позволяет устанавливать до 20 двухпроцессорных узлов Xeon Scalable, либо 10 четырёхпроцессорных узлов. Поддерживаются смешанные конфигурации, до 15 узлов. Один из отсеков занимает коммутатор класса 100Gb (InfiniBand или Intel OmniPath).

Дополнительно можно установить до двух коммутаторов 10GbE. Конфигурация питания зависит от типа и количества установленных процессорных модулей, в максимальной конфигурации это 8 блоков мощностью по 2200 Ватт. Любопытна также модульная конструкция самих лезвий ‒ передний отсек может содержать либо 3 корзины для накопителей формата 2,5″, 2 корзины с поддержкой NVMe, либо полноценное место для установки однослотовой платы расширения PCI Express. Таким образом, описываемая система обладает большой гибкостью и может быть сконфигурирована в точности с нуждами заказчика. 

Постоянный URL: http://servernews.ru/998175
21.11.2019 [13:30], Андрей Созинов

SC19: экосистема AMD EPYC Rome и PCIe 4.0 растёт

На конференции SC19 было представлено довольно много различных продуктов на базе процессоров и ускорителей вычислений от AMD. Здесь оказались как совершенно новые системы, так и уже присутствующие на рынке.

Компания Penguin Computing представила новый вычислительный узел Altus XE2242, состоящий из четырёх систем, каждая из которых включает по два процессора EPYC Rome. Получается, что при высоте всего в 2U, данная система предлагает восемь процессоров EPYC второго поколения.

Также Penguin Computing показала систему Altus XE4218GT, созданную согласно концепции «AMD+AMD». Это означает, что вместе с процессорами EPYC Rome, здесь используются ускорители вычислений Radeon Instinct MI50. Система объединяет пару центральных процессоров и до восьми ускорителей. Кстати, подобное решение под названием G482-Z51 представила и компания Gigabyte. Данные системы нацелены на работу с ИИ, HPC и большими объёмами данных.

Оба описанных абзацем выше решения явно были вдохновлены эталонной системой AMD с ускорителями вычислений Radeon Instinct MI50. Она также включает два процессора EPYC Rome и восемь ускорителей вычислений Radeon Instinct MI50. Интересно, что ускорители собраны в группы по четыре штуки, каждая из которых подключена к одному из центральных процессоров. А между собой в группах GPU соединены фирменным интерконнектом AMD InfinityFabric с пропускной способностью 386 Гбайт/с в оба направления.

Компания HPE представила новые серверы ProLiant DL325 Gen10 Plus и DL385 Gen10 Plus на базе процессоров AMD EPYC второго поколения (Rome). Новинки обладают не только более высокой производительностью, но и лучшей пропускной способностью памяти, и поддерживают более ёмкие и скоростные накопители данных. По словам производителя, новые серверы наилучшим образом подходят для таких рабочих нагрузок, как виртуализация, высокопроизводительные вычисления и анализ больших объёмов данных.

Ещё в рамках SC19 компания AtoS продемонстрировала свой вычислительный узел BullSequana XH2000, который уже используется в ряде суперкомпьютеров, а также на данных узлах строится самый производительный в мире суперкомпьютер.

Наконец AMD отметила, что постепенно на рынке появляется всё больше продуктов, использующих скоростной интерфейс PCIe 4.0, который поддерживают её процессоры EPYC Rome. Были отмечены скоростные твердотельные накопители NVMe от Samsung и Kioxia, ускорители вычислений на основе FPGA от Xilinx и сетевые адаптеры Broadcom Thor 200G Ethernet и Mellanox ConnectX-6 HDR 200G InfiniBand.

Постоянный URL: http://servernews.ru/998115
21.11.2019 [13:11], Алексей Степин

SC19: СЖО Chilldyne Cool-Flo для ЦОД исключает протечки

Выгоды от использования жидкостного охлаждения очевидны. Оно открывает путь к более плотному размещению вычислительных узлов, и сама эффективность охлаждения существенно выше. Но существуют у таких систем и серьезные недостатки.

Главной опасностью систем СЖО является возможность протечки теплоносителя. Такой сценарий может вывести из строя весьма дорогостоящее оборудование. Компания Chilldyne утверждает, что данную проблему ей удалось решить, и демонстрирует на SC19 систему охлаждения Cool-Flo с «отрицательным давлением».

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Главный принцип можно сравнить с вентилятором, работающим не на обдув, а на откачку воздуха из корпуса системы. Если в классическом контуре СЖО насосы нагнетают холодную жидкость в водоблоки, то насосы Cool-Flo, напротив, откачивают горячую. Если герметичность контура будет нарушена, то произойдёт не классический «залив» системной платы, а наоборот, вся жидкость будет выкачана, и вслед за ней в систему попадет воздух.

Модуль распределения теплоносителя (CDU) Cool-Flo

В таком сценарии возможен простой, но не повреждение драгоценного оборудования, поскольку контакт с жидкостью практически исключён. К тому же, сама вероятность разгерметизации серьёзно уменьшена из-за «отрицательного давления», снижающего механическую нагрузку на элементы контура. Давление в нем составляет менее 1 атмосферы, что исключает выдавливание жидкости наружу.

Двухпроцессорное лезвие Xeon Scalable с водоблоками Cool-Flo

Из прочих преимуществ системы Cool-Flo можно назвать низкую стоимость развёртывания и совместимость с существующей инфраструктурой воздушного охлаждения. Серьёзные монтажные работы с привлечением сторонних специалистов требуются только для установки CDU (системы распределения теплоносителя) и внешней башни-градирни, а монтаж стоек и серверов может осуществляться техническим персоналом ЦОД.

Комплект водоблоков Cool-Flo для процессоров Intel в исполнении LGA2011-3. Справа ‒ разъём No-Drip

Технически же в качестве водоблоков Cool-Flo может использовать модернизированные радиаторы воздушного охлаждения ЦП либо версии с теплоотводной пластиной; последний вариант идеально подходит для плотного размещения ускорителей на базе GPU и других чипов с высоким уровнем тепловыделения. В первом случае вентиляторы серверов могут работать на пониженной скорости, создавая дополнительный обдув элементов системы.

Графический ускоритель с дополнительной пластиной охлаждения. Ни одной протечки на более чем 6 тысяч плат

На выставке SC19 Chilldyne продемонстрировала как OEM-комплекты для процессоров Xeon, так и варианты для ускорителей AMD Radeon и NVIDIA Tesla. Переделка сервера, по сути, заключается в установке водоблоков и специальной заглушки с фирменным разъёмом No-Drip, напоминающим двухконтактную силовую розетку и допускающим «горячее» подключение или отключение сервера от главного контура системы.

Стойка с ускорителями, оснащённая системой Cool-Flo

Система распределения теплоносителя Cool-Flo CDU300 выполнена в виде стандартного шкафа, имеющего на передней панели экран с сенсорным управлением. Она рассчитана на температуру жидкости в районе 15‒30 градусов и при разнице температур 15 градусов способна отвести 300 киловатт тепла. Производительность водяных насосов составляет 300 литров в минуту при давлении в главном контуре менее 0,5 атмосфер.

Комплект Cool-Flo для Radeon Fury X. Охлаждается не только GPU, но и силовая часть

Предусмотрена полная система мониторинга (включая контроль качества теплоносителя) и удалённого управления, один шкаф может обслуживать до шести контуров охлаждения. Имеется возможность резервирования: резервный модуль CDU находится в активном режиме, но потребляет минимум энергии, а при необходимости мгновенно включается в работу.

Компания-разработчик считает, что при использовании Cool-Flo в ЦОД можно избавиться от так называемых «горячих рядов», снизить затраты на вентиляцию и кондиционирование воздуха практически до нуля и на 75% снизить мощность, потребляемую вентиляторами серверов. Chilldyne оценивает стоимость 1 мегаватта охлаждения в $580 тысяч, в то время как классическая воздушная реализация может обойтись более чем в $1,2 миллиона.

За четыре года эксплуатации ЦОД, оснащённого системой Cool-Flo экономия может составить почти $100 тысяч, и это не считая вышеупомянутых сниженных затрат на оснащение. С учётом пониженного риска повреждения оборудования в результате возможных протечек выигрыш может быть даже более серьёзным.

Постоянный URL: http://servernews.ru/998096
21.11.2019 [12:22], Алексей Степин

SC19: накопители Kingston DC1000M для серверов и СХД

Подразделение Kingston Technology, Kingston Digital, занимающееся разработкой и выпуском продуктов на базе DRAM и флеш-памяти, продемонстрировало на выставке SC19 свои новые решения.

Новинки предназначены специально для рынка высокопроизводительных вычислений (HPC), звездой экспозиции стал новейший накопитель DC1000M, специально созданный для применения в крупномасштабных системах с серьёзной нагрузкой на систему хранения данных, включая сферу HPC и суперкомпьютеров.

Накопители серии DC1000M имеют интерфейс NVMe и выполнены в стандартном на сегодня форм-факторе U.2 (PCI Express). Они оптимизированы для сценариев, требующих полной перезаписи всего накопителя за день или быстрее, то есть, как раз для вышеописанных случаев. Они отлично подойдут для мощных систем ИИ или машинного обучения, поскольку в таких системах нередко генерируются большие объёмы данных.

В основе DC1000M лежит 96-слойная память 3D NAND производства Intel, за её обслуживание отвечает контроллер Silicon Motion SM2270. Это 16-канальный чип корпоративного класса, он поддерживает 8 линий PCIe 3.0 и стандарт NVMe 3.0. Три двухъядерных кластера с архитектурой ARM Cortex-R5 позволяют говорить о производительности на уровне 800 тысяч IOPS.

Новая платформа Kingston на базе DC1000M: 5,65 миллиона IOPS, устоявшаяся скорость чтения 22,6 Гбайт/с

Демонстрационная система Kingston Digital на базе 10 накопителей DC1000M объёмом 7,68 Тбайт продемонстрировала общий уровень производительности свыше 5 миллионов IOPS. Устоявшаяся скорость передачи данных превысила 20 Гбайт/с. Это очень серьёзные показатели, доказывающие пригодность новой платформы к использованию в сфере HPC.

Kingston DC500 изнутри. Видна мощная система резервного питания. Фото AnandTech

Также компания продемонстрировала новые накопители для ЦОД DC500 с интерфейсом SATA ёмкостью до 3,84 Тбайт и предсказуемой производительностью на случайных операциях. Они существуют в двух вариантах: DC500R для сценариев с преобладанием чтения данных и DC500M для смешанных сценариев. Отличаются эти варианты ресурсом ‒ 0,5 и 1,3 полных перезаписи в день, соответственно.

Совместно с Madison Cloud компания показала платформу Private MultiCloud Storage, позволяющую пользоваться всеми преимуществами облачных хранилищ, сохраняя при этом полный контроль над ценными данными. Доступ к ним может осуществляться средствами привычных провайдеров, таких, как AWS, MS Azure или Google Cloud, но физически данные будут храниться на PMCS-сервере формата 2U, оснащённом накопителями Kingston и обеспечивающем производительность на уровне до 1,5 миллиона IOPS. 

Постоянный URL: http://servernews.ru/998082
Система Orphus