Материалы по тегу: hpc

13.01.2020 [21:33], Алексей Степин

2020 год станет годом разнообразия на рынке супервычислений

Довольно долго рынок супервычислений был скучным местом, если рассматривать его с точки зрения разнообразия вычислительных архитектур. Доминирующей стала x86-64, и практически всегда речь шла о процессорах Intel Xeon, «дополненных» в последние годы ускорителями NVIDIA. 

Однако ушедший год показал, что ситуация меняется и разнообразие нарастает: к Intel присоединилась AMD, появились производительные чипы на базе архитектуры ARM, не собирается сдаваться OpenPOWER. В 2020 году эти тенденции по мнению зарубежных аналитиков лишь укрепятся.

Подавляющее большинство систем класса HPC всё ещё использует процессоры Intel Xeon и ускорители NVIDIA, но 2020 год обещает стать настоящим годом перемен. Во-первых, производители суперкомпьютеров проявляют очень живой интерес ко второму поколению AMD EPYC (Rome), как обеспечивающему великолепное соотношение цены и производительности. Именно в этом году войдёт в строй ряд новых машин на базе AMD Rome в разных странах, от Великобритании до Финляндии или Люксембурга. Впервые за достаточно долгий период времени Intel придётся защищаться. Насколько успешной окажется эта защита в лице новых Xeon Cooper Lake (14 нм) и Ice Lake (10 нм), покажет время.

Во-вторых, нарастает давление со стороны архитектуры ARM. Она хотя и не обеспечивает серьёзных технических преимуществ перед x86 или POWER, является лицензируемой, что позволит создавать множество вариантов процессоров под конкретные задачи, но объединены они будут единой программной экосистемой. Жизнеспособность ARM на рынке HPC должен доказать японский проект Fugaku с проектной мощностью 400 Пфлопс, базирующийся на процессорах Fujitsu A64FX.

Также ожидается, что конкуренцию AMD Rome может составить и новый 7-нм процессор Marvell ThunderX3. Аналитики полагают, что поставки процессоров с архитектурой ARM для рынка HPC возрастут с 50 тысяч единиц в прошлом году до 233 тысяч в этом, 2020 году, а к 2024 году превысят 610 тысяч.

В секторе POWER пока остаётся один игрок, это по-прежнему IBM, несмотря на все усилия консорциума OpenPOWER. Хотя компания и готовит к выпуску процессоры POWER10, но, по всей видимости, они увидят свет только в 2021 году. Тем не менее, европейская лаборатория открытых архитектур (LOCA) выбрала OpenPOWER в качестве одной из трёх архитектур для создания высокопроизводительных процессоров. Двумя другими архитектурами, напомним, являются RISC-V и MIPS.

А вот в сегменте вычислительных ускорителей наблюдается настоящий бум разнообразия: здесь и различные китайские разработки вроде Sugon DCU и Matrix-3000, и самые разнообразные ИИ-ускорители, как, например, Intel Nervana, и решения на базе ПЛИС последнего поколения Intel и Xilinx.

Главной ускорительной платформой пока останутся потомки графических процессоров, но NVIDIA может быть потеснена на этом рынке AMD c её ускорителями Radeon Instinct. Характеристики у них весьма серьёзные: старшая модель MI60 развивает 7,4 Тфлопс на 64-битных вычислениях с плавающей запятой, несёт на борту 32 Гбайт быстрой памяти HBM2 и использует систему межсоединений Infinity Fabric со скоростью 200 Гбайт/с. Возможности Infinity Fabric будут протестированы Национальной лабораторией Ок-Риджа в экзафлопной системе Frontier.

А в Аргоннской национальной лаборатории будет запущена другая система экзафлопного класса, Aurora, в которой дебютируют ускорители Intel Xe, которые компания-разработчик позиционирует в качестве ответа NVIDIA V100 и T4. Впрочем, «зелёные» сдаваться не планируют и новая архитектура Ampere, которая также должна дебютировать в этом году, может вновь укрепить позиции NVIDIA.

Суммируя сказанное, можно с уверенностью заявить — 2020 год действительно станет годом разнообразия на рынке HPC. Подействовать это разнообразие должно благотворно: усилившаяся конкуренция приведёт к ускорению разработки новых, ещё более производительных решений, расширится выбор у производителей суперкомпьютеров, а учёные и инженеры получат ещё больше вычислительных мощностей для решения важных задач, стоящих перед человечеством.

Постоянный URL: http://servernews.ru/1001347
12.12.2019 [23:23], Алексей Степин

NVIDIA анонсировала поддержку языка Julia для ARM-серверов

Рынок серверов с процессорами, базирующимися на архитектуре ARM, постепенно расширяется, и на нём появляются новые предложения.

Компания NVIDIA, недавно представившая референсную ARM-платформу, включающую серверы на базе связки ускорителей Tesla V100 и процессоров ThunderX2, объявила о поддержке на ней языка Julia

Julia ‒ открытый высокоуровневый язык программирования, созданный специально для высокопроизводительных вычислений. Он может применяться в самом широком спектре задач, от аналитики до машинного обучения. Именно этот язык был выбран ассоциацией Climate Modeling Alliance в качестве базового для новой климатической модели. Julia разработан одновременно как простой в освоении и производительный; поддержка распределённых вычислений в нём реализована изначально. В частности, на нём создаётся ПО для суперкомпьютеров.

Работать с ускорителями  Julia умеет достаточно давно, ещё в 2017 году NVIDIA анонсировала поддержку CUDA с помощью библиотек CUDAdrv.jl и CUDArt.jl. Теперь поддержка Julia доступна и для упомянутой выше ARM-платформы. Она реализована в форме готового контейнера NVIDIA GPU Cloud (NGC), что позволяет быстро развёртывать Julia-инфраструктуру.

Напоминаем, что базовая платформа NVIDIA ARM имеет два 32-ядерных процессора Marvell ThunderX2 и восемь ускорителей NVIDIA Tesla V100, использующих шину NVLink.

Постоянный URL: http://servernews.ru/999636
29.11.2019 [18:45], Игорь Осколков

SC19: HPC-решения Lenovo ThinkSystem — от Тфлопс до Пфлопс один шаг

Подход Lenovo к HPC-решениям отличается от, так сказать, «классического». В основу положены унификация и масштабируемость. Под первым подразумевается не только снижение числа различающихся шасси и узлов с целью повышения совместимости, но и принципиальное использование исключительно стандартных 19” стоек. В отличие от решений, например, Cray или Atos, которые используют собственные широкие узлы и стойки, серверы Lenovo позволяют обновить парк машин без изменений уже имеющейся инфраструктуры ЦОД. Причём речь не только о питании, охлаждении и сети — даже планировка и лифтовое оснащение дата-центра могут оказаться непригодными для транспортировки и инсталляции нестандартных решений.

Узел Lenovo ThinkSystem SD650

Узел Lenovo ThinkSystem SD650

К тому же у Lenovo имеются версии одних и тех же машин как с прямым водяным Direct Water Cooling (DWC), так и с привычным воздушным охлаждением. Кроме того, несколько лет назад Lenovo ещё больше упростила процесс установки, предоставляя заказчикам готовые, собранные и протестированные решения, которые на месте собираются как конструктор Lego с минимальными усилиями со стороны персонала ЦОД. Унификация ведёт и к лёгкой масштабируемости — компания не делает принципиальных различий между системами в пару петафлопс и в пару сотен петафлопс. Если надо комплекс в половину стойки, поставят его. Если надо два десятка стоек — тоже не проблема.

Собственно говоря, на выставке нам удалось пообщаться с Риком Купманом (Rick Koopman), отвечающим в Lenovo за решения для HPC и гиперскейла в регионе EMEA. Нетрудно догадаться, что в компанию он пришёл из IBM. Он же провёл небольшую экскурсию по стенду и ответил на несколько вопросов о работе и планах компании. Но начнём мы со стенда.

Шасси для ThinkSystem SD650

Шасси для ThinkSystem SD650

Пожалуй, ключевым решением для HPC являются машины серии ThinkSystem SD650 для шасси NeXtScale n1200 высотой 6U, которое позволяет разместить 12 узлов и предоставляет 6 общих блоков питания и 10 кулеров. Каждый узел имеет два процессора Intel Xeon Scalable (Skylake или Cascade Lake), 12 слотов памяти (DDR4 с Intel Optane DCPMM), разъёмы ML2 (Mezzanine LOM) и PCIe x16 для 100Gb-адаптеров EDR InfiniBand или Intel Omni Path, дисковую корзину для 2,5” SSD 2 × 7-мм SATA или 1 × 15-мм NVMe + пары M.2 с аппаратным RAID1, а также два 1GbE-порта для служебных нужд.

Отличительной чертой данного решения является прямое жидкостное охлаждение DWC Lenovo Neptune, а точнее говоря, её строение. Компания отдельно подчёркивает, что, во-первых, абсолютно все компоненты охлаждаются именно жидкостью DWC, а во-вторых, конкретно для CPU, которые в это цепочке стоят первыми, используются отдельные потоки. То есть на входе поток делится пополам и идёт сразу через два узла, и в каждом из них снова разделяется надвое и омывает оба процессора одновременно. Это, с одной стороны, позволяет использовать самые горячие модели CPU (с TDP до 240 Вт), причём поддерживать их работу на турбо-частотах гораздо дольше. С другой стороны, такой подход гарантирует единообразие работы обоих CPU и предсказуемость, что крайне важно в HPC-среде.

Узел Lenovo ThinkSystem SD350

Узел Lenovo ThinkSystem SD350

Таким образом, КПД теплоотвода достигает 90%, что позволяет использовать на входе горячую воду (буквально, до 50 °C) и достигать разницы температур на входе и выходе в 25 °C, что, в свою очередь, даёт возможность использования фрикулинга и сухих градирен, а не чиллеров. А это очевидная экономия на электроэнергии. Lenovo говорит о сокращении энергопотребления на 30-40% при попутном росте производительности в сравнении с обычным воздушным охлаждением. При этом для Lenovo Neptune это не предел — будущие шасси будут иметь уже девять, а не шесть блоков питания. Они тоже получат жидкостное охлаждение как и грядущие ускорители NVIDIA в форм-факторе SXM3 с TDP на уровне 300 Вт, для которых эти БП и понадобятся.

Thermal Transfer Module

Thermal Transfer Module

Впрочем, о гибридных и воздушных системах охлаждения Lenovo тоже не забывает и старается сделать их более эффективными. В частности, машины ThinkSystem SD530 для шасси D2, которые находятся где-то посередине между классическими HPC-системами и просто высокоплотными решениями, ту же задачу по поддержке равных температур у обоих CPU внутри узла решают иным путём. Первый CPU, стоящий на пути воздушного потока, имеет обычный радиатор, а второй, за ним, может оснащаться Т-образным радиатором Thermal Transfer Module с тепловыми трубками, который за счёт такой формы имеет большую площадь оребрения и захватывает более холодный поток, проходящий мимо первого процессора. Это позволяет даже для воздушной СО использовать CPU с TDP до 205 Вт.

Сама же SD530 является привычной модульной 2U-системой для четырёх узлов с общим для всех блоком, содержащем кулеры, два БП, 16 слотов PCIe и сетевые интерфейсы. Узлы могут быть высотой 1U и содержать два процессора Intel Xeon Scalable + 16 слотов памяти + адаптер для пары M.2. Или же 2U — всё то же самое + два полноразмерных PCIe-ускорителя. Стоит ждать и вариантов с ускорителями формата SXM3. Все типы узлов поддерживают установку 2,5” накопителей: 6 × SAS/SATA или 4 × NVMe на каждый узел.

Шасси Lenovo ThinkSystem SR670

Шасси Lenovo ThinkSystem SR670

Для задач, активно использующих ускорители в формате PCIe-карт, у Lenovo есть отдельное 2U-решение — ThinkSystem SR670. Платформа базируется на двух CPU Intel Xeon Scalable, имеет 24 разъёма для модулей памяти, предлагает 8 посадочных мест для 2,5” SATA-накопителей и пару слотов M.2. Отличительная черта конструкции шасси — 3 корзины с разъёмами PCIe. Одна предназначена для установки сетевых адаптеров, она имеет 2 слота x16 и 1 слот x4. Две другие, съёмные, имеют по четыре слота каждая. В каждую из них можно установить либо два полноразмерных ускорителя с шиной x16, либо четыре четыре однослотовых ускорителя с шиной x8.

Корзины ускорителей ThinkSystem SR670

Корзины ускорителей ThinkSystem SR670

Помимо аппаратной части не менее важна и программная. Совместно с суперкомпьютерным центром университета Барселоны Lenovo уже некоторое время занимается проектом EAR — Energy Aware Runtime. EAR позволяет оценить реальную эффективность приложений, выявить зависимость производительности от частоты и, как следствие, энергопотребления кластера, суперкомпьютера или ЦОД в целом. После оценки EAR автоматически управляет работой системы в целом и позволяет добиться не только повышения энергоэффективности, но и предсказуемости времени вычислений. Ведь порой бывает так, что за 1% прироста скорости работы приходится «заплатить» ростом частоты и тепловыделения CPU на десятки процентов, что далеко не всегда оправданно.

Впрочем, все эти решения были представлены в последние год-полтора, а вот из действительно свежих продуктов, которые как раз отвечают современным тенденциям, на SC19 Lenovo показала edge-сервер ThinkSystem SE350 для пограничных или, как их ещё называют, периферийных вычислений. Такие машины ставятся в буквальном смысле на границе сети и (пред-) обрабатывают данные с датчиков интернета вещей, умных устройств, промышленного оборудования, интеллектуальных систем видеонаблюдения и так далее. В общем, в тех случаях, когда потоки данных разумнее препарировать на месте, или когда иного выбора просто нет.

Lenovo ThinkSystem SE350

Lenovo ThinkSystem SE350

К таким системам предъявляются особые требования, которые не всегда легко исполнить одновременно: высокая производительность, компактность, автономность, малое энергопотребление, повышенная надёжность, готовность работать в неблагоприятных условиях. С приходом 5G подобные системы станут крайне востребованными в сочетании с ИИ в больших ЦОД, и ближайшее будущее как раз за ними, считает Рик Купман. В качестве примера подобного удачного решения он привёл опыт компании, занимающейся ветроустановками, которая смогла за счёт объединения прогнозов погоды из внешнего источника и данных с множества датчиков турбин по всему миру резко повысить эффективность и надёжность работы последних, получив возможность интеллектуально управлять ими и заранее предсказывать поломки.

Что касается SE350, то это узкий 1U-сервер на базе Intel Xeon D-2100 — до 16 ядер и до 256 Гбайт RAM. Дисковая подсистема поддерживает установку двух накопителей M.2 2280 и до десяти M.2 22110. Шасси позволяет установить низкопрофильную карту вроде NVIDIA T4 или другой ускоритель на базе FPGA/ASIC/GPU. Сетевых интерфейсов на выбор великое множество: доступны проводные порты 1/10GbE в различных сочетаниях (в том числе с коммутатором), адаптеры Wi-Fi/Bluetooth и модемы 3G/4G, а в будущем и 5G. Питается сервер от внешнего источника DC 48 В. Возможна установка как отдельной машины, так и шкафа на 2-4 узла вкупе с БП. Устройство рассчитано на работу в диапазоне от 0 до 55 °C, есть варианты исполнения с пылевлагозащитой. Кроме того, предусмотрены различные программные и аппаратные системы защиты данных и оборудования.

По словам представителя Lenovo, у нас в стране основными HPC-заказчиками являются ведущие научно-исследовательские и образовательные институты и университеты, крупнейшие государственные и частные компании. Любопытно, что в целом растёт интерес к GPU-решениям. Дело не только в возросшей роли машинного обучения, но и в активном портировании имеющихся приложений с CPU на GPU.

Постоянный URL: http://servernews.ru/998448
21.11.2019 [12:22], Алексей Степин

SC19: накопители Kingston DC1000M для серверов и СХД

Подразделение Kingston Technology, Kingston Digital, занимающееся разработкой и выпуском продуктов на базе DRAM и флеш-памяти, продемонстрировало на выставке SC19 свои новые решения.

Новинки предназначены специально для рынка высокопроизводительных вычислений (HPC), звездой экспозиции стал новейший накопитель DC1000M, специально созданный для применения в крупномасштабных системах с серьёзной нагрузкой на систему хранения данных, включая сферу HPC и суперкомпьютеров.

Накопители серии DC1000M имеют интерфейс NVMe и выполнены в стандартном на сегодня форм-факторе U.2 (PCI Express). Они оптимизированы для сценариев, требующих полной перезаписи всего накопителя за день или быстрее, то есть, как раз для вышеописанных случаев. Они отлично подойдут для мощных систем ИИ или машинного обучения, поскольку в таких системах нередко генерируются большие объёмы данных.

В основе DC1000M лежит 96-слойная память 3D NAND производства Intel, за её обслуживание отвечает контроллер Silicon Motion SM2270. Это 16-канальный чип корпоративного класса, он поддерживает 8 линий PCIe 3.0 и стандарт NVMe 3.0. Три двухъядерных кластера с архитектурой ARM Cortex-R5 позволяют говорить о производительности на уровне 800 тысяч IOPS.

Новая платформа Kingston на базе DC1000M: 5,65 миллиона IOPS, устоявшаяся скорость чтения 22,6 Гбайт/с

Демонстрационная система Kingston Digital на базе 10 накопителей DC1000M объёмом 7,68 Тбайт продемонстрировала общий уровень производительности свыше 5 миллионов IOPS. Устоявшаяся скорость передачи данных превысила 20 Гбайт/с. Это очень серьёзные показатели, доказывающие пригодность новой платформы к использованию в сфере HPC.

Kingston DC500 изнутри. Видна мощная система резервного питания. Фото AnandTech

Также компания продемонстрировала новые накопители для ЦОД DC500 с интерфейсом SATA ёмкостью до 3,84 Тбайт и предсказуемой производительностью на случайных операциях. Они существуют в двух вариантах: DC500R для сценариев с преобладанием чтения данных и DC500M для смешанных сценариев. Отличаются эти варианты ресурсом ‒ 0,5 и 1,3 полных перезаписи в день, соответственно.

Совместно с Madison Cloud компания показала платформу Private MultiCloud Storage, позволяющую пользоваться всеми преимуществами облачных хранилищ, сохраняя при этом полный контроль над ценными данными. Доступ к ним может осуществляться средствами привычных провайдеров, таких, как AWS, MS Azure или Google Cloud, но физически данные будут храниться на PMCS-сервере формата 2U, оснащённом накопителями Kingston и обеспечивающем производительность на уровне до 1,5 миллиона IOPS. 

Постоянный URL: http://servernews.ru/998082
20.11.2019 [10:41], Алексей Степин

SC19: компактный суперкомпьютер ScaleMatrix AI Anywhere можно развернуть где угодно

Не так много времени прошло с тех пор, когда суперкомпьютеры были огромными машинами, занимавшими целый зал, а то и не один. Строились такие монстры годами, ввод в эксплуатацию тоже не всегда был прост и занимал достаточно много времени.

А сегодня система с аналогичными суперкомпьютерам недавнего прошлого возможностями занимает совсем немного места и может быть быстро развёрнута практически где угодно, как утверждает компания ScaleMatrix.

На выставку, сопутствующую конференции SC19, ScaleMatrix привезла компактные модульные платформы с говорящим названием AI Anywhere, способный предложить уровень производительности 8 или 13 петафлопс в весьма скромных габаритах. В основе новой разработки лежат шасси DDC Cabinet Technology серии S с интегрированной гибридной водо-воздушной системой охлаждения.

При габаритах основания всего 61 × 201 сантиметр и высоте 288 сантиметров эти шасси вмещают до 45 стандартных «юнитов» и могут обеспечить устанавливаемую начинку мощностью от 17 до 52 киловатт, в зависимости от комплектации. Если верить анонсу компании-разработчика, для развёртывания AI Anywhere достаточно крыши и подведённого к месту установки трёхфазного питания.

Основой новых систем являются вычислительные серверы NVIDIA DGX-1 (40960 ядер Volta, 1 Пфлопс) или DGX-2 (81920 ядер Volta, 2 Пфлопс), причём в обоих случаях используются ускорители Tesla V100 с быстрой шиной NVLink 2.0. Таких серверов в системе AI Anywhere несколько, за «общение» между ними отвечает коммутатор Mellanox класса 100GbE, а за хранение данных ‒ система NetApp A800, базирующаяся на флеш-памяти.

Дополнительно в системе присутствует сервер Microway TwinPro 2U, отвечающий за вход в систему и берущий на себя функции управления и функционирования инфраструктуры Kubernetes. В комплектацию входит также микроканальный чиллер, способный отвести и рассеять до 52 киловатт тепла.

DDC R-Mobile: 24U, ещё более компактное решение, нежели AI Anywhere

DDC R-Mobile: 24U, ещё более компактное решение, нежели AI Anywhere. Вмещает четыре сервера NVIDIA DGX-1.

Аппаратное обеспечение мертво без ПО и настройки, и ScaleMatrix предоставляет полный спектр услуг, связанных с установкой, наладкой и вводом в эксплуатацию систем AI Anywhere. Система поставляется с менеджером заданий SLURM, комплексом контейнеризации Kubernetes, а также средствами управления Ansible. За визуализацию отвечает Grafana, за мониторинг системы ‒ Prometheus.

DDC R-1000: «кластер в ящике». В данной модели использованы серверы HPE Apollo KL20 на базе Intel Xeon Phi (Knights Landing)

Комплекс услуг также включает в себя трёхлетнее профессиональное сопровождение. ScaleMatrix утверждает, что система AI Anywhere стоит дешевле аналогичных по мощности решений других поставщиков. Стоимость базовой платформы составляет $1,626 миллиона, в эту цену входят шасси, флеш-хранилище, система охлаждения, сетевая инфраструктура и серверы управления. Вычислительное «ядро» стоит от $921 тысячи до $1,84 миллиона, в зависимости от комплектации и количества ускорителей V100 (от 32 до 104). Таким образом, цена самого мощного варианта AI Anywhere не превышает $3,5 миллиона.

В сравнении с суперкомпьютерами прошлых поколений это небольшая цена, особенно с учётом компактности и вычислительных возможностей AI Anywhere. Также на выставке были продемонстрированы и другие компактные вычислительные решения на базе шасси производства DDC Cabinet Technology, которая является подразделением ScaleMatrix.

Постоянный URL: http://servernews.ru/998022
19.11.2019 [17:04], Константин Ходаковский

SC19: Технология NVIDIA Magnum IO ускоряет перемещение данных до 20 раз

В Денвере на международной конференции SC 2019, посвящённой серверам, NVIDIA представила набор программного обеспечения Magnum IO, позволяющий исследователям в области ИИ и HPC обрабатывать большие объёмы данных за считанные минуты вместо нескольких часов.

Magnum IO устраняет узкие места и, по оценкам компании, позволяет до 20 раз ускорить обработку массивов данных в многосерверных вычислительных узлах с использованием GPU в задачах вроде финансового анализа и моделирования климата. В разработке также участвовали лидеры индустрии DataDirect Networks, Excelero, IBM, Mellanox и WekaIO.

«В основе всего того, что связано с ИИ, находится обработка больших объёмов собранных или смоделированных данных. По мере экспоненциального увеличения объёмов и скорости поступления данных их обработка становится одной из самых важных, но и крайне затратных задач для ЦОД. Для экстремальных вычислений нужны экстремально быстрые интерфейсы. Именно это и обеспечивает ПО Magnum IO, применяя GPU-ускорение, кардинально изменившее вычисления, к передаче и хранению данных. Исследователям больше не придется долго ожидать окончания обработки данных. Теперь они смогут сконцентрироваться на сути своей работы», — пояснил учредитель и исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang).

В основе ПО Magnum IO лежит технология GPUDirect, позволяющая данным обходить ГП и перемещаться по магистралям, созданным графическими процессорами, накопителями и сетевыми устройствами. GPUDirect совместима с широким спектром интерфейсов и API, включая NVIDIA NVLink и NCCL, а также OpenMPI и UCX, и состоит из одноранговых (peer-to-peer) и RDMA-элементов. Последним дополнением стал GPUDirect Storage, позволяющий исследователям в обход процессора получать доступ к хранимым файлам для моделирования, анализа и визуализации.

ПО NVIDIA Magnum IO уже доступно, за исключением GPUDirect Storage, к которому пока открыт ранний доступ, а широкое распространение запланировано на первую половину 2020 года.

Постоянный URL: http://servernews.ru/998006
19.11.2019 [17:01], Константин Ходаковский

SC19: NVIDIA создала эталонную платформу для серверов ARM с её ускорителями

Ранее в этом году NVIDIA объявила о намерении более активно поддерживать процессоры ARM и сделать свой полный набор программного обеспечения ИИ и HPC доступным для платформ на базе чипов ARM. Это весьма значимый шаг, потому что на сегодняшний день редко какой суперкомпьютер в первой десятке обходится без графических ускорителей NVIDIA.

А теперь во время открытия SC19 в американском Денвере исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang) представил базовую платформу, позволяющую заинтересованным компаниям быстро и легко создавать серверы на базе графических ускорителей NVIDIA и процессоров. Эталонная платформа, которая состоит из аппаратных и программных базовых блоков, предназначена для обеспечения более высокопроизводительных вычислений в быстро растущем диапазоне научных и исследовательских направлений.

Кроме того, NVIDIA и ARM показали первые примеры реального эффективного применения систем, построенных на связке чипов обеих компаний. Комбинация ускоренных вычислений NVIDIA CUDA и энергоэффективной архитектуры процессоров ARM в теории предоставит сообществу высокопроизводительных вычислений дополнительный выбор в масштабных задачах.

«Мы усердно работаем над внедрением технологии ARM во всей области HPC, решая некоторые из самых сложных в мире исследовательских задач. Мы очень рады достигнутому в этом году прогрессу в совместном использовании объединённой экосистемы ARM и NVIDIA. Но это только начало», — написала ARM в своём пресс-релизе.

Постоянный URL: http://servernews.ru/997996
12.11.2019 [18:16], Алексей Степин

Основана европейская лаборатория открытых компьютерных архитектур

11 ноября состоялось знаковое событие в сфере открытых архитектур: Барселонский суперкомпьютерный центр объявил об основании лаборатории LOCA. Название расшифровывается как Laboratory for Open Computer Architecture, Лаборатория открытых компьютерных архитектур.

Целью новой организации является разработка европейских высокопроизводительных и энергоэффективных вычислительных решений на базе открытых архитектур — таких как RISC-V, OpenPOWER и MIPS — для последующего их использования в будущих суперкомпьютерах экзафлопсного класса.

Базироваться новая организация будет в Барселоне. К сотрудничеству приглашаются фонды, организации и компании, разделяющие идеи и ценности, заложенные в LOCA — продвижение и развитие открытых архитектур, а также создание на их основе полноценной европейской HPC-инфраструктуры.

Готовность к участию в работе LOCA уже выразили главы фондов RISC-V и OpenPOWER, а также Университет Беркли и отдел HPC и когнитивных систем (HPC and Cognitive Systems) корпорации IBM.

Надо отметить, что инициатива высказана не на пустом месте: ранее в проекте Mont-Blanc уже были продемонстрированы кластеры на базе архитектуры ARM, в настоящее время ведётся разработка европейского высокопроизводительного процессора в рамках проекта EPI.

Суперкомпьютер MareNostrum, Барселонский суперкомпьютерный центр

Суперкомпьютер MareNostrum, Барселонский суперкомпьютерный центр

Глава Барселонского центра, профессор Матео Валеро (Mateo Valero), заявил, что более подробно цели и задачи LOCA будут раскрыты 20 ноября, на конференции Supercomputing Conference 19 (SC19). Возглавит новую лабораторию доктор Джон Д. Дэвис (John D.Davis) из Стэнфордского университета

Барселонский суперкомпьютерный центр известен одним из самых мощных европейских суперкомпьютеров MareNostrum, который смонтирован в крайне необычном месте ‒ в здании ранее заброшенной часовни Торре Жирона. В текущей, четвёртой версии он базируется на процессорах Xeon Scalable вкупе с OmniPath, но в будущем систему планируется дополнить кластерами на основе архитектур POWER9 и ARMv8.

Постоянный URL: http://servernews.ru/997502
31.10.2019 [23:46], Алексей Степин

Selectel HyperServer: 1024 ядра и 64 Тбайт RAM в одной супер-ВМ

Облачный провайдер Selectel объявила о запуске платформы Selectel HyperServer для «вычислений в памяти» (in-memory).

Как считает руководство компании, HyperServer является альтернативой дорогим и сложным суперкомпьютерам и кластерным системам. В этом есть резон, поскольку настоящий суперкомпьютер требует затрат не только на постройку, но и на поддержание в рабочем состоянии. Сервисная модель, предлагаемая Selectel, позволит сократить расходы на супервычисления.

В основе нового сервиса лежит технология TidalScale, позволяющая объединить от двух до нескольких десятков классических серверов в единый виртуальный сервер. Комплекс серверов работает под управлением гипервизора, в реальном времени распределяющего нагрузку между физическими узлами. TidalScale является конкурентом для ScaleMP vSMP Foundation.

Пока максимальная конфигурация HyperServer может включать в себя 1024 ядра и 64 Тбайт оперативной памяти; возможно, в будущем эти цифры будут увеличены. Оплата новой услуги будет взыматься в соответствии с потреблением вычислительных мощностей. Стоимость владения таким виртуальным «суперкомпьютером» существенно ниже, нежели в случае постройки настоящего кластера сравнимой производительности.

Система HyperServer инсталлируется в течение недели, корректировка технических параметров под задачу клиента требует лишь нескольких дней. Такой подход позволяет использовать супервычисления как для регулярных задач, так и для коротких проектов, ради которых заводить настоящий кластер было бы весьма накладно.

Диапазон решаемых с помощью HyperServer задач достаточно широк: тут и базы данных SAP HANA или Oracle, и создание тестового окружения для ERP-систем, и многое другое. Более подробная информация о новой услуге есть на веб-сайте компании.

Постоянный URL: http://servernews.ru/996662
15.10.2019 [21:45], Алексей Степин

Суперкомпьютер Cray Archer2: 748544 ядра AMD EPYC Rome и 1,57 Пбайт RAM

Организация UK Research and Innovation объявила, что заключает контракт на постройку нового национального суперкомпьютера Archer2 с компанией Cray. Сообщается, что новый суперкомпьютер будет быстрее своего предшественника более чем в 11 раз.

Первый Archer базируется на дизайне Cray XC30 MPP и использует узлы с 12-ядерными процессорами Intel Xeon E5-2697 v2 (Ivy Bridge), а вот новая модель будет построена на базе новейших чипов AMD EPYC второго поколения (Rome).

При этом базовой была выбрана 64-ядерная модель с частотой 2,2 ГГц. По всей видимости, это EPYC 7742. Возможно, базовая частота процессоров будет несколько занижена с целью снижения общего уровня тепловыделения.

Лезвие (4 узла) первого поколения Archer

Лезвие (4 узла) первого поколения Archer

Archer первого поколения располагает на данный момент 118080 процессорными ядрами, а в Archer2 этот показатель достигнет 748544 ядер. Неудивительно, что предварительная оценка производительности новой машины выглядит столь оптимистично ‒ речь идёт о цифре в районе 28 петафлопс, а отдельные задачи будут исполняться быстрее в 8,7–18 раз.

Ожидается, что Archer2 станет одним из быстрейших суперкомпьютеров, базирующихся на классических процессорах общего назначения. Машина будет введена в строй 6 мая 2020 года, но в течение 30 дней после запуска она будет работать в режиме стресс-тестирования. Поскольку монтаж планируется провести в том же помещении, где сейчас работает Archer, старый суперкомпьютер UKRI прекратит свою работу 18 февраля и будет демонтирован.

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Прочие характеристики Archer2 также впечатляют. Каждый из 5848 узлов новой системы будет нести по два 64-ядерных процессора EPYC, а общий объем оперативной памяти достигнет 1,57 петабайта.

Объём файлового хранилища Lustre составит 14,5 петабайт, при этом только для буферизации будет использовано 1,1 петабайта. «Кровеносной системой» Archer2 станет сеть Cray Slingshot нового поколения со скоростью 100 Гбит/с и топологией типа dragonfly.

Разместится новый суперкомпьютер в 23 шкафах Cray Shasta Mountain с системой «прямого» жидкостного охлаждения. В качестве базового программного обеспечения будет использован набор фирменного ПО Cray, оптимизированного с учётом особенностей архитектуры AMD Rome. В основе этого набора лежит специальная версия SUSE Linux Enterprise Server с сопутствующими библиотеками и компиляторами.

Постоянный URL: http://servernews.ru/995668
Система Orphus