Материалы по тегу: суперкомпьютер

15.10.2019 [21:45], Алексей Степин

Суперкомпьютер Cray Archer2: 748544 ядра AMD EPYC Rome и 1,57 Пбайт RAM

Организация UK Research and Innovation объявила, что заключает контракт на постройку нового национального суперкомпьютера Archer2 с компанией Cray. Сообщается, что новый суперкомпьютер будет быстрее своего предшественника более чем в 11 раз.

Первый Archer базируется на дизайне Cray XC30 MPP и использует узлы с 12-ядерными процессорами Intel Xeon E5-2697 v2 (Ivy Bridge), а вот новая модель будет построена на базе новейших чипов AMD EPYC второго поколения (Rome).

При этом базовой была выбрана 64-ядерная модель с частотой 2,2 ГГц. По всей видимости, это EPYC 7742. Возможно, базовая частота процессоров будет несколько занижена с целью снижения общего уровня тепловыделения.

Лезвие (4 узла) первого поколения Archer

Лезвие (4 узла) первого поколения Archer

Archer первого поколения располагает на данный момент 118080 процессорными ядрами, а в Archer2 этот показатель достигнет 748544 ядер. Неудивительно, что предварительная оценка производительности новой машины выглядит столь оптимистично ‒ речь идёт о цифре в районе 28 петафлопс, а отдельные задачи будут исполняться быстрее в 8,7–18 раз.

Ожидается, что Archer2 станет одним из быстрейших суперкомпьютеров, базирующихся на классических процессорах общего назначения. Машина будет введена в строй 6 мая 2020 года, но в течение 30 дней после запуска она будет работать в режиме стресс-тестирования. Поскольку монтаж планируется провести в том же помещении, где сейчас работает Archer, старый суперкомпьютер UKRI прекратит свою работу 18 февраля и будет демонтирован.

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Фрагмент узла Cray Shasta с системой прямого жидкостного охлаждения

Прочие характеристики Archer2 также впечатляют. Каждый из 5848 узлов новой системы будет нести по два 64-ядерных процессора EPYC, а общий объем оперативной памяти достигнет 1,57 петабайта.

Объём файлового хранилища Lustre составит 14,5 петабайт, при этом только для буферизации будет использовано 1,1 петабайта. «Кровеносной системой» Archer2 станет сеть Cray Slingshot нового поколения со скоростью 100 Гбит/с и топологией типа dragonfly.

Разместится новый суперкомпьютер в 23 шкафах Cray Shasta Mountain с системой «прямого» жидкостного охлаждения. В качестве базового программного обеспечения будет использован набор фирменного ПО Cray, оптимизированного с учётом особенностей архитектуры AMD Rome. В основе этого набора лежит специальная версия SUSE Linux Enterprise Server с сопутствующими библиотеками и компиляторами.

Постоянный URL: http://servernews.ru/995668
12.10.2019 [15:50], Геннадий Детинич

Европейский взгляд на чиплеты: ExaNoDe ― от прототипа до экзафлопса

Чиплетами интересуются не только Intel, AMD, оборонка США и проектировщики открытых компьютерных архитектур. Европейские суперкомпьютеры класса экзафлопс и выше также будут реализовываться в рамках вертикального и горизонтального уплотнения чипов.

В частности, европейский проект ExaNoDe по созданию базового интегрированного узла будущих экзафлопсных суперкомпьютеров достиг стадии прототипа, о чём сообщает сайт HPCwire.

На основе технологии французского центра CEA-Leti по созданию 3D-чипов выпущено сложнейшее по конструкции опытное решение. На общей подожке объединены кристаллы FPGA и активная мост-подложка (интерпозер) с чиплетами. Иначе говоря, однокорпусной решение представляет собой модульную структуру с интегрированным 3D-чипом.

Чиплеты на интерпозере могут быть произвольными, для решения конкретных или общих задач. Матрицы FPGA (ПЛИС) в составе узла будут гибко подстраиваться под рабочие нагрузки, экономя время и деньги как на разработку, так и на вычисления.

В основе вычислительных ядер узлов ExaNoDe планируется использовать хорошо известные огромной армии разработчиков 64-разрядные ядра ARM. При этом, напомним, Европа также активно движется в сторону решений на архитектурах RISC-V.

Другой особенностью ExaNoDe является специально созданная для проекта система памяти UNIMEM с глобальным адресным пространством. Это пространство будет разделено между всеми вычислительными элементами и ускорителями ExaNoDe, а обслуживаться UNIMEM будет через собственный API.

Гибкость, высокая эффективность, меньшие размеры чипа (платформы), относительная дешевизна решений и снижение затрат на разработку проектов ― эти и другие ключевые преимущества проекта ExaNoDe обещают помочь европейским институтам успеть войти в экзафлопсное будущее не самыми последними. Когда? Очевидно, на это потребуется от трёх до пяти лет.

Постоянный URL: http://servernews.ru/995519
10.10.2019 [12:48], Сергей Карасёв

Гарвардский университет берёт на вооружение HPC-серверы Lenovo с жидкостным охлаждением

Гарвардский университет (США) вводит в строй новый суперкомпьютерный комплекс под названием Cannon (в честь американского астронома Энни Джамп Кэннон).

Комплекс использует серверы Lenovo SD650 NeXtScale, которые предназначены  для высокопроизводительных вычислений. Особенность этих устройств — система охлаждения тёплой водой (с температурой до  +50° C). Эта система используется для отвода тепла от центральных процессоров, оперативной памяти, подсистемы ввода-вывода, локального хранилища данных и регуляторов напряжения.

Корпус серверов, оборудованный патентованными и полностью герметичными быстросъёмными соединениями из нержавеющей стали, умещается в стандартную стойку, поэтому SD650 отличается удобством обслуживания и высочайшей плотностью размещения.

Кластер Cannon использует 670 серверов SD650 NeXtScale, оснащённых процессорами Intel Xeon Platinum 8268 Cascade Lake с 24 вычислительными ядрами. Объём оперативной памяти составляет 192 Гбайт в расчёте на узел.

Жидкостное охлаждение позволяет чипам Xeon функционировать на более высокой частоте — 3,4 ГГц против базового значения в 2,9 ГГц. В результате, пиковая производительность комплекса Cannon достигает практически 3,5 петафлопса.

Кроме того, в составе вычислительной платформы задействованы 16 серверов Lenovo SR670, каждый из которых наделён четырьмя ускорителями NVIDIA Tesla V100.

Кластер Cannon будет использоваться для моделирования различных процессов, решения сложных научных задач и пр. 

Постоянный URL: http://servernews.ru/995396
01.10.2019 [15:20], Сергей Тверье

Проект DARPA FastNIC нацелен на 100-кратное ускорение сетевых интерфейсов

Медленное интернет-подключение может вывести из себя любого, но только представьте, что «испытывают» суперкомпьютеры, для которых в настоящее время даже самое современное сетевое оборудование не может обеспечить необходимый поток данных. 

Десятки тысяч процессоров и ядер выполняют практически мгновенную обработку любой информации, но, в итоге, высокопроизводительные системы вынуждены простаивать, ожидая обмена данными по морально устаревшим сетевым интерфейсам.

Управление перспективных исследовательских проектов Министерства обороны США (DARPA), кажется, эта ситуация больше не устраивает, поэтому оно запускает программу под названием FastNICs нацеленную на создание нового стека сетевых технологий, который будет в 100 раз быстрее старого.

DARPA уверена, что существующий сетевой стек технологий устарел и представляет собой узкое место для современных высокоскоростных вычислений, поэтому агентство запускает специальную программу, которая должна решить данную проблему

DARPA уверена, что существующий сетевой стек технологий устарел и представляет собой узкое место для современных высокоскоростных вычислений, поэтому агентство запускает специальную программу, которая должна решить данную проблему

По оценке DARPA, современные многопроцессорные сервера, сервера с GPU и аналогичные вычислительные узлы совместными усилиями могут работать с потоком данных примерно 1014 бит в секунду (100 Тбит/с). Примерно такую же агрегированную пропускную способность могут обеспечить современные высокоплотные коммутаторы верхнего уровня. Но при этом связующий их сетевой стек, как правило, в 100-1000 раз медленнее. 

«Истинным узким местом для пропускной способности процессора является сетевой интерфейс, используемый для подключения машины к внешней сети, такой как Ethernet, что серьезно ограничивает возможности загрузки данных», — объясняет др. Джонатан Смит (Dr Jonathan Smith), менеджер программ в Информационном инновационном офисе DARPA.

Для решения данной проблемы агентство запускает программу Fast Network Interface Cards (FastNIC). Задачей программы будет повысить производительность сетевого стека в 100 раз за счёт принципиально иных подходов. Причём для получения такого значительного прироста производительности потребуется переделка всего стека — от уровня прикладных и системных приложений до аппаратного обеспечения.

«Создание сетевого стека сопряжено с большими затратами и сложностями», — указывает Смит. «Начинается оно с аппаратного обеспечения: если вы не сможете сделать его правильно, то вы застрянете. Программное обеспечение просто не может выполнять задачи быстрее, чем позволяет физический уровень, поэтому сначала нам нужно изменить именно его».

Одновременно исследователи займутся разработкой системного программного обеспечения, необходимого для управления аппаратными ресурсами FastNIC. Для достижения 100-кратного увеличения пропускной способности на уровне приложений программное обеспечение должно будет поддерживать максимально эффективную параллельную передачу данных между сетевым оборудованием и другими элементами системы.

Агентство указывает на то, что все разработанные в рамках программы инструменты и библиотеки будут предоставлены сообществу в виде открытого исходного кода, а также будут совместимы минимум с одной из открытых операционных систем.

Прежде всего DARPA заинтересована в новых технологиях для ускорения задач машинного обучения, в том числе распознавания образов при работе со множеством датчиков, например, установленных на беспилотных летательных аппаратах.

К участию в программе приглашаются все заинтересованные организации, которые имеют теоретические наработки по созданию сетей работающих на 10-терабитных скоростях, чтобы продемонстрировать эффективность своего решения на примере одного из выбранных агентством прикладных приложений.

Временные ограничения на данный момент не установлены, но, как и обычно, DARPA гарантирует финансовую поддержку и вознаграждения всем участникам проекта. Подробнее о программе на английском языке вы можете прочитать здесь. Напомним, что ранее DARPA анонсировала проект PAPPA, нацеленный на создание нового стека технологий для высокопараллельного ПО с целью ускорения выполнения ряда задач в 10 000 раз.

Постоянный URL: http://servernews.ru/994914
28.09.2019 [23:17], Владимир Мироненко

Сотрудника ядерного центра в Сарове оштрафовали за попытку майнинга биткоинов на суперкомпьютере

Сотрудника Российского федерального ядерного центра (РФЯЦ-ВНИИЭФ), расположенного в закрытом городе Сарове Нижегородской области, оштрафовали за попытку намайнить биткоины на рабочем месте, сообщило РИА Новости со ссылкой на пресс-службу суда.

В феврале этого года в СМИ появились сообщения о задержании троих сотрудников ядерного центра в связи с попыткой «несанкционированного использования служебных вычислительных мощностей» для майнинга криптовалюты. Учёные пытались использовать в своих целях имеющийся в институте суперкомпьютер производительностью 1 петафлопс.

«В Саровский городской суд переданы два уголовных дела в отношении сотрудников ядерного центра Рыбкина и Шатохина. Дата рассмотрения дел пока не назначена. В отношении ещё одного сотрудника, Байкова, дело уже рассмотрено, ему назначен штраф 450 тысяч рублей. Приговор пока не вступил в законную силу», — рассказали в суде репортёру РИА Новости.

Говорится, что подсудимым вменяются три статьи уголовного кодекса: о неправомерном доступе к компьютерной информации, использовании компьютерных вирусов, а также нарушении правил хранения компьютерной информации.

Постоянный URL: http://servernews.ru/994806
27.09.2019 [17:49], Сергей Карасёв

«Зелёный» ИИ-суперкомпьютер TX-GAIA: до 100 Пфлопс смешанной точности

Вычислительный комплекс TX-GAIA (Green AI Accelerator) стал самым мощным университетским суперкомпьютером, предназначенным для решения задач в области искусственного интеллекта (ИИ). Пиковая производительность в LINPACK достигает 4,7 Пфлопс, а в вычислениях смешанной точности — 100 Пфлопс. 

Комплекс построен компанией Hewlett Packard Enterprise (HPE). Он расположен в Суперкомпьютерном центре Линкольнской лаборатории Массачусетского технологического института (MIT’s Lincoln Laboratory’s Supercomputing Center).

Вычислительная система объединяет 448 узлов HPE Apollo 2000. Задействованы 896 процессоров Intel Xeon Scalable Gold 6248 (20 ядер / 40 потоков) и 896 акселераторов NVIDIA Tesla V100, которые предназначены для ускорения вычислений в области машинного обучения и ИИ. Объём памяти достигает 172 Тбайт. Задействован интерконнект Intel Omni-Path. 

Суперкомпьютер установлен в комплексе EcoPOD, получающем энергию от ГЭС. 

Система будет решать задачи в области нейронных сетей и машинного обучения. Это могут быть аналитика медицинских данных, синтез материалов, прогнозирование погоды и пр. 

Постоянный URL: http://servernews.ru/994753
27.09.2019 [16:28], Сергей Карасёв

ARM поможет в создании новой процессорной архитектуры для высокопроизводительных вычислений

Лос-Аламосская национальная лаборатория Министерства энергетики США и компания ARM объединяют усилия с целью разработки новой процессорной архитектуры.

Речь идёт о создании эффективной платформы для сферы высокопроизводительных вычислений. Ожидается, что совместными усилиями партнёры решат задачу по объединению всё большего количества процессоров, которыми будут оперировать новейшие суперкомпьютеры.

Отмечается, что высокопроизводительные вычислительные системы играют ключевую роль в работе Лос-Аламосской национальной лаборатории. Они помогают решать сложнейшие задачи, такие как понимание комплексных физических процессов.

Создание эффективной процессорной архитектуры в партнёрстве с ARM приведёт к появлению вычислительных платформ следующего поколения с огромной производительностью.

В технические детали относительно новой инициативы партнёры, к сожалению, пока не вдаются. По всей видимости, реализация проекта растянется на несколько лет. 

Постоянный URL: http://servernews.ru/994755
26.09.2019 [18:18], Сергей Юртайкин

Cray официально присоединилась к HPE

Hewlett Packard Enterprise (HPE) объявила о закрытии сделки по приобретению производителя суперкомпьютеров Cray за $1,4 млрд или $35 в пересчёте на одну акцию проданной компании.

В HPE говорят, что эта покупка усилит портфель оборудования и программного обеспечения для высокопроизводительных вычислений (HPC), а также ускорит рост бизнеса в области искусственного интеллекта. Ранее, в 2016 году HPE купила другого известного HPC-игрока, легендарную SGI

По прогнозам HPE, объём мирового рынка HPC с учётом систем хранения данных и сервисов, имеющих отношение к такого рода вычислениям, вырастет до $35 млрд в 2021 году с $28 млрд в 2018-м.

Из пресс-релиза также следует, что слияние HPE и Cray обеспечит увеличение инфраструктуры исследований и разработок, а также экспертизы, которые необходимы для ускоренного создания новых продуктов и решений.

Ещё одним преимуществом сделки её участники называют расширение возможностей поддержки клиентов, особенно среди пользователей суперкомпьютеров.

«Объединяя Cray и HPE, мы создаем наиболее полный комплексный портфель продуктов в области вычислений, хранения данных, программного обеспечения и услуг в быстрорастущих сегментах рынка высокопроизводительных вычислений и искусственного интеллекта», — заявил президент подразделения HPE Hybrid IT Фил Дэвис (Phil Davis).

Постоянный URL: http://servernews.ru/994706
23.09.2019 [13:20], Андрей Крупин

Обновлён рейтинг 50 самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённой редакции списка TOP 50 самых мощных компьютеров СНГ.

Объявление новой редакции списка состоялось на проходящей в Москве международной конференции Russian Supercomputing Days, посвящённой развитию и применению суперкомпьютерных технологий в различных областях науки и техники.

Лидером списка уже десятый раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс.

На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Количество гибридных суперкомпьютеров, использующих для вычислений графические процессоры, составило 28. Число вычислительных комплексов на базе InfiniBand достигло 35.

С полной версией рейтинга 50 самых мощных суперкомпьютеров СНГ можно ознакомиться на сайте top50.supercomputers.ru.

Постоянный URL: http://servernews.ru/994488
19.09.2019 [21:46], Андрей Созинов

Atos BullSequana XH2000 на процессорах EPYC 7H12 установила ряд мировых рекордов

Новая версия суперкомпьютерного узла BullSequana XH2000 компании Atos, построенная на новейших 64-ядерных процессорах AMD EPYC 7H12, смогла установить сразу несколько абсолютных мировых рекордов производительности.

Новинка была протестирована самой Atos в пакете бенчмарков SPECrate 2017, который как раз и предназначен для оценки производительности мощных вычислительных систем. По результатам тестов, новинка претендует на звание рекордсмена среди всех двухпроцессорных систем в четырёх бенчмарках пакета:

На данный момент представленные Atos результаты тестов проходят проверку комитетом SPEC.

Кроме того, Atos заявляет, что система BullSequana XH2000 на базе EPYC 7H12 установила рекорд в бенчмарке HPL Linpack для систем на процессорах AMD. Новинка показала результат в 4,296 Тфлопс, что на 11 % больше результата системы с процессорами AMD EPYC 7742.

Atos оставляет системы AMD для ряда европейских суперкомпьютеров

Atos оставляет системы AMD для ряда европейских суперкомпьютеров

Прирост производительности обусловлен тем, что средняя рабочая частота процессора EPYC 7H12 выше по сравнению с моделью EPYC 7742. А чтобы справиться с тепловыделением, увеличившимся вместе с частотой, компания Atos использует в BullSequana XH2000 систему жидкостного охлаждения.

Постоянный URL: http://servernews.ru/994340
Система Orphus