Материалы по тегу: вычисления

05.09.2017 [12:29], Алексей Степин

IEEE определила единую терминологию в области квантовых вычислений

Сегодня весь мир ИТ увлечён идеей нейросетей и глубинного машинного обучения. Не столь давно огромные надежды возлагались на квантовые вычисления, однако, как оказалось, к созданию настоящих квантовых процессоров подступиться очень сложно. У D-Wave ещё в 2014 году якобы получилось создать 2048-кубитный чип, однако, настоящая когерентность в нём была достигнута только в пределах 8-кубитных блоков, из которых чип состоял. 2017 год в этом отношении стал успешнее: исследователи из России и США смогли создать «честный» 51-кубитовый квантовый процессор.

Разработка D-Wave. Когерентность лишь в пределах небольших кластеров

Разработка D-Wave. Когерентность лишь в пределах небольших кластеров

Но этой области явно не хватает единых стандартов и общепринятой терминологии. Над решением этой проблемы хорошо поработал крупнейший в мире комитет по стандартизации технологий IEEE Standards Association, опубликовавший новый стандарт IEEE P7130, в котором описано всё, что связано с областью квантовых вычислений. В частности, даны точные и однозначные определения таким терминам, как «квантовое туннелирование», «суперпозиция», «квантовое запутывание» и многим другим. Разработчикам в этой сфере теперь будет гораздо легче договориться между собой.

Полноценный 51-кубитовый процессор. Хорошо видно, что квантовые эффекты любят тишину и холод

Полноценный 51-кубитовый процессор. Хорошо видно, что квантовые эффекты любят тишину и холод

Уильям Харли (William Hurley), глава отдела IEEE, ответственного за разработку стандартов квантовых вычислений, считает, что настоящий успех в этой сфере ещё впереди, а в настоящий момент индустрия страдает от фрагментации и взаимного непонимания даже в области терминологии, не говоря уж о более серьёзных вещах. Выпуск «чистовой» версии стандарта IEEE P7130 должен помочь преодолеть этот барьер непонимания и помочь разработчикам квантовых решений кооперироваться более эффективно. Ознакомиться с новым стандартом можно в соответствующем разделе веб-сайта IEEE.

Постоянный URL: http://servernews.ru/958046
01.09.2017 [22:39], Алексей Степин

В обучении нейросетей достигнута производительность 15 петафлопс

Разработчики нейросетей и систем машинного обучения продолжают работы по усовершенствованию и ускорению соответствующих задач. Смешанная группа инженеров и учёных из Национальной лаборатории имени Лоуренса в Беркли, Стэнфордского университета и корпорации Intel впервые преодолела барьер 10 петафлопс при выполнении двух различных программ глубинного машинного обучения. Одна из них смогла показать рекордный результат — 15 петафлопс. Исследование проводилось с использованием суперкомпьютера Cori, установленного в министерстве энергетики США. Результаты эксперимента были опубликованы 17 августа и ознакомиться с ними можно по этой ссылке. В процессе вычислений использовалась математика одинарной точности — режима FP32 обычно достаточно с точки зрения достигаемой точности вычислений при обучении нейронных сетей. Иногда используются даже менее точные вычисления, такие, как FP16 или даже INT8.

Машинный зал Cori

Машинный зал Cori

В системе Cori, которая представляет собой Cray XC40, проблем с такой математикой нет: она состоит из 9688 процессоров Intel Xeon Phi 7250 серии Knights Landing. Пиковая производительность комплекса в режиме одинарной точности достигает 59 петафлопс, но из-за активного использования векторных инструкций (AVX), применяемых в матричной математике, тактовые частоты процессоров снизились с 1,4 до 1,2 ГГц, что понизило пиковую производительность до 50,6 петафлопс. Для тестовой задачи были использованы метеорологические данные общим объемом 15 Тбайт, полученные с помощью климатического симулятора. Именно при обработке этих моделей была достигнута пиковая производительность 15,07 петафлопс при устоявшейся 13,27 петафлопс. Задействовалось 9622 ядер Cori из 9688 физически имеющихся в системе. Показатели масштабируемости тоже впечатляют: 7205-кратное увеличение скорости вычислений было получено при переходе от 1 процессорного ядра к 9622. Второй тестовой задачей был обсчёт набора данных из области физики высоких энергий. Здесь скорости составили 11,73 и 11,41 петафлопс, соответственно, а масштабируемость достигла показателя 6173.

Некоторые полученные данные о масштабируемости задач

Некоторые полученные данные о масштабируемости задач

К сожалению, в тестовых задачах каждый из Xeon Phi смог выдать около 2 терафлопс из 6 возможных, но это практически предел для реальных приложений — как традиционных задач класса HPC, так и задач машинного обучения. Что касается точности, то итоговые показатели оказались неплохими: в задаче из области физики высоких энергий точность корректного распознавания сигналов составила 72 %, что существенно выше, нежели при применении традиционного анализа, при котором достигается точность порядка 42 %. К сожалению, численная оценка точности климатической задачи не производилась, но исследователи утверждают, что нейронная сеть отлично справилась с поиском, локализацией и идентификацией тропических циклонов, что было её главной целью. Исследователи намерены продолжать работы: планируется как оптимизация имеющихся алгоритмов машинного обучения, так и внедрение новых. В планах есть и применение систем с более низкой точностью обработки данных, поскольку это может позволить добиться ускорения процесса обучения нейросетей.

Постоянный URL: http://servernews.ru/957957
01.09.2017 [15:00], Сергей Карасёв

Новый российский суперкомпьютер предназначен для обучения нейросетей

В Лаборатории нейронных систем и глубокого обучения Московского физико-технического института (МФТИ) появился уникальный суперкомпьютер, о чём сообщает сетевое издание «РИА Новости».

Комплекс спроектирован специально для обучения искусственных нейронных сетей. Это, как утверждается, первая в мире система высокопроизводительных вычислений подобного рода.

Суперкомпьютер использует вычислительные узлы NVIDIA DGX-1. В их основе — профессиональные ускорители Tesla P100, взаимодействующие посредством интерфейса NVIDIA NVLink. Модули DGX-1 выбраны в качестве основы для нового суперкомпьютера по той причине, что они способны обрабатывать и анализировать информацию в 100 раз быстрее по сравнению с традиционными вычислительными системами.

«Вычислительная мощность принципиально важна для глубокого обучения. Чем более мощное железо есть в нашем распоряжении, тем с более сложными нейросетевыми архитектурами мы сможем работать. Сложность модели зачастую позволяет совершить революционный скачок в решении практических задач», — говорят в МФТИ.

Ресурсы вычислительного комплекса будут задействованы прежде всего в рамках проекта по созданию разговорного искусственного интеллекта iPavlov, который лаборатория реализует совместно со Сбербанком. Ожидается, что такая система сможет вести содержательный диалог с человеком и достигать цели, поставленной в процессе общения, не только отвечая на вопросы, но и запрашивая недостающую информацию. Для этого специально созданный алгоритм будет обучаться на больших массивах документов и текстовых записей диалогов между людьми. 

Постоянный URL: http://servernews.ru/957932
01.09.2017 [06:52], Алексей Степин

Новый японский суперкомпьютер Tsubame 3 в деталях

За звание обладателя быстрейшего в мире суперкомпьютера активно борются два азиатских тигра — КНР и Япония. Обе страны обладают огромным потенциалом в области разработки микроэлектроники. Пока лидируют китайцы: в списке Top 500 первые два места занимают системы Sunway TaihuLight и Tianhe-2; первая, к тому же, славится своей экономичностью, потребляя всего 15,3 мегаватта при производительности в районе 93 петафлопс. Но это не значит, что Страна восходящего солнца собирается сдаваться. В 2011 году и ранее первое место в списке машин с наилучшим соотношением производительности и уровня энергопотребления занимал японский кластер Tsubame 2. Его наследник, Tsubame 3, готов побороться в высшей лиге, в этом уверен профессор Токийского технологического института Сатоши Мацуока (Satoshi Matsuoka), один из разработчиков вычислительного комплекса.

Сатоши Мацуока демонстрирует один из узлов Tsubame 3

Сатоши Мацуока демонстрирует один из узлов Tsubame 3. Виден унифицированный контур СЖО

За его плечами двадцатилетний опыт проектирования и строительства кластерных систем различных масштабов, мощностей и назначения. Первый же спроектированный им суперкомпьютер Tsubame 1 (введён в строй в 2006 году) обошёл мощнейший на тот период вычислительный комплекс Earth Simulator, и при этом он был универсальным и пригодным для выполнения задач любого рода. Профессор не без оснований полагает, что его группа одна из первых в области создания гетерогенных архитектур. Опыты в области экономичности, однако, показали, что применение малых экономичных, но узкоспециализированных процессоров не является оптимальным. В итоге была избрана гетерогенная схема с x86 в качестве управляющих процессоров и графических ускорителей в качестве вычислительных модулей.

Главным поставщиком оборудования для Tsubame 3 стала компания HPE

Главным поставщиком оборудования для Tsubame 3 стала компания HPE

Уже Tsubame 2 был полностью гетерогенным и, как уже было сказано, этому кластеру удалось поставить рекорд экономичности. Его наследник получил такую же архитектуру. В его основе лежит 540 узлов, каждый из которых содержит по четыре ускорителя NVIDIA Tesla P100 (2160 в сумме) и два 14-ядерных процессора Intel Xeon E5-2680 v4 (15120 ядер в сумме). Для межузловой связи имеется пара портов Intel Omni-Path (2160 портов суммарно), а в качестве подсистемы хранения данных применены накопители Intel серии DC с поддержкой NVMe объёмом 2 Тбайт. Такова конфигурация узла HPE Apollo 8600, который по габаритам меньше стандартного корпуса формата 1U.

Ускоритель NVIDIA Tesla P100 в версии NVLink

Ускоритель NVIDIA Tesla P100 в версии NVLink

Над Tsubame 3 была проведена тщательнейшая оптимизация, и она дала свои плоды. Хотя на момент проведённых замеров в июне 2017 года машина работала не в полной конфигурации, ей уже удалось занять 61 место в общем списке Top 500 и выйти на первое место в списке Green 500, отобрав его у NVIDIA DGX-1 и Cray XC50, а также и у Sunway TaihuLight. Показатель составил 14,11 гигафлопс на ватт, что существенно выше предыдущего рекорда —  9,4 гигафлопс на ватт. Полностью система вошла в строй не так давно, 1 августа. Её расчётная мощность составляет 12,1 петафлопс. До TaihuLight, конечно, далековато, но команда Сатоши Мацуока не собирается уступать место в Green 500.

Япония —  лидер экономичности: все три первых места в Green 500 принадлежат ей

Япония —  лидер экономичности: все три первых места в Green 500 принадлежат ей

Интересен выбор технологии Omni-Path вместо традиционных Ethernet или InfiniBand, но исследователи выяснили, что оптимальным соотношением пропускной системы локальной памяти и скорости межузловых соединений является 2 к 1. С тех пор они придерживаются этого параметра, и скорости, предлагаемые Omni-Path, отлично способствуют сбалансированности системы в целом: Omni-Path даёт скорость 12,5 Гбайт/с, PCIe — 16 Гбайт/с, а NVLink — 20 Гбайт/с. Разница в скоростях составляет менее 2 к 1. Применение новой сетевой технологии позволило «накормить» каждый графический ускоритель в системе так, чтобы он простаивал как можно меньше. Кроме того, адаптеры Omni-Path показали себя более экономичными, нежели эквивалентные им карты InfiniBand. В узлах также использованы коммутаторы PCI Express, и все устройства могут общаться друг с другом независимо от центральных процессоров x86.

Комплекс Tsubame 3 использует жидкостное охлаждение

Комплекс Tsubame 3 использует жидкостное охлаждение

В интервью зарубежным СМИ Сатоши Мацуока озвучил своё видение идеальной кластерной системы. Такая система должна иметь только одну систему соединений на все компоненты, причём, любое соединение будет коммутируемым. Все протоколы будут скрыты под программной частью и полностью прозрачны для разработчика ПО. К этому стремится его команда разработчиков, но в реальном мире приходится довольствоваться сразу тремя типами соединений, но с прозрачностью дела идут неплохо, за исключением редких случаев. Тем не менее, он отметил, что с использованием Intel Omni-Path требуются некоторые усовершенствования в ЦП. Главная задача разработчиков Tsubame 3 на сегодняшний момент - добиться полной синхронности в работе всех трёх подсистем: Omni-Path, PCIe и NVLink. Разработчики оптимизируют соответствующие алгоритмы и улучшают их масштабируемость. Команде профессора Сатоши Мацуока помогают дружественные разработчики из Университета штата Огайо.

Постоянный URL: http://servernews.ru/957891
25.08.2017 [15:35], Андрей Крупин

Минкомсвязь России расставит акценты в сфере суперкомпьютерных вычислений и грид-технологий

Министерство связи и массовых коммуникаций Российской Федерации (Минкомсвязь России) намерено определить приоритетные направления деятельности в области высокопроизводительных вычислений и форсировать развитие отечественных проектов в HPC-отрасли. Об этом сообщил глава ведомства Николай Никифоров на заседании Межведомственной комиссии по суперкомпьютерным и грид-технологиям.

«Межведомственная комиссия должна упорядочить все работы по внедрению и использованию суперкомпьютеров и технологий распределённых вычислений в нашей стране. Проекты, связанные с такими вычислениями, часто находятся внутри большого количества государственных программ, что затрудняет оценку их бюджетной эффективности и ограничивает их использование всеми заинтересованными сторонами», — сказал Николай Никифоров. Министр связи и массовых коммуникаций РФ акцентировал внимание на необходимости выработки как инструментов оценки бюджетных трат на подобные проекты, так и механизмов их совместного использования, предполагающих, например, создание укрупнённых вычислительных центров.

Глава Минкомсвязи РФ Николай Никифоров (фото пресс-службы ведомства)

Глава Минкомсвязи РФ Николай Никифоров (фото пресс-службы ведомства)

На заседании обсуждались законодательные и иные нормативные правовые акты в HPC-сфере, были определены первоочередные научно-технологические задачи, для решения которых необходимо применение суперкомпьютеров и грид-технологий. В частности, говорилось о применении такого типа вычислений для прогнозирования изменения климата и анализа метеоданных, разработки новых медицинских препаратов и биотехнологий, проектирования космических аппаратов и устройств, моделирования сложных химических процессов, в том числе ядерных реакций, анализа больших данных, решения промышленных задач.

Также речь шла о создании соответствующего центра компетенций и организации деятельности рабочих групп по каждому из направлений. Отдельное внимание представителями Межведомственной комиссии было уделено подготовке специалистов высокого уровня в сфере суперкомпьютерных вычислений и грид-технологий. Участники заседания заявили о необходимости ежегодной подготовки не менее 1 тысячи специалистов по перечисленным направлениям.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/957586
17.08.2017 [13:39], Сергей Карасёв

Северный полярный круг станет домом крупнейшего в мире дата-центра

В северной Норвегии может появиться самый крупномасштабный центр хранения и обработки данных, полностью получающий энергию из возобновляемых источников.

Сообщается, что амбициозный проект намерена реализовать молодая компания Kolos. Для размещения зданий и развёртывания необходимой инфраструктуры выбран Северный полярный круг, а именно, область неподалёку от населённого пункта Балланген.

Названный регион позволит решить сразу несколько проблем. В частности, выработка энергии будет обеспечиваться за счёт гидроэлектростанций и ветряных установок. Относительно низкие температуры в регионе позволят снизить расходы на охлаждение серверов. Наконец, расположенные вокруг горы и вода усложнят возможное физическое вторжение.

Предполагается, что дата-центр будет затрачивать мощность в 1000 МВт. Проект позволит создать от 2000 до 3000 новых рабочих мест, а также поддержит от 10 000 до 15 000 существующих работников различных отраслей, которые так или иначе будут задействованы в создании комплекса.

Кроме того, сообщается, что дата-центр планируется обеспечить наиболее современными средствами мониторинга состояния и обеспечения безопасности. Более подробную информацию о проекте можно найти здесь

Постоянный URL: http://servernews.ru/957106
10.08.2017 [13:40], Алексей Степин

IBM ставит рекорды масштабируемости в сфере машинного обучения

Технологии машинного обучения и искусственного интеллекта на базе нейронных сетей в наши дни являются широко востребованными, на них возлагаются большие надежды в самых различных промышленных и научных отраслях. Очевидно также, что тенденция к распараллеливанию программных алгоритмов и не думает сокращаться, но не всякий софт хорошо масштабируется по мере роста количества вычислительных блоков. Компания IBM это понимает хорошо — она активно работает над оптимизацией программного обеспечения нейронных сетей. Буквально на днях разработчики «голубого гиганта» продемонстрировали новое ПО, которое одновременно ускоряет обучение нейронных сетей и повышает аккуратность самого обучения.

Добиться этого удалось путём программной оптимизации масштабирования при увеличении количества графических ускорителей в системе. Исследовательская группа, возглавляемая Хиллери Хантер (Hillery Hunter), фокусировала свои усилия на уменьшении времени тренировки нейросетей на больших объёмах данных. В таких задачах ждать получения результата можно часами и даже днями, а задачей исследователей было добиться сокращения этого временного промежутка до минут или даже секунд при сохранении или повышении точности. Для этого пришлось активно оптимизировать фирменное программное обеспечение IBM для эффективной работы в системах с большим количеством GPU-ускорителей.

Оптимизации, внесённые в комплекс ПО Distributed Deep Learning (DDL), позволили добиться 95 % эффективности масштабирования в системе с 256 ускорителями NVIDIA Tesla P100. Тестирование было проведено в системе Caffe на задачах распознавания изображений. Полученный результат является новым рекордом. Ранее этот рекорд составлял 89 % и был достигнут командой Facebook при использовании аналогичного аппаратного комплекса. Точность распознавания на базе из 7,5 миллионов изображений достигла 33,8 %, что тоже выше предыдущего достижения, равного 29,8 %. Казалось бы, немного, но предыдущий результат занял у Microsoft 10 дней обучения сети в 2014 году, в то время, как IBM удалось уложиться всего в 7 часов за счёт использования графических ускорителей серии Tesla.

Постоянный URL: http://servernews.ru/956738
10.08.2017 [13:00], Алексей Степин

Национальная лаборатория Ок-Ридж начала монтаж суперкомпьютера Summit

Как сообщают зарубежные средства массовой информации, национальная лаборатория министерства энергетики США, известная как Национальная лаборатория Ок-Ридж (Oak Ridge National Laboratory, ORNL), начала работы по установке новейшего суперкомпьютера Summit, базирующегося на синтезе технологий IBM и NVIDIA. Ранее мы рассказывали об этом проекте, когда речь шла о быстродействии новых ускорителей NVIDIA Volta GV100. Напомним, что каждый из 4600 узлов Summit будет иметь производительность свыше 40 терафлопс, а в качестве начинки выступает связка из двух процессоров IBM POWER9 и шести ускорителей Volta GV100 производительностью порядка 7,5 терафлопс каждый. В качестве связующего звена задействован интерфейс NVLink 2.0 с пропускной способностью до 200 Гбайт/с.

Summit должен стать ответом китайскому проекту TaihuLight — пиковая производительность нового суперкомпьютера планируется на уровне 200 петафлопс, тогда как конкурент развивает лишь чуть более 125 петафлопс. Эти два суперкомпьютера станут самыми мощными вычислительными комплексами на планете, не использующими архитектуры x86. В понедельник в лабораторию Ок-Ридж были доставлены первые контейнеры с узлами Summit, и по словам представителя ORNL, как только они будут распакованы, сразу же начнётся процесс установки и монтажа компонентов новой системы, а также её подключения к сетям питания и охлаждающим установкам. Процесс сборки должен занять порядка шести месяцев, полноценный ввод системы в эксплуатацию запланирован на январь 2019 года.

В последнем случае речь идёт об общей доступности для научно-исследовательских проектов, но до этого система будет проходить наладку, и к ней получат доступ разработчики из министерства энергетики и некоторые университеты. Скорее всего, первые «признаки жизни» Summit подаст не раньше 2018 года, так что процедуру смены короны лидера списка TOP500 мы увидим не раньше следующего июня. Новый суперкомпьютер ORNL превзойдёт не только китайского монстра, но и предыдущую систему Окриджской лаборатории под названием Titan. Сейчас эта система занимает четвёртое место в TOP500 с пиковой производительностью 27,1 петафлопса и измеренными с помощью Linpack 17,6 петафлопсами. Таким образом, Summit будет в 5‒10 раз быстрее предшественника. А благодаря архитектурным особенностям NVIDIA Volta на задачах глубинного обучения (смешанные 16/32-битные вычисления) мощность Summit и вовсе достигнет запредельных 3,3 экзафлопс.

Постоянный URL: http://servernews.ru/956728
25.07.2017 [08:31], Алексей Степин

Петафлопс на час: облачный кластер Amazon поставил рекорд

Суперкомпьютер — удовольствие дорогое. Достаточно представить себе залы, заставленные аппаратными шкафами, которые потребляют мегаватты энергии и мегаватты же выделяют в виде тепла, которое надо отвести и рассеять. А если добавить к этому десятки километров медных и оптоволоконных кабелей, то стоимость такого вычислительного монстра перестаёт удивлять. Далеко не все организации могут позволить себе владеть системами такого класса. Тут-то и приходит на выручку идея «суперкомпьютера как сервиса», ранее уже подтвердившая свою работоспособность. Но на что способны такие сервисы сегодня? Как оказалось, весьма и весьма на многое.

Уже несколько лет компания Cycle Computing разрабатывает методы использования сервисов Amazon Web Services в помощь исследователям, нуждающимся в серьёзных вычислительных мощностях, но на сравнительно коротком промежутке времени. Недавно она закончила программу по созданию самого большого кластерного вычислителя Amazon. Созданная система, включившая в себя 156314 процессорных ядер, успешно проработала 18 часов, развив пиковую мощность порядка 1,21 петафлопс. В операции были задействованы ЦОД Amazon по всему миру: в США, Ирландии, Сингапуре, Японии, Бразилии и даже Австралии. Ядра распределились по 16788 системам, в среднем количество ядер на виртуальную машину составило 9,3. Конечно, не всякая вычислительная задача хорошо масштабируется с учётом сравнительно медленной пропускной способности межузловых соединений в таком «виртуальном суперкомпьютере». Отмечается, что даже в тесте Linpack результаты оказались бы меньше из-за высокой латентности соединений.

Однако выгода в тех случаях, где это возможно, очевидна — счёт, выставленный Amazon за использованные вычислительные мощности, составил всего $33 тысячи. Работал же «виртуальный суперкомпьютер» над задачей, поставленной профессором Университета Южной Калифорнии Марком Томпсоном (Mark Thompson). Его команда разрабатывает материалы, с помощью которых можно будет создавать высокоэффективные солнечные панели нового поколения. Вместо сложнейшей и очень дорогостоящей программы исследований, которая заняла бы год работы, удалось воспользоваться системой Schrödinger, которая смогла сэмулировать поведение 205 тысяч молекул. Вклад, внесённый Amazon и Cycle Computing в разработку солнечных батарей нового поколения оценивать пока рано, но сама система оказалась работоспособной. Компанию стоит похвалить за вклад в науку — помимо счёта Amazon, она не взяла с исследователей ни цента.

Постоянный URL: http://servernews.ru/955937
24.07.2017 [23:55], Алексей Степин

Рекорд масштабируемости: инженерную задачу удалось распараллелить на 200 тысяч ядер

Нашим предкам, создававшим такие чудеса, как первые реактивные самолёты или двигатели для космических ракет, приходилось очень нелегко. В те времена не было цифрового моделирования физических процессов, и всё приходилось отрабатывать на моделях, а затем полноразмерных экземплярах устройств. Сегодняшним инженерам существенно проще: для многих задач не требуется даже создавать модели, достаточно использовать компьютерное моделирование. Одним из известных программных пакетов в этой области является ANSYS Fluent. Как считают создатели данного ПО, оно является самым продвинутым средством моделирования поведения жидкостей и газов (computational fluid dynamics, CFD). Сферу применения ANSYS Fluent чётко определить нельзя, поскольку этот пакет может использоваться как для симуляции обдува крыла самолёта, так и для моделирования процессов, происходящих в металлургических печах. Но вычислительных мощностей для этого требуется немало: предыдущий рекорд для ANSYS Fluent составил 36 тысяч процессорных ядер суперкомпьютера Blue Waters, расположенного в Национальном центре суперкомпьютерных приложений в США.

Как оказалось, это не предел. Новый рекорд смогли поставить исследователи из Научно-технологического университета имени короля Абдаллы (KAUST), находящегося в Саудовской Аравии. Им удалось успешно запустить ANSYS Fluent и распараллелить его работу почти на 200 тысяч процессорных ядер. Это большое достижение как для исследователей и ANSYS, так и для компании Cray: оба рекорда поставлены на суперкомпьютерах, спроектированных и воплощённых в металл этой компанией. Суперкомпьютер Shaheen II, установленный в KAUST в 2015 году, относится к серии Cray XC40 и содержит 6174 двухпроцессорных узла, в каждом из которых установлено по два 16-ядерных процессора Intel Haswell-EP с частотой 2,3 ГГц. Объём памяти каждого узла равен 128 Гбайт DDR4, а в целом система располагает 197568 процессорными ядрами и 790 Тбайт памяти. Общаются друг с другом узлы посредством высокоскоростной оптической сети Aries High Speed Network, каждый из 36 аппаратных шкафов суперкомпьютера имеет 8 каналов этой сети.

Вычислительный модуль Cray XC40

Вычислительный модуль Cray XC40

Совместно ANSYS, компании Saudi Aramco и команде исследователей KAUST удалось запустить на Shaheen II комплексную симуляцию работы многофазных гравитационных сепараторов (multiphase gravity separation vessel), при этом время симуляции сократилось с нескольких недель до одной ночи. Подобного рода задачи очень важны для нефтегазовой индустрии, которая очень хорошо развита в Саудовской Аравии — в 2009 году страна занимала второе место в мире по добыче и экспорту нефти. Современные нефтеперерабатывающие заводы очень сложны, стоимость оборудования огромна, а цена ошибки очень высока, вот почему средства, подобные ANSYS Fluent весьма востребованы в этой отрасли индустрии — они упрощают разработку нового оборудования и существенно снижают стоимость такой разработки. При этом современные системы симуляции позволяют предсказать поведение оборудования в различных ситуациях, а значит, и предотвратить возможные ошибки и даже катастрофы. Saudi Aramco планирует использовать эту технологию на всех своих заводах и по результатам симуляции модернизировать их оборудование.

Постоянный URL: http://servernews.ru/955932