Материалы по тегу: hpc

16.07.2019 [19:29], Владимир Мироненко

Португалия запускает свой первый суперкомпьютер: скромный, но «зелёный»

Португалия официально запустила свой первый суперкомпьютер BoB. Он находится в Центре передовых вычислений (Minho Advanced Computer Center, MACC) при Университете Миньо.  Сообщается, что суперкомпьютер, впрочем, как и центр MACC, будут работать преимущественно на «зелёной» энергии, полученной от  солнечных, ветряных и гидроэлектростанций.

BoB состоит из 20 стоек бывшего суперкомпьютера Stampede из Техасского центра передовых вычислений (TACC), которые были переданы Фонду науки и техники (FCT) Португалии в рамках сотрудничества между Португалией и Техасским университетом в Остине. Объём оперативной памяти BoB, имеющего всего 80 вычислительных узлов, равен 2,66 Тбайт, а ёмкость хранилища — 1 Пбайт. Пиковая производительность достигает  1 петафлопс и обеспечивается сопроцессорами Intel Xeon Phi KNL.

В июне 2016 года Stampede состоял из 6400 узлов и занимал 117-е место в списке TOP500. Суперкомпьютер завершил свою работу в 2017 году в связи с постройкой новой машины, Stampede2. 

Следует отметить, что и сам центр MACC был основан недавно. Решение о его создании было принято после заключения договорённости о расширении сотрудничества между Португалией и Техасским университетом в Остине.

К концу 2020 года центр MACC намерен запустить ещё один суперкомпьютер — «Deucalion». Ожидается, что он будет в состоянии обеспечить 9,4 петафлопс вычислительной производительности.

Португалия также участвует в другом проекте по установке суперкомпьютера типа «pre-exascale» с производительностью, приближающейся к экзафлопсу, в Барселонском суперкомпьютерном центре Centro Nacional de Supercomputación, утверждённом Европейской комиссией. Помимо Португалии в реализации проекта участвуют специалисты Турции и Хорватии. Он также поддерживается Ирландией. Производительность этого суперкомпьютера составит 175 петафлопс, благодаря чему он войдёт в пятёрку самых мощных суперкомпьютеров в мире.

Постоянный URL: http://servernews.ru/990845
29.06.2019 [20:44], Андрей Созинов

Как создавалось и обрабатывалось реальное «фото» чёрной дыры M87

Чуть более двух месяцев назад учёным из Европейской Южной Обсерватории (ESO) удалось получить прямое визуальное изображение чёрной дыры в центре массивной галактики Messier 87, что в созвездии Девы. И теперь Supermicro опубликовала подробности о компьютерной системе, которая помогла получить данное изображение, ведь для этого потребовалось обработать огромное количество данных — 4 Пбайт.

Эти данные о сверхмассивной чёрной дыре, расположенной на расстоянии 55 млн световых лет, были получены с помощью восьми радиотелескопов, расположенных по всей Земле. Подробности о физической стороне процесса можно найти в замечательной лекции Архэ. Мы же обратимся к IT-составляющей. 

«Съёмка» длилась несколько ночей весной 2017 года, а получаемая информация — аналоговый сигнал на частотах порядка 2 ГГц — оцифровывалась и сохранялась на жёсткие диски. Сообщается, что запись данных проводилась на скорости 64 Гбайт/с, так что каждый телескоп за одну только ночь записывал 350 Тбайт данных. Исследователи использовали 1024 жёстких диска — по 128 на каждый телескоп, где они делились между четырьмя бэкенд-системами.

Использовались ёмкие накопители, заполненные гелием: в частности, HGST Ultrastar HelioSeal от Western Digital. Такие накопители лучше проявляют себя при работе на большой высоте, где расположена значительная часть радиотелескопов. Впрочем, в ближайшем будущем их, вероятно, могут сменить твердотельные накопители-«рулеры»: Supermicro на днях представила первые СХД и серверы с SSD формата EDSFF

После сбора данных накопители были доставлены в Институт Макса Планка (MPI) и обсерваторию Хейстек Массачусетского технологического института (MIT Haystack). Там данные с них обрабатывались с помощью программного обеспечения DiFX.

Кластер MIT, состоящий из 60 вычислительных узлов, размещается в десяти стойках, содержащих три поколения серверов Supermicro, в том числе и 38 систем Supermicro TwinPro. Все узлы объединены сетью Ethernet 25 Гбит/с и FDR InfiniBand, а серверы построены на 10-ядерных процессорах Intel Xeon. Объём хранилища MIT составляет примерно половину петабайта.

В свою очередь кластер MPI обладает тремя головными серверными узлами Supermicro и 68 вычислительными узлами (в сумме 1360 ядер). Также в систему MIP входит 11 систем хранения данных Supermicro (работающих под управлением BeeGFS) ёмкостью 1,6 петабайта и особые СХД собственной разработки Mark 5 и Mark 6. Для соединения используется FDR InfiniBand.

Все собранные данные были обработаны и «выровнены», то есть скорректированы по времени и положению телескопов. После всё было перепроверено, и здесь использование двух систем обеспечило более высокую точность. После сопоставления, данные были снова отправлены на обработку для визуализации, временно́го анализа и моделирования. В итоге это и позволило получить первое изображение чёрной дыры.

Постоянный URL: http://servernews.ru/989951
24.06.2019 [21:35], Константин Ходаковский

TSMC представила 7-нм ARM-процессор для HPC: два чиплета с частотой выше 4 ГГц

Для разработки чипов требуется масса усилий и финансовых вложений, поэтому не так много компаний специализируется на выпуске собственных решений, пусть даже на базе готовых дизайнов ARM. На мобильном рынке к таковым, например, можно отнести Qualcomm, MediaTek, Samsung, Apple, Huawei и Xiaomi. Большинство из них пользуются производственными мощностями и услугами TSMC. Последняя нередко создаёт собственные демонстрационные кристаллы, помогающие в проектировании конечных продуктов.

Во время состоявшегося в Токио мероприятия VLSI компания TSMC продемонстрировала весьма любопытную однокристальную систему, призванную показать производственные возможности компании в области высокопроизводительных вычислений (HPC). Она произведена с соблюдением 7-нм техпроцесса, имеет размеры 4,4 × 6,2 мм (27,28 мм2) и использует 2,5D-упаковку CoWoS (chip on wafer on substrate), с помощью которой, например, компания выпускает ГП NVIDIA Volta с памятью HBM на общей подложке.

7-нм однокристальная система TSMC представляет собой двухчиповую структуру на основе двух идентичных чиплетов, размещённых почти вплотную, связанных по интерфейсу LIPINCON и работающих через специальную шину BiDir Interconnect Mesh Bus, способную функционировать на частоте выше 4 ГГц. Каждый кристалл включает четыре ядра ARM Cortex A72 и другие блоки.

При этом упаковка позволяет добавлять на подложку дополнительные чиплеты. Интересно, что ядра ARM Cortex-A72 способны работать на частотах выше 4 ГГц. 4-ядерный модуль дополняется двумя блоками кеша второго уровня объёмом 1 Мбайт каждый, работающими на половинной частоте. Кроме того, имеется большой блок кеш-памяти третьего уровня объёмом 6 Мбайт, работающий на четверти базовой частоты.

При напряжении 0,775 В ядра ​​Cortex могут достигать частоты 2,8 ГГц, а при напряжении 1,375 В — впечатляющих 4,2 ГГц. Контрактная полупроводниковая кузница заявила, что её однокристальная система предназначена для высокопроизводительных вычислительных платформ, нуждающихся в высоких тактовых частотах.

Преимуществом данной технологии является удешевление производства сложных многоядерных чипов благодаря тому, что единый кристалл разбивается на несколько относительно небольших чиплетов, отличающихся более высоким показателем выхода годной продукции (чем больше чип, тем выше процент отбракованных изделий). При этом благодаря упаковке, шине и другим новациям, работает такая многочиповая система практически как монолитный кристалл.

Постоянный URL: http://servernews.ru/989688
20.06.2019 [14:07], Сергей Юртайкин

Рынку высокопроизводительных вычислений пророчат рост до $44 млрд

Аналитическая компания Hyperion Research повысила прогноз по мировому рынку высокопроизводительных вычислений (HPC).

Согласно ожиданиям экспертов, в 2023 году продажи серверов, ПО и услуг в области HPC достигнут $44 млрд, тогда как прежде предсказывался показатель в $39 млрд.

Реализация HPC-серверов возрастёт до $19,9 млрд с рекордных $13,7 млрд в 2018 году. В 2023-м спрос на суперкомпьютеры с эксафлопсной производительностью будет измеряться $1,4 млрд, на серверы для обработки ИИ-задач — $2,7 млрд, на оборудование для работы облачных сервисов — $5,5 млрд. Наибольшие темпы роста (примерно на 30 % в год) прогнозируются в сегменте серверов для искусственного интеллекта.

Также в исследовании Hyperion Research указывается, что продажи систем хранения данных для высокопроизводительных вычислений в 2023 году составят $7,8 млрд. Расходы компаний на программное обеспечение и услуги технической поддержки в области HPC поднимутся до $8,6 млрд и $2,9 млрд соответственно.

По прогнозам аналитиков, расходы на суперкомпьютеры с производительностью эксафлопс или чуть меньше в период с 2019 по 2025 годы составят $9 млрд. Сюда войдут первые в истории $1 млрд инвестиций в суперкомпьютер Post-K, который создаётся в Японии.

Постоянный URL: http://servernews.ru/989507
17.06.2019 [23:32], Константин Ходаковский

Эра экзафлопсных вычислений на подходе, но трудности нарастают

Долгое время Закон Мура был справедлив для всех отраслей компьютерной индустрии — от домашних систем до суперкомпьютеров: каждые два года удваивалось число транзисторов на единицу площади за счёт прогресса в нормах производства, а вместе с этим росла и производительность. Сейчас рост, если судить по рейтингу Top 500, постепенно замедляется. Претендовать на звание суперкомпьютеров могут системы (создаваемые правительствами, институтами и организациями), способные обеспечить не менее петафлопса производительности. Но вскоре десятки и сотни петафлопс станут нормой, экзафлопсные вычисления станут общим местом, и индустрия начнёт думать о выборе следующего психологического порога производительности.

Шесть лет назад в списке Top 500 за июнь 2013 года совокупная производительность полутысячи систем, прошедших тестирование Linpack, начала замедляться и в итоге пересекла прогнозируемую линию закона Мура. Это произошло после всплеска прироста производительности, когда совокупный рост мощностей суперкомпьютеров в течение некоторого времени несколько опережал закон Мура.

Совокупная производительность в списке Top 500 за июнь 2019 года составляет 1,56 экзафлопс, что на 28 % больше 1,22 экзафлопс на июнь 2018 года и вдвое больше 749 петафлопс на июнь 2017 года (стоит помнить, что всё это согласно результатам теста Linpack, оценивающего 64-бит производительность систем в вычислениях с плавающей запятой). Не так уж плохо, но если бы тенденция соответствовала закону Мура, в июне 2019 года совокупная производительность 500 суперкомпьютеров в списке должна была быть на уровне порядка 4 экзафлопс — отставание огромно.

Производительность самого мощного суперкомпьютера на приведённом графике находится посредине. Традиционно эта линия выглядит ступенчатой, поскольку такая система, как правило, возглавляет список несколько лет подряд, пока на смену ей не приходит новый «царь горы». Если бы соответствие закону Мура сохранялось, индустрия уже должна была создать систему производительностью почти 500 петафлопс по оценке в Linpack. Линия закона Мура гласит, что к сентябрю 2020 года у нас должна быть машина с производительностью в 1 экзафлопс. Но, похоже, мы опоздаем примерно на год, даже если США, Китай, Япония и ЕС выполнят свои планы. 

Интересно, однако, что уже в июне 2014 года нижний представитель списка Top 500 тоже стал отставать от прогнозов. Сейчас в этом списке имеются суперкомпьютеры с производительностью не менее 1 петафлопс в операциях с плавающей запятой двойной точности по оценке Linpack. Хотя это и большое достижение, в теории там уже должны быть системы мощностью не менее 2,5 петафлопс.

Насколько всё это критично — сказать сложно. Индустрия высокопроизводительных вычислений продолжает развиваться и решать множество проблем, в том числе в области сетевых соединений и систем хранения данных. Но две вещи очевидны: становится всё труднее поддерживать темпы прироста производительности, как с точки зрения архитектуры, так и с точки зрения затрат.

Уже много лет подряд гораздо проще нарастить производительность суперкомпьютера, чем снизить стоимость вычислительной единицы. Но учёные и технологи стараются решать проблему наращивания производительности на многих фронтах. С одной стороны, даже удивительно, что мы сейчас находимся на пороге экзафлопсных вычислений: единица производительности стоит намного дешевле, чем многие предсказывали, а энергопотребление — заметно ниже, чем представлялось возможным.

Итак, давайте внимательнее взглянем на пять верхних систем из рейтинга Top 500 за июнь 2019 года. Система Summit, созданная IBM с помощью NVIDIA и Mellanox Technologies для Национальной лаборатории Ок-Ридж, немного повысила свою производительность, достигнув стабильных 148,6 петафлопс в Linpack — почти весь прирост получен за счёт ускорителей Tesla с архитектурой Volta. При этом пиковая производительность Summit составляет 200,8 петафлопс.

Система Sierra Ливерморской национальной лаборатории им. Лоуренса сохранила производительность в 94,6 петафлопс и удержалась на втором месте. Sunway TaihuLight в Национальном суперкомпьютерном центре в Уси (Китай) на базе собственных процессоров SW26010 заняла третье место с 93 петафлопсами. Tianhe-2A в Национальном суперкомпьютерном центре в Гуанчжоу (Китай), использующая DSP-ускорители Matrix-2000 и чипы Xeon, заняла четвёртое место с 61,4 петафлопсами.

Ходили слухи о том, что Китай собирается запустить одну из своих систем предэкзафлопсного поколения, чтобы сбросить Summit с Олимпа, однако этого не произошло — возможно, стоит подождать до ноября 2019 года. Можно ожидать, что до появления экзафлопсных систем в конце 2021 года или в начале 2022 года мы увидим немало суперкомпьютеров с производительностью в районе 200 петафлопс.

Система Frontera Центра передовых вычислений в Университете Техаса, созданная Dell на основе 28-ядерных процессоров Intel Xeon Platinum 8280 (Skylake-SP) с использованием интерконнекта InfiniBand 200 Гбит/с от Mellanox, заняла лишь пятое место. Frontera — это уже не вполне характерный сегодня суперкомпьютер, так как для расчётов используются только CPU. Его максимальная теоретическая производительность составляет 38,7 петафлопс, а в Linpack он показывает 23,5 петафлопс — эффективность 448 448 ядер составляет всего 60,7 %. Возможно, в будущем система повысит показатели за счёт оптимизации исполнения Linpack.

Примерно с 2003 года Intel остаётся доминирующим поставщиком — по крайней мере, по количеству систем, использующих её процессоры. Сейчас CPU Intel применяются в 95,6 % представителей из списка Top 500, однако нужно сказать несколько слов и о самом рейтинге. Дело в том, что всё большее количество суперкомпьютеров из США, Китая, ЕС и Японии, отправляющих результаты Linpack, не имеют ничего (подчас абсолютно ничего) общего к реальным рабочим нагрузкам HPC или даже к нагрузкам в области искусственного интеллекта и просто участвуют в рейтинге ради престижа своих стран.

Нет правила, согласно которому входящая в рейтинг машина должна действительно выполнять задачи HPC или ИИ в качестве своей повседневной работы: важны лишь результаты Linpack. Это искажает характер списка: фактически из него вытесняются реальные центры высокопроизводительных вычислений, и, что быть может ещё важнее, создаётся впечатление, будто отставание от закона Мура не столь значительно, чем, вероятно, дело обстоит на самом деле.

Хотелось бы, чтобы в будущем в списке Top 500 была какая-то проверка, позволяющая убедиться, что суперкомпьютер действительно на деле выполнял задачи HPC бо́льшую часть времени до того, как попал в рейтинг. Смысл списка должен быть в понимании реальных тенденций HPC, а не тенденций систем, настроенных на тесты производительности Linpack.

Более четверти всего рейтинга Top 500 сейчас представляют машины с ускорителями. Суперкомпьютеры на базе NVIDIA Tesla V100 в том или ином исполнении занимают 62 пункта или 12,4 % списка, обеспечивая при этом 621,4 петафлопс пиковой и 406,3 петафлопс устойчивой производительности — примерно четверть 1,56 экзафлопса производительности всего списка на июнь 2019 года.

Более старые ускорители NVIDIA Tesla P100 установлены в 46 машинах (9,2 % систем), но обеспечивают 160,8 петафлопс в пике и 94,6 петафлопс устойчивой производительности Linpack (6,1 % совокупной мощности). В список вошли ещё двенадцать машин, использующих акселераторы NVIDIA, но их устойчивая производительность составляет всего 44,7 петафлопс, что не очень много. Есть только две машины, которые построены исключительно на ускорителях Intel Xeon Phi. Есть ряд гибридных машин с Xeon и Xeon Phi, которые за счёт ускорителей способны обеспечить внушительную производительность в операциях с плавающей запятой, но эти данные не конкретизируются в сводной информации Top 500.

Проблема в том, что ускоренные системы ещё не являются нормой, но они уже считаются суперкомпьютерами. Реальные  задачи суперкомпьютеров могут не всегда получать ощутимый прирост от использования GPU и других ускорителей — последние показывают высокую эффективность на системах, которые исполняют одновременно сотни или тысячи приложений и потоков. NVIDIA создала рынок таких систем, а AMD и Intel сейчас собираются на нём конкурировать — это будет стимулировать инновации и снижать цены, что полезно для клиентов, но, возможно, не так хорошо для поставщиков. На рынке HPC уже сегодня сложно зарабатывать деньги, а в эпоху экзафлопсных вычислений станет ещё труднее.

Постоянный URL: http://servernews.ru/989334
17.06.2019 [19:51], Андрей Созинов

NVIDIA обеспечит ARM-системам поддержку ускорения вычислений с CUDA

Компания NVIDIA объявила о том, что теперь её продукты в полной мере поддерживают работу с центральными процессорами на архитектуре ARM. В первую очередь это должно позволить производителям создавать ещё более экономичные суперкомпьютеры для вычислений экзафлопсного уровня с поддержкой алгоритмов искусственного интеллекта.

Уже к концу текущего года создатели систем на базе ARM получат доступ ко всему программному обеспечению NVIDIA для искусственного интеллекта (ИИ) и высокопроизводительных вычислений (High performance computing, HPC). По словам компании, это ПО способно ускорить свыше 600 HPC-приложений и все AI-фреймворки. Сюда входят все библиотеки NVIDIA CUDA-X AI и HPC, GPU-ускоренные AI-фреймворки и инструменты программной разработки, такие, как PGI-компиляторы с поддержкой OpenACC и профилировщики.

Как известно, опыт работы с ARM у компании NVIDIA уже был. Ещё относительно недавно она активно трудилась над созданием собственных ARM-процессоров, которые сочетались бы с её собственными графическими ускорителями и использовались в мобильных устройствах, роботах и роботизированных автомобилях. Вместе с тем NVIDIA разрабатывала не только аппаратную часть, но и программную, и в итоге теперь эти наработки смогут использовать и сторонние производители.

Заметим, что уже сейчас NVIDIA обеспечила поддержку ускорения HPC и ИИ на архитектурах x86 и POWER, а после завершения процесса оптимизации к ним присоединится ARM. Получается, NVIDIA в скором времени сможет предложить ускорение вычислений для всех наиболее распространённых архитектур CPU.

«Суперкомпьютеры являются необходимым инструментом для совершения научных открытий. Переход на экзафлопсный уровень вычислений значительно расширит горизонты человеческого познания, — говорит Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. — Масштабирование традиционных вычислений подходит к своему пределу из-за ограничений, накладываемых энергопотреблением суперкомпьютеров. Сочетание CUDA-ускоренных вычислений и энергоэффективной архитектуры ARM позволит HPC-сообществу перейти на экзафлопсный уровень».

«ARM работает со своей экосистемой, чтобы наделить платформы на базе ARM высочайшей производительностью и возможностями экзафлопсного уровня, — говорит Саймон Сигарс (Simon Segars), генеральный директор ARM. — Партнёрство с NVIDIA для обеспечения CUDA-ускорения архитектуре ARM является очень важным событием для HPC-сообщества, которое уже применяет технологии ARM для решения самых сложных в мире научных задач».

Согласно представленному сегодня обновлённому рейтингу Green500, ускорители на графических процессорах NVIDIA лежат в основе 22 из 25 самых энергоэффективных суперкомпьютеров мира. Высокой эффективности способствует то, что в данных системах тяжёлые вычислительные нагрузки выполняются на более энергоэффективных GPU с ядрами CUDA. Ещё отмечается сотрудничество NVIDIA с Mellanox по оптимизации вычислений в супервычислительных кластерах, а также использование SXM 3D-компоновки и высокоскоростного интерфейса NVIDIA NVLink, что позволяет создавать узлы с высокой плотностью и масштабируемостью. А теперь с поддержкой ARM могут появиться ещё более эффективные системы. 

Идеальным вариантом для NVIDIA было бы наличие в портфолио собственного процессора, что позволило бы создать единую платформу и экосистему без явной зависимости от других производителей. Причём такой процессор вовсе не обязан быть очень мощным. Гораздо важнее масштабируемость GPU-платформ, и покупка Mellanox вполне может оказаться первым шагом в этом направлении. 

Постоянный URL: http://servernews.ru/989326
06.02.2019 [09:09], Андрей Крупин

РСК подтвердила статус Intel HPC Data Center Specialist

Группа компаний РСК, занимающаяся разработкой решений для сегмента высокопроизводительных вычислений и центров обработки данных, сообщила о подтверждении статуса Intel HPC Data Center Specialist на 2019 год.

Присвоенный корпорацией статус подтверждает высокий уровень компетенций РСК в разработке, продвижении и внедрении у конечных заказчиков высокопроизводительных решений на базе серверной продукции Intel — процессоров семейства Intel Xeon Scalable, серверных плат Intel Server Board, твердотельных дисков Intel SSD и высокоскоростного межсоединения Intel Omni-Path. РСК обладает таким статусом с момента запуска этой партнёрской программы в 2016 году и подтверждает его ежегодно.

РСК связывают с Intel долгосрочные и стратегические партнёрские отношения. Компания является партнёром корпорации в программах Intel Technology Provider Program высшего уровня Platinum и Intel Fabric Builders Program, а решение «РСК Торнадо» обладает статусами Intel Select Solution for Simulation & Modeling и Intel Select Solution for Professional Visualization.

Дополнительную информацию о разрабатываемых РСК продуктах для HPC-рынка и ЦОД можно найти на сайте компании rscgroup.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/982356
22.07.2018 [11:30], Константин Ходаковский

AWS представила новые экземпляры HPC с ядрами Skylake

Amazon Web Services (AWS) анонсировала новый набор экземпляров HPC, предназначенных для таких задач, которые могут извлечь выгоду из высокой производительности ядер. Первый экземпляр называется Z1d и использует процессоры Intel Xeon Skylake Scalable, которые могут работать на частоте до 4 ГГц на всех ядрах (в режиме Turbo Boost).

AWS предлагает Z1d в шести конфигурациях, от 2 до 48 виртуальных процессоров (vCPU), которые, как правило, эквивалентны числу физических ядер, причём на каждое из них выделяется 8 Гбайт ОЗУ. Локальное хранилище представлено SSD-накопителями NVME по 37,5 Гбайт на ядро, а сетевое подключение обеспечивается адаптером AWS Elastic Network Adapter (ENA). Максимальная конфигурация Z1d включает 48 vCPU, 384 Гбайт ОЗУ, два SSD ёмкостью по 900 Гбайт и пропускную способность до 25 Гбит/с.

Новое предложение предназначено для определённых типов рабочих нагрузок HPC, которые критичны к однопоточной производительности. Сюда входят такие направления, как анализ финансовых рисков, автоматизация проектирования электроники (EDA) и анализ методом конечных элементов (FEA).

Amazon считает, что работа с реляционными базами данных, которая ограничена высокими комиссионными за лицензию на одно ядро, тоже получит выгоду от Z1d. Экземпляры могут быть запущены в рамках функции AWS Cluster Placement Groups, позволяющей объединять в группы несколько экземпляров, что необходимо для многих рабочих нагрузок HPC или тех задач, где требуется больше 48 ядер или 384 Гбайт ОЗУ.

Наряду с добавлением Z1d, AWS также представила новый оптимизированный с точки зрения памяти экземпляр под группой имён R5. Это предложение рассчитано на задачи, которые используют аналитику в памяти, распределённое кеширование и другие методы, связанные с большими данными. R5, как и Z1d, поставляется в шести конфигурациях, от 2 до 96 vCPU, с теми же 8 Гбайт памяти на ядро и с таким же распределением пропускной способности сети. В этом случае частота ядер не превышает 3,1 ГГц (тоже в режиме Turbo Boost). Наконец, был анонсирован вариант R5d; он имеет те же характеристики, что и R5, но с добавлением локального хранилища NVMe (до 3,6 Тбайт).

По словам Amazon, новые экземпляры будут скоро доступны. Цены ещё не объявлены.

Постоянный URL: http://servernews.ru/972908
26.04.2018 [15:49], Алексей Степин

Verne Global представила новый сервис hpcDIRECT

Компания Verne Global, известный производитель и поставщик решений для ЦОД и сферы супервычислений, анонсировала системы hpcDIRECT, главное назначение которых — работа в составе кластеров, задействованных в области вычислительной биологии и генетики. Новинки относятся к модному нынче классу «супервычисления как облачный сервис», и клиент может выбирать из многочисленных опций.

К примеру, в зависимости от задачи, Verne Global предлагает разные ускорители на базе графических процессоров, выделенные или разделяемые хранилища данных, а также гарантирует наличие скоростной сетевой среды. Типичная спецификация включает в себя 32 физических ядра с частотой 2,1 ГГц, 512 Гбайт оперативной памяти (16 Гбайт на ядро) и сетевое подключение InfiniBand FDR со скоростью 56 Гбит/с.

Решения hpcDIRECT устанавливаются в безопасном ЦОД, оптимизированном с учётом сферы супервычислений, и обслуживаются командой квалифицированных специалистов. Клиентам предоставляется настоящая вычислительная мощность без виртуализации; иными словами, процессорную производительность не приходится делить с другими заказчиками. Стоимость трёхлетней резервации мощностей стоит 0,03 евро за одно ядро в час, мгновенный доступ «по требованию» дороже — 0,07 евро. Подробности можно узнать на сайте сервиса по приведённой выше ссылке.

Постоянный URL: http://servernews.ru/968954
03.04.2018 [13:45], Сергей Карасёв

ПаВТ 2018: самый мощный суперкомпьютер России нарастил производительность

Научно-исследовательский вычислительный центр МГУ имени М.В.Ломоносова и Межведомственный суперкомпьютерный центр РАН представили двадцать восьмую редакцию рейтинга самых мощных компьютеров СНГ — списка Тор50.

Лидером рейтинга уже семь редакций подряд остаётся суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Причём эта система была модернизирована. Её производительность на тесте Linpack поднялась с 2,1 петафлопса (квадриллиона операций с плавающей запятой в секунду) до 2,48 петафлопса, а пиковое быстродействие увеличилось с 2,96 до 4,95 петафлопса.

На втором месте оказался новый суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в Главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность этого комплекса на тесте Linpack составляет 1,2 петафлопса.

Замыкает первую тройку суперкомпьютер «Ломоносов», установленный в Московском государственном университете имени М.В.Ломоносова. Его быстродействие составляет около 0,9 петафлопса.

Любопытно, что все системы в рейтинге используют в качестве основных процессоров решения Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, по сравнению с предыдущей редакцией рейтинга уменьшилось с 19 до 18, а количество систем, использующих ускорители Intel Xeon Phi, осталось равным 9.

Суммарная производительность систем на тесте Linpack за полгода выросла с 8,7 до 10,7 петафлопса. Суммарная пиковая производительность систем списка составила 17,4 петафлопса против 13,4 петафлопса в предыдущей редакции.

Количество систем, используемых в науке и образовании, осталось равным 18; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 16 до 14; число систем, используемых в промышленности, уменьшилось с 5 до 4; число систем в финансовой области осталось равным 3. 

Постоянный URL: http://servernews.ru/967909
Система Orphus