Материалы по тегу: супервычисления

22.11.2018 [15:44], Геннадий Детинич

В Китае региональные ЦОД загружены на половину мощности

К известной проблеме в Китае с городами-призраками — пустующими домами и кварталами новых городов, где никто не жил и не живёт, — добавилась проблема недостаточной загрузки региональных центров по обработке данных.

Согласно обнародованным данным Министерства промышленности и информационных технологий (Ministry of Industry and Information Technology, MIIT) и Министерства финансов Китая, возможности ЦОД в крупных городах на востоке, западе и северо-востоке страны превышены по всем параметрам, тогда как потребность в мощностях удвоилась и не может быть удовлетворена на месте. Поэтому по установленной правительственной программе Китая, некоторое время назад в регионах начали возводить ЦОД для разгрузки центров с побережья.

Как водится, планы и реальное положение дел начали расходиться. Уже построенные в небольших городах на материковой части Китая ЦОД в большинстве оказались загруженными только на половину своих возможностей. Чтобы поощрить столичные компании переводить нечувствительные к большим задержкам данные в регионы, власти Пекина, например, ужесточили экологические требования к работе ЦОД в пределах столицы. Тем более, что вычислительных ресурсов ЦОД в Пекине не хватает на удовлетворение 19 % запросов.

Пока ситуация развивается по не самому удачному сценарию или, если смягчить выражения, нелинейно. Аналитики опасаются, что на ИТ-рынке Китая может возникнуть пузырь, который приведёт к расшатыванию экономики этой страны. До сих пор всё развивалось красиво и динамично, тогда как в итоге деньги окажутся выброшенными на ветер, и рынок свернётся. Региональные власти только в этом году утроили средства, отпущенные на создание локальных ЦОД, так что пузырь может выйти немаленьким с серьёзными последствиями после взрыва.

Постоянный URL: http://servernews.ru/978581
16.11.2018 [15:45], Андрей Крупин

5 самых мощных российских суперкомпьютеров (фото)

Иногда лучше один раз увидеть, чем сто раз услышать. Представляем подборку фотографий самых мощных суперкомпьютеров России, входящих в пятёрку лидеров списка TOP 50 высокопроизводительных систем СНГ.

«Ломоносов-2». Вычислительный комплекс производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Пиковая производительность суперкомпьютера составляет 4,9 петафлопс, производительность по данным теста Linpack достигает 2,5 петафлопс.

Суперкомпьютер Росгидромета. Машина производства компаний «T-Платформы» и Cray, установленная в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность по Linpack — 1,2 петафлопс.

«Ломоносов». Система разработки компании «Т-Платформы». Развёрнута в МГУ имени М.В. Ломоносова и по данным теста Linpack демонстрирует производительность в 901,9 терафлопс.

Курчатовский вычислительный комплекс. Базируется в национальном исследовательском центре «Курчатовский институт» и характеризуется производительностью в 755,5 терафлопс (по данным Linpack). Является совместной разработкой НИЦ «Курчатовский институт» и компаний Supermicro, «Борлас», «Т-Платформы».

Вычислительная система «Политехник — РСК Торнадо». Суперкомпьютер разработки группы компаний РСК, установленный в суперкомпьютерном центре Санкт-Петербургского политехнического университета. Производительность по Linpack — 715,9 терафлопс.

Ознакомится с другими входящими в TOP 50 российскими суперкомпьютерными системами можно по ссылке top50.parallel.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/978301
25.09.2018 [13:36], Андрей Крупин

Опубликована новая редакция рейтинга TOP 50 самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённой редакции списка TOP 50 самых мощных компьютеров СНГ. Объявление новой редакции списка состоялось на проходящей в Москве международной конференции Russian Supercomputing Days, посвящённой развитию и применению суперкомпьютерных технологий в различных областях науки и техники.

Новая, двадцать девятая по счету редакция списка TOP 50 продемонстрировала незначительный рост производительности суперкомпьютеров СНГ. Суммарная производительность систем в тесте Linpack за полгода выросла с 10,7 до 11,2 петафлопс (квадриллионов операций с плавающей запятой в секунду). Суммарная пиковая производительность составила 18,4 петафлопс (17,4 петафлопс в предыдущей редакции рейтинга). Всего за полгода в списке появилось три новых суперкомпьютера и произошло обновление ещё двух систем.

Лидером списка уже восьмой раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, увеличилось с 18 до 20, а количество систем с ускорителями Intel Xeon Phi на борту осталось равным девяти. Число вычислительных комплексов на базе InfiniBand увеличилось с 30 до 32, при этом количество суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, уменьшилось с 8 до 6. Количество систем в списке на основе технологии Intel Omni-Path уменьшилось с семи до шести.

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 18 до 21; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 14 до 13; число систем, используемых в промышленности, осталось равным четырём; число систем в финансовой области сократилось с трёх до единицы. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следуют компании РСК (12 систем в рейтинге), «Т-Платформы» (11), IBM (3) и NVIDIA с четырьмя вычислительным комплексами.

С полной версией обнародованного документа можно ознакомиться по адресу top50.supercomputers.ru. Следующая, тридцатая по счёту редакция списка TOP 50 самых мощных компьютеров СНГ будет объявлена 2 апреля 2019 года на международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2019».

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/975910
04.08.2018 [10:48], Геннадий Детинич

PLDA и HPE будут совместно разрабатывать блоки архитектуры Gen-Z

Как известно, в феврале опубликована финальная версия спецификации стандарта Gen-Z Core Specification 1.0. Завершение работ над спецификацией означает приближение выхода совместимых архитектур, решений и устройств. Стандарт Gen-Z относится к открытым разработкам, что подразумевает снижение порога стоимости для желающих принять участие в развитии данной экосистемы. К сожалению, не все компании придерживаются концепции открытых компьютерных архитектур и протоколов. Компании Intel и NVIDIA, например, так и не стали участниками консорциума Gen-Z, который в 2016 году организовали компании AMD, ARM, Broadcom, Cray, Dell EMC, Hewlett Packard Enterprise, Huawei, IDT, Micron, Samsung, SK Hynix, и Xilinx.

Память станет «центром вселенной» для интерфейса Gen-Z

Память станет «центром вселенной» для интерфейса Gen-Z

Напомним, стандарт Gen-Z призван изменить парадигму вычислительных платформ и уйти от ориентированной на процессоры архитектуры. Вместо этого должны появиться архитектуры, ориентированные на память (Memory-Driven Computing architecture). Это уберёт иерархию в строении вычислительных систем, что снизит задержки при обращении к памяти каждого блока в платформе, отвечающего за вычисления — процессора, ускорителя или контроллера.

Чтобы массе независимых разработчиков решений с использованием элементов архитектуры Gen-Z стало проще, а продукция появилась бы на рынке быстрее, необходимо создать множество совместимых базовых архитектурных решений: стандартных интерфейсов ввода/вывода, сигнальных и управляющих интерфейсов для работы с памятью, процессорами и ускорителями и прочего. Разработкой подобной интеллектуальной собственности совместно будут заниматься компании Hewlett Packard Enterprise (HPE) и PLDA.

Одна из последних реализаций проекта HPE The Machine

Одна из последних реализаций проекта HPE The Machine

У компании PLDA богатый опыт в разработке полупроводниковых IP-блоков для интеграции в сторонние чипы, тогда как компания HPE может считаться специалистом по компьютерным платформам и даже архитектурам. Партнёры уверены, что совместная деятельность приведёт к появлению IP-решений, которые найдут применение как в периферийных устройствах, так и в облачных платформах. Причём у компании HPE есть свой кровный интерес в партнёрстве с PLDA — это продолжение концептуальной разработки платформы The Machine. Данный проект прошёл уже множество стадий и пока далёк от завершения. Но так совпало, что он тоже Memory-центрический, так что HPE ждёт от партнёрства с PLDA большего, чем простого распространения лицензий на IP-блоки.

Постоянный URL: http://servernews.ru/973528
29.07.2018 [13:00], Геннадий Детинич

Американские ВВС получили самый большой в мире нейроморфный суперкомпьютер

Звучит громко, но это именно так. Лаборатория Air Force Research Laboratory (AFRL) в городе Ром, штат Нью-Йорк, получила в своё распоряжение самый большой в мире компьютер по числу задействованных в системе нейроморфных процессоров IBM TrueNorth. Система представлена полочными компьютерами высотой 4U (7 дюймов) для стандартной серверной стойки. Каждый компьютер располагает 64 процессорами IBM TrueNorth. В пересчёте на человеческие в буквальном смысле единицы измерения мозга — это 64 млн нейронов и 16 млрд синапсов. Всего в стойке может разместиться 512 млн цифровых нейронов. Примерно столько нейронов в коре головного мозга собаки.

AFRL

AFRL

Система под именем «Blue Raven» на базе IBM TrueNorth для Лаборатории ВВС США представлена пока 64-процессорным решением с общим потреблением 40 Вт. Это, кстати, в 4 раза больше ожидаемого. Аналогичный 16-процессорный компьютер, переданный в 2016 году Ливерморской национальной лаборатории им. Лоуренса, потреблял всего 2,5 Вт или 156 мВт на один процессор. Возможно таким образом была повышена производительность системы, которая при потреблении 70 мВт способна работать с производительностью 46 млрд синаптических операций в секунду.

IBM

IBM

По оценкам IBM, работа процессоров TrueNorth с необозначенным датасетом на CIFAR-100 по распознаванию наборов изображений характеризуется производительностью свыше 1500 кадров в секунду с потреблением 200 мВт или свыше 7000 кадров в секунду на ватт. Ускоритель NVIDIA Tesla P4 (Pascal GP104), например, обрабатывает датасет Resnet-50 с производительностью 27 кадров в секунду на ватт.

Структура процессора IBM TrueNorth

Структура процессора IBM TrueNorth

Вообще, в Лаборатории AFRL, похоже, работают увлечённые люди. Новым проектом «Blue Raven» руководит тот же человек (Mark Barnell), который несколько лет назад отметился запуском суперкомпьютера Condor Cluster на базе сотен игровых консолей Sony PlayStation 3. Какими расчётами в AFRL будет заниматься суперкомпьютер с «мозгами» не уточняется. Пока учёные будут изучать круг задач, решаемый подобными системами. Ожидается, что принятая на «вооружение» научным отделом ВВС США вычислительная система обеспечит дальнейшее приоритетное развитие технологий в этой стране.

Постоянный URL: http://servernews.ru/973232
29.06.2018 [13:00], Геннадий Детинич

Опубликованы финальные спецификации CCIX 1.0: разделяемый кеш и PCIe 4.0

Чуть больше двух лет назад в мае 2016 года семёрка ведущих компаний компьютерного сектора объявила о создании консорциума Cache Coherent Interconnect for Accelerators (CCIX, произносится как «see six»). В число организаторов консорциума вошли AMD, ARM, Huawei, IBM, Mellanox, Qualcomm и Xilinx, хотя платформа CCIX объявлена и развивается в рамках открытых решений Open Compute Project и вход свободен для всех. В основе платформы CCIX лежит дальнейшее развитие идеи согласованных (когерентных) вычислений вне зависимости от аппаратной реализации процессоров и ускорителей, будь то архитектура x86, ARM, IBM Power или нечто уникальное. Скрестить ежа и ужа — вот едва ли не буквальный смысл CCIX.

Варианты топологии CCIX

Варианты топологии CCIX

На днях консорциум сообщил, что подготовлены и представлены финальные спецификации CCIX первой версии. Это означает, что вскоре с поддержкой данной платформы на рынок может выйти первая совместимая продукция. По словам разработчиков, CCIX позволит организовать новый класс подсистем обмена данными с согласованием кеша с низкими задержками для следующих поколений облачных систем, искусственного интеллекта, больших данных, баз данных и других применений в инфраструктуре ЦОД. Следующая ступенька в производительности невозможна без эффективных гетерогенных (разнородных) вычислений, которые смешают в одном котле исполнение кода общего назначения и спецкода для ускорителей на базе GPU, FPGA, «умных» сетевых карт и энергонезависимой памяти.

Решение CCIX IP компании Synopsys

Решение CCIX IP компании Synopsys

Базовые спецификации CCIX Base Specification 1.0 описывают межчиповый и «бесшовный» обмен данными между вычислительными ресурсами (процессорными ядрами), ускорителями и памятью во всём её многообразии. Все эти подсистемы объединены разделяемой виртуальной памятью с согласованием кеша. В основе спецификаций CCIX 1.0, добавим, лежит архитектура PCI Express 4.0 и собственные наработки в области быстрой коррекции ошибок, что позволит по каждой линии обмениваться данными со скоростью до 25 Гбайт/с.

Тестовая платформа с поддержкой CCIX Synopsys на FPGA матрице

Тестовая платформа с поддержкой CCIX Synopsys на FPGA матрице

Но главное, конечно, не скорость обмена, хотя это важная составляющая CCIX. Главное — в создании программируемых и полностью автономных процессов по обмену данными в кешах процессоров и ускорителей, что реализуется с помощью новой парадигмы разделяемой виртуальной памяти для когерентного кеша. Это радикально упростит создание программ для платформ CCIX и обеспечит значительный прирост в ускорении работы гетерогенных платформ. Вместо механизма прямого доступа к памяти (DMA), со всеми его тонкостями для обмена данными, на платформе CCIX достаточно будет одного указателя. Причём обмен данными в кешах будет происходить без использования драйвера на уровне базового протокола CCIX. Ждём в готовой продукции. Кто первый, AMD, ARM или IBM?

Тестовый набор CCIX

Рабочая демо-система с неназванным CPU и FPGA, соединённых шиной CCIX

Рабочая демо-система с неназванным CPU и FPGA, соединённых шиной CCIX

Постоянный URL: http://servernews.ru/971947
08.05.2018 [13:00], Геннадий Детинич

Qualcomm планирует выйти из бизнеса по выпуску серверных процессоров

Ещё один разработчик собирается сойти с новой дистанции — покинуть зарождающийся рынок серверных платформ на архитектуре ARM. Причём не просто новичок, как, например, компания Calxeda, которая свернула разработки в 2014 году, а один из главных сторонников продвижения серверных решений на ARM — компания Qualcomm.

Как сообщает информагентство Bloomberg со ссылкой на анонимные источники внутри компании, в настоящий момент руководство Qualcomm зондирует почву на предмет выбора одного из вариантов: просто ликвидировать подразделение по разработке серверных процессоров или найти покупателя на этот вид деятельности. В любом случае, это окажет негативное влияние на сообщество сторонников серверных процессоров на ядрах ARM. Расцвет серверных платформ на архитектурах ARM ожидался не позже 2016 года. На дворе истекает первая половина 2018 года, а массовых решений в этой области как не было, так и нет.

Интересно, что прошло всего лишь чуть больше полугода после старта коммерческих поставок 10-нм 48-ядерных процессоров Qualcomm Centriq 2400. По словам разработчиков, процессоры Centriq 2400 по энергоэффективности и по показателю стоимости существенно опережали 28-ядерные модели процессоров Intel Xeon Platinum 8180. В ноябре компания Microsoft показала сервер на процессорах Qualcomm Centriq 2400 и явную заинтересованность в подобных решениях.

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

С тех пор ничего нового об использовании процессоров Centriq 2400 в каких-либо системах не сообщалось, а тишина в данном случае свидетельствует об отсутствии интереса к новинкам. Всё снова вернулось к x86-совместимым платформам Intel Xeon, тем более, что как раз прошлой осенью вышли первые серверные модели Xeon на архитектуре Skylake, и все дружно начали закупать проверенные временем решения.

Постоянный URL: http://servernews.ru/969391
26.04.2018 [15:49], Алексей Степин

Verne Global представила новый сервис hpcDIRECT

Компания Verne Global, известный производитель и поставщик решений для ЦОД и сферы супервычислений, анонсировала системы hpcDIRECT, главное назначение которых — работа в составе кластеров, задействованных в области вычислительной биологии и генетики. Новинки относятся к модному нынче классу «супервычисления как облачный сервис», и клиент может выбирать из многочисленных опций.

К примеру, в зависимости от задачи, Verne Global предлагает разные ускорители на базе графических процессоров, выделенные или разделяемые хранилища данных, а также гарантирует наличие скоростной сетевой среды. Типичная спецификация включает в себя 32 физических ядра с частотой 2,1 ГГц, 512 Гбайт оперативной памяти (16 Гбайт на ядро) и сетевое подключение InfiniBand FDR со скоростью 56 Гбит/с.

Решения hpcDIRECT устанавливаются в безопасном ЦОД, оптимизированном с учётом сферы супервычислений, и обслуживаются командой квалифицированных специалистов. Клиентам предоставляется настоящая вычислительная мощность без виртуализации; иными словами, процессорную производительность не приходится делить с другими заказчиками. Стоимость трёхлетней резервации мощностей стоит 0,03 евро за одно ядро в час, мгновенный доступ «по требованию» дороже — 0,07 евро. Подробности можно узнать на сайте сервиса по приведённой выше ссылке.

Постоянный URL: http://servernews.ru/968954
26.04.2018 [14:20], Андрей Крупин

Mail.Ru Group запустила сервис облачных вычислений на базе NVIDIA GPU

Компания Mail.Ru Group дополнила свою облачную B2B-инфраструктуру Mail.Ru Cloud Solutions (MCS) новым сервисом высокопроизводительных GPU-вычислений, предназначенным для решения задач, связанных с искусственным интеллектом и машинным обучением.

В основу нового сервиса положены  GPU-ускорители Tesla V100 с архитектурой NVIDIA Volta, производительность которых в задачах глубокого обучения достигает внушительных 125 терафлопс. Пользователи MCS могут заказать нужный объём вычислительных ресурсов с посекундной тарификацией для сокращения расходов и в случае необходимости оперативно масштабировать облачную инфраструктуру.

«Распределённые вычисления — задача непростая. Не имея прямого доступа к вычислительным мощностям, разработчики не могут быстро проверить свою идею, что тормозит развитие IT в России. Mail.Ru Group стремится сделать современные технологии максимально доступными. С запуском облачных вычислений на GPU любой желающий может взять в аренду современные графические процессоры и проверить свои гипотезы. Мы искренне надеемся, что доступ к возможностям высокопроизводительных GPU NVIDIA в облаке даст плоды в виде новых технологических стартапов», — прокомментировал запуск нового продукта руководитель направления облачных и бизнес-сервисов Mail.Ru Group Егор Ганин.

Получить доступ к системе облачных вычислений Mail.Ru Cloud Solutions на базе NVIDIA GPU можно по ссылке mcs.mail.ru/gpu.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/968993
24.04.2018 [09:27], Алексей Степин

Экосистема OpenPOWER готова к массовому развёртыванию

Буквально на днях мы рассказывали читателям о первых тестах платформы POWER9. Результаты оказались неоднозначными, но это можно списать на отсутствие оптимизации ПО с учётом особенностей и возможностей новых процессоров. Важно другое: лёд тронулся, и инициатива OpenPOWER начинает давать первые плоды на рынке, причём не только в виде серверов и кластерных систем. Хотя последнее тоже очень важно, ведь системами на базе POWER9 заинтересовалась Google, да и суперкомпьютер Summit внушает уважение своими параметрами. Крис Салливан (Chris Sullivan), заместитель директора отдела биовычислений (Center for Genome Research and Biocomputing, CRGB) университета штата Орегон, считает портирование приложений на платформу POWER9 достаточно лёгкой задачей — за один‒два месяца удалось пересобрать около 2000 приложений, тогда как количество уже имеющихся программ для x86 составляет около 4000.

Главным признаком того, что экосистема OpenPOWER готова к масштабному развёртыванию, является тот факт, что IBM решила всерьёз поддержать Linux и стандарт little endian, сперва в процессорах POWER8, а затем и в POWER9. Особенно важно последнее, так как порядок записи байтов является фундаментальным: код, созданный на системе, работающей в режиме big-endian (BE, от старшего к младшему), без подготовки в принципе не заработает на платформе, где основополагающим режимом является little-endian (LE, от младшего к старшему). Первый режим традиционно использовался в больших системах IBM и многих других процессорных архитектурах, второй же прочно прижился в среде x86 и по мере роста её популярности завоевал и научно-исследовательский сектор. Но теперь запуск имеющихся приложений, многие из которых не имеют аналогов, стал возможен, поскольку новые системы IBM поддерживают оба режима. На самом деле с приходом POWER8 программное обеспечение «внутри» работает в режиме big-endian (BE), но в LE-приложениях порядок данных меняется автоматически, что прозрачно для операционной системы, приложений, и, разумеется, самого пользователя.

Компиляторы, такие как XLC или GCC, могут компилировать код в обычном режиме PPC или же в режиме PPCLE. Всё это облегчает поддержку такой распространённой в научном мире ОС, как Linux. Ещё в ноябре прошлого года Red Hat анонсировала поддержку LE для POWER9 и с тех пор интерес к системам IBM POWER с поддержкой LE стабильно растёт. Это не может не радовать всех, кто связан с инициативой OpenPOWER, а также энтузиастов, уставших от засилья x86. Ведь такой ход со стороны IBM позволит использовать новшества вроде NVLink, OpenCAPI или PCI Express 4.0 в привычном Linux-окружении. Некоторые сложности создаёт оптимизация старого ПО с учётом SSE или SSE2, но в целом проблема решаема, считают представители IBM. Конечной целью является привлечение в ряды сторонников новой платформы крупных пользователей, таких как CGRB (Center for Genome Research and Biocomputing). К примеру, CRGB запускает порядка 20 тысяч задач в день, имеет в своём распоряжении 5000 процессоров, более четырёх петабайт хранилищ данных и генерирует порядка 4‒9 терабайт данных в день.

Постоянный URL: http://servernews.ru/968781
Система Orphus