Материалы по тегу: супервычисления

02.04.2019 [17:42], Сергей Юртайкин

«Тинькофф» представил свой суперкомпьютер

Финансовая группа «Тинькофф» сообщила о создании собственного суперкомпьютера, который получил название «Колмогоров». Он сможет решать коммерческие задачи, связанные с искусственным интеллектом и машинным обучением (МО).

В частности, вычислительная система будет использоваться для распределённого обучения нейросетевых моделей для распознавания и синтеза речи, обработки естественного языка, а также для обучения классических моделей МО для задач скоринга, привлечения и предиктивной аналитики.

«Колмогоров» включает 10 вычислительных серверов, оснащённых ускорителями NVIDIA Tesla V100 со специализированными тензорными ядрами. Вычислительные узлы суперкомпьютера объединены высокоскоростной 100-Гбит сетью с поддержкой технологии RoCE (RDMA over Converged Ethernet).

Производительность кластера в тесте Linpack составила 418,9 терафлопс. При этом пиковая производительность может достигать 658,5 терафлопс при вычислениях с плавающей точкой двойной точности (FP64).

«Колмогоров» занял 8-е место в рейтинге TOP 50 суперкомпьютеров России и СНГ, что соответствует самой высокой позиции среди коммерческих компаний, включенных в список.

«Данная платформа создана в рамках стратегии AI First, при которой все продукты, выпускаемые нами на рынок, содержат встроенный искусственный интеллект. Цель данной платформы — развивать культуру работы с данными, снизить порог входа в эту область для наших команд и сделать машинное обучение доступным для каждого аналитика и разработчика "Тинькофф"», — сообщил IT-директор группы Вячеслав Цыганов.

Постоянный URL: http://servernews.ru/985169
02.04.2019 [13:35], Андрей Крупин

«Ломоносов-2» продолжает удерживать лидерство в рейтинге самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённого рейтинга TOP 50 самых мощных компьютеров СНГ. Объявление новой редакции списка состоялось на международной  научной конференции «Параллельные вычислительные технологии (ПаВТ) 2019», проводимой Министерством науки и высшего образования РФ и Суперкомпьютерным консорциумом университетов России при поддержке Российского фонда фундаментальных исследований.

Новая, тридцатая по счету редакция списка TOP 50 продемонстрировала незначительный рост производительности суперкомпьютеров СНГ. Суммарная производительность систем в тесте Linpack за полгода выросла с 11,2 до 12,4 петафлопс (квадриллионов операций с плавающей запятой в секунду). Суммарная пиковая производительность составила 20,2 петафлопс (18,4 петафлопс в предыдущей редакции рейтинга). Всего за полгода в списке появилось четыре новых суперкомпьютера и произошло обновление ещё двух систем.

Лидером списка уже восьмой раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

На шестое место списка попал новый суперкомпьютер производства Dell, ИСП РАН и Avilex, установленный в Национальном исследовательском университете «Высшая школа экономики», чья производительность по данным теста Linpack составила 568,5 терафлопс. На восьмой позиции засветился вычислительный комплекс «Колмогоров» производства NVIDIA и Mellanox, установленный в компании «Тинькофф Банк» и ставший самым производительным суперкомпьютером в финансовом секторе для задач искусственного интеллекта, чья производительность на тесте Linpack составила 418,9 терафлопс. Другие изменения систем списка остались за пределами первой десятки рейтинга.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, увеличилось с 20 до 22, а количество систем с ускорителями Intel Xeon Phi на борту сократилось с девяти до восьми. Число вычислительных комплексов на базе InfiniBand увеличилось с 32 до 35, при этом количество суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, осталось равным 6. Количество систем в списке на основе технологии Intel Omni-Path уменьшилось с шести до пяти. Количество систем с интерконнектом Aries осталось равным 3. В данную редакцию списка входит также одна система с коммуникационной сетью «Ангара».

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 21 до 23; количество систем, ориентированных на конкретные прикладные исследования, осталось равным 13; число систем, используемых в промышленности, уменьшилось с 4 до 3. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следуют компании РСК (12 систем в рейтинге), «Т-Платформы» (11), NVIDIA (5) и IBM с одним вычислительным комплексом.

С полной версией обнародованного документа можно ознакомиться по адресу top50.supercomputers.ru. Следующая, тридцать первая редакция списка TOP 50 самых мощных компьютеров СНГ будет объявлена осенью 2019 года на международной конференции Russian Supercomputing Days.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/985160
13.03.2019 [19:00], Геннадий Детинич

Fujitsu представила второе поколение «не-фон-неймановского» компьютера Digital Annealer

Компания Fujitsu одна из немногих, кто приблизился к коммерческой эксплуатации квантовых методов в вычислениях. Более того, в эту среду Fujitsu анонсировала скорую доступность второго поколения фирменных вычислительных платформ с использованием квантовых методов вычислений. Второе поколение архитектуры Digital Annealer, как компания называет свою разработку, будет показано на выставке Hannover Messe 2019 в Ганновере с 1 по 5 апреля 2019 года, после чего начнётся её коммерческая эксплуатация. Первое поколение Fujitsu Digital Annealer, уточним, поступило в эксплуатацию в мае 2018 года.

Теперь поясним. Процессор Digital Annealing Unit (DAU) выпускается в обычном полупроводниковом КМОП техпроцессе. Но DAU не использует архитектуру фон-неймановской логики. Разрядность первого поколения Fujitsu DAU составляла 1024 бит, где каждый бит был связан с другим. Только этот момент роднит разработку Fujitsu с квантовыми вычислителями. У «квантового» процессора Fujitsu нет никаких кубитов и, следовательно, состояния суперпозиции для каждого из них. Зато система спокойно работает при комнатной температуре и не нуждается в охлаждении до абсолютного нуля.

Подчеркнём эти моменты. Fujitsu DAU ― это кремниевый чип с архитектурой, ориентированной для выполнения целого спектра операций по оптимизации, свойственным квантовым процессам. Первое поколение Fujitsu DAU вообще выпускалось на матрицах ПЛИС. Что собой представляет второе поколение процессоров, компания пока не раскрывает. Впрочем, Fujitsu сообщила, что второе поколение процессоров повысило разрядность до 8192 бит. С точки зрения квантовых вычислений это в 100 раз повысило вычислительные возможности платформы.

Как это работает. Метод Digital Annealing ― это так называемый квантовый отжиг или квантовая нормализация. Это как в печке. Зажёг и ждёшь, пока всё сгорит и остынет. Внизу останется то, что не горит ― имеет наименьшее энергетическое состояние. В математике ― это нахождение глобального минимума среди массы других минимумов. Данные обрабатываются параллельно и там, где они находятся без перемещения из памяти в процессор и обратно либо с минимальным перемещением в области одного массива.

С помощью квантового отжига практически мгновенно можно решать задачи по оптимизации маршрута среди множества объектов, которые обязательно необходимо посетить, задачи по оптимизации портфеля акций с минимальным риском размещения инвестиций, поиск молекулярного подобия при разработке лекарств и многое другое, на что привычным компьютерам и суперкомпьютерам потребуется масса вычислительных ресурсов и времени. Подробнее о возможностях на русском можно прочесть на сайте Fujitsu. Мы же добавим, что сервис Digital Annealing доступен по подписке в облачных сервисах компании либо в локальных сервисах с установкой оборудования в обычные серверные стойки.

Постоянный URL: http://servernews.ru/984174
23.02.2019 [20:20], Геннадий Детинич

Анонс серверных платформ ARM Neoverse E1 и N1: шах и мат, Intel

Уж извините за столь кричащий заголовок, но ARM давно мечтает сказать нечто подобное в отношении серверных платформ Intel. Пока получается не очень. Как говорят в самой ARM, не вышло с первого раза, попробуем во второй. Не получится во второй раз, на третий точно всё будет как надо. А сейчас и повод-то отличный! Разработчики оригинальных ядер ARM из одноимённой компании ударили сразу с двух направлений: по масштабируемым сетевым платформам (Neoverse E1) и по масштабируемым серверным (Neoverse N1). Очевидно, что пока «мата» в этой партии явно не будет. Intel крепко держится за серверные платформы и одновременно тянет руки к периферийным как в виде распределённых вычислительных ресурсов в составе базовых станций, так и в виде обычных периферийных ЦОД. Тем не менее, шансы объявить Intel «шах» у ARM определённо есть.

Рассчитанную на несколько лет вперёд стратегию Neoverse компания ARM представила в середине октября прошлого года. Она предполагает три крупных этапа, в ходе которых будут выходить доступные для широкого лицензирования 64-битные ядра ARM Ares (7 нм), Zeus (7 и 5 нм) и Poseidon (5 нм). Планируется, что каждый год производительность решений будет возрастать на 30 %. Сама компания ARM, напомним, не выпускает процессоры и SoC, а лишь продаёт лицензии на ядра и архитектуру, которые клиенты компании обустраивают нужными им контроллерами и интерфейсами. У ARM настолько многочисленная армия клиентов, что она ожидает буквально цунами из сотен и тысяч миллиардов ядер в год уже в недалёком будущем. Когда-нибудь в этот водоворот ядер будут вовлечены и серверные платформы, а затем количество перейдёт в качество.

Разработка и анонс ядер Neoverse N1 ― это явление народу 7-нм ядер Ares. Процессоры могут нести от 4 до 128 ядер, объединённых согласованной ячеистой сетью. Платформа N1 может служить периферийным компьютером с 8-ядерным процессором с потреблением менее 20 Вт, а может стать сервером в ЦОД на 128-ядерных процессорах с потреблением до 200 Вт. Степень масштабируемости должна впечатлять. Кроме этого, как сообщают в ARM, производительность ядер N1 на облачных нагрузках в 2,5 раза выше, чем у 16-нм ядер предыдущего поколения Cosmos (Cortex-A72, A75 и A53). Кстати, прошлой осенью на платформе Cosmos компания Amazon представила фирменный процессор Graviton.

Производительность N1 при обработке целочисленных значений оказывается на 60 % больше, чем на ядрах Cortex-A72 Cosmos. При этом энергоэффективность ядер N1 также на 30 % выше, чем у ядер Cortex-A72. Как поясняют разработчики, платформа Neoverse N1 построена на «таких инфраструктурных расширениях, как виртуализация серверного класса, современная поддержка сервисов удалённого доступа, управление питанием и производительностью и профилями системного уровня».

Когерентная ячеистая сеть (Coherent Mesh Network, CMN), о которой выше уже говорилось, разработана с учётом высокого соответствия вычислительным возможностям ядер. По словам ARM, сеть обменивается с ядрами такой служебной информацией, которая позволяет устанавливать объём загрузки в память данных для упреждающей выборки, распределяет кеш между ядрами и определяет, как он может быть использован, а также делает много других вещей, которые способствуют оптимизации вычислений.

Интересно отметить, что в составе процессоров на платформе Neoverse N1 может быть существенно больше 128 ядер, но с оптимальной работой возникнут проблемы. Точнее, вычислительная производительность упрётся в пропускную способность памяти. Так, ARM рекомендует для CPU с числом ядер от 64 до 96 использовать 8-канальный контроллер DDR4, а для 96–128 ядерных версий ― контроллер памяти DDR5.

Платформа Neoverse E1 ― это решение для сетевых шлюзов, коммутаторов и сетевых узлов, которое, например, облегчит переход от сетей 4G к сетям 5G с их возросшей требовательностью к каналам передачи данных. Так, Neoverse E1 обещает рост пропускной способности в 2,7 раза, увеличение эффективности при передаче данных в 2,4 раза, а также более чем 2-кратный рост вычислительной мощности по сравнению с предыдущими платформами (ядрами). С масштабируемостью ядер E1 тоже всё в порядке, они позволят создать решение как для базовых станций начального уровня с потреблением менее 35 Вт, так и маршрутизатор с пропускной способностью в сотни гигабайт в секунду.

Что же, ARM расставила на доске новые фигуры. Будет интересно узнать, кто же начнёт игру?

Постоянный URL: http://servernews.ru/983268
05.12.2018 [18:18], Геннадий Детинич

Western Digital представила процессор SweRV Core для ускорителей по обработке данных

В какой-то мере компания Western Digital выполнила своё прошлогоднее обещание — выпустить процессор, ориентированный на обработку данных во всём диапазоне: от периферийных устройств до ЦОД. Компания представила процессор SweRV Core на открытой архитектуре (системе команд) RISC-V с поддержкой когерентности кеша, тестовый пакет SweRV Instruction Set Simulator (ISS) для моделирования поведения работы процессоров и протокол OmniXtend для инкапсулирования команд и данных SweRV для передачи фактически по любому физическому уровню с поддержкой Ethernet (так сказать, открытый интерфейс). Всё это, повторим, использует открытые стандарты и, за исключением аппаратной части, уже доступно для загрузки на сервисах GitHub.

Поставки процессоров SweRV Core начнутся в первом квартале 2019 года. Решение будет выпускаться с использованием 28-нм техпроцесса. Кто выпускает, пока неизвестно. Кстати, неизвестно также, кто разработал SweRV Core. Год назад была информация, что в разработке RISC-V-процессоров компании Western Digital помогает компания Esperanto Technologies Дэвида (Дейва) Дитцеля. Сегодня же, когда Western Digital сообщила о спецификациях SweRV Core, разработка стала напоминать модификацию платформы SiFive Freedom E300, которую та готова была подгонять под любые капризы клиента.

Итак, SweRV Core — это 32-разрядный двухконвейерный суперскалярный процессор с упорядоченным исполнением команд. Каждый конвейер имеет 9 уровней, что позволяет загружать и исполнять несколько команд одновременно. Частота решения — до 1,8 ГГц. В бенчмарке CoreMark условное сравнение процессора WD SweRV Core с актуальными архитектурами и решениями (не опирающееся на реальное тестирование) показало, что процессор может набирать значение 4,9 CoreMark/МГц — сравнимо с решениями на архитектурах MIPS и ARM или даже лучше них.

В своих продуктах Western Digital будет использовать SweRV Core для встраиваемых решений, включая контроллеры для флеш-памяти и SSD, а сообществу разработчиков предлагает задействовать SweRV Core для разного рода устройств с прицелом на обработку больших и быстрых данных, данных IoT, для платформ по защите данных, управления в промышленности и в других областях. По мнению Western Digital, процессоры SweRV Core с открытой системой команд и открытыми протоколами идеально подходят для создания специализированных ускорителей для обработки данных с поддержкой когерентности кеша.

Постоянный URL: http://servernews.ru/979190
22.11.2018 [15:44], Геннадий Детинич

В Китае региональные ЦОД загружены на половину мощности

К известной проблеме в Китае с городами-призраками — пустующими домами и кварталами новых городов, где никто не жил и не живёт, — добавилась проблема недостаточной загрузки региональных центров по обработке данных.

Согласно обнародованным данным Министерства промышленности и информационных технологий (Ministry of Industry and Information Technology, MIIT) и Министерства финансов Китая, возможности ЦОД в крупных городах на востоке, западе и северо-востоке страны превышены по всем параметрам, тогда как потребность в мощностях удвоилась и не может быть удовлетворена на месте. Поэтому по установленной правительственной программе Китая, некоторое время назад в регионах начали возводить ЦОД для разгрузки центров с побережья.

Как водится, планы и реальное положение дел начали расходиться. Уже построенные в небольших городах на материковой части Китая ЦОД в большинстве оказались загруженными только на половину своих возможностей. Чтобы поощрить столичные компании переводить нечувствительные к большим задержкам данные в регионы, власти Пекина, например, ужесточили экологические требования к работе ЦОД в пределах столицы. Тем более, что вычислительных ресурсов ЦОД в Пекине не хватает на удовлетворение 19 % запросов.

Пока ситуация развивается по не самому удачному сценарию или, если смягчить выражения, нелинейно. Аналитики опасаются, что на ИТ-рынке Китая может возникнуть пузырь, который приведёт к расшатыванию экономики этой страны. До сих пор всё развивалось красиво и динамично, тогда как в итоге деньги окажутся выброшенными на ветер, и рынок свернётся. Региональные власти только в этом году утроили средства, отпущенные на создание локальных ЦОД, так что пузырь может выйти немаленьким с серьёзными последствиями после взрыва.

Постоянный URL: http://servernews.ru/978581
16.11.2018 [15:45], Андрей Крупин

5 самых мощных российских суперкомпьютеров (фото)

Иногда лучше один раз увидеть, чем сто раз услышать. Представляем подборку фотографий самых мощных суперкомпьютеров России, входящих в пятёрку лидеров списка TOP 50 высокопроизводительных систем СНГ.

«Ломоносов-2». Вычислительный комплекс производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Пиковая производительность суперкомпьютера составляет 4,9 петафлопс, производительность по данным теста Linpack достигает 2,5 петафлопс.

Суперкомпьютер Росгидромета. Машина производства компаний «T-Платформы» и Cray, установленная в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность по Linpack — 1,2 петафлопс.

«Ломоносов». Система разработки компании «Т-Платформы». Развёрнута в МГУ имени М.В. Ломоносова и по данным теста Linpack демонстрирует производительность в 901,9 терафлопс.

Курчатовский вычислительный комплекс. Базируется в национальном исследовательском центре «Курчатовский институт» и характеризуется производительностью в 755,5 терафлопс (по данным Linpack). Является совместной разработкой НИЦ «Курчатовский институт» и компаний Supermicro, «Борлас», «Т-Платформы».

Вычислительная система «Политехник — РСК Торнадо». Суперкомпьютер разработки группы компаний РСК, установленный в суперкомпьютерном центре Санкт-Петербургского политехнического университета. Производительность по Linpack — 715,9 терафлопс.

Ознакомится с другими входящими в TOP 50 российскими суперкомпьютерными системами можно по ссылке top50.parallel.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/978301
13.11.2018 [16:06], Геннадий Детинич

Western Digital предлагает расширять оперативную память массивами SSD

Для зарождающегося рынка решений и услуг «вычислений в памяти» (in-memory computing) компания Western Digital разработала семейство накопителей Ultrastar DC ME200 Memory Extension Drive. Подчеркнём, в наименовании новинки вы не увидите привычной аббревиатуры SSD. С точки зрения Western Digital — это именно «расширитель» ОЗУ, а не привычное всем устройство для долговременного хранения данных. Внешне новинки невозможно отличить от SSD в исполнении PCIe-адаптера или накопителя в форм-фактре U.2. Но логика работы накопителей Memory Extension Drive совсем другая и требует иного подхода со стороны разработчиков программ и операционных систем.

В компании Western Digital заявляют о совместимости Memory Extension Drive с Linux 64-bit OS, RHEL 6.5, 6.6, 6.7, 6.8, 6.9, 7.0, 7.1, 7.2, 7.3, 7.4, SLES 11-SP4, 12, 12-SP1, 12-SP2, Fedora Core версии от 4 до 27, Open SuSe версий 10 и 11, Ubuntu Server версий от 16.04 до 17.10 и Debian 9.5.0. Драйверы и утилиты создают платформу для адресации к виртуальной программно-конфигурируемой памяти, где нет различия между модулями DRAM и SSD с поддержкой протокола NVMe. Тем самым условно сколь угодно большой массив данных можно загрузить и обработать в памяти, где для программного обеспечения нет различия между модулями DRAM и накопителями SSD.

Для того, чтобы накопители Memory Extension Drive работали с производительностью, близкой к производительности оперативной памяти, а в ином случае весь этот огород не имеет смысла, разработчик задействовал свыше 20 алгоритмов кеширования, предсказания ветвлений и другие механизмы для сглаживания проблем, связанных с задержками обращения к SSD. При этом Western Digital настаивает, что проблему стирания границы между SSD и DRAM в основном должны решать специальные алгоритмы машинного обучения. В одиночку компания не потянет весь круг задач и призывает сообщество развивать программную инфраструктуру для накопителей Memory Extension Drive.

Как уверены в компании, накопители Memory Extension Drive хорошо подходят для решения следующих задач: для сетевого журналируемого хранилища данных Redis, для сервиса кеширования данных Memcached в оперативной памяти на основе хеш-таблицы, для баз данных In-Memory, для хранилищ данных, для IoT-платформ, для потоковой аналитики, для Apache (Spark, Storm, Kafka), для распределённых баз в памяти, для приложений с кешированием, для распределённого контента (CDN), для услуг SaaS, для аналитики как сервиса, AI/ML и сервисов с массивным журналированием.

На момент анонса компания поставляет избранным клиентам накопители Ultrastar DC ME200 Memory Extension Drive в виде моделей объёмом 1 Тбайт, 2 Тбайт и 4 Тбайт. Полка высотой 1U вместит достаточно накопителей в форм-факторе U.2, чтобы предоставить пользователю 24 Тбайт «почти что памяти DRAM». Насколько будут велики потери от работы такой виртуальной памяти? По данным WD, если взять за чистую производительность обращение к 786 Гбайт DRAM, скорость работы которой оценивается на уровне 1,080 млн транзакций в секунду, то микс 3:1 (576 Гбайт Ultrastar и 192 Гбайт DRAM) просядет до 91 % производительности или до 983 тыс. транзакций, а при соотношении 7:1 (672 Гбайт Ultrastar и 96 Гбайт DRAM) производительность снизится до 85 % или 918 тыс. транзакций в секунду. Достаточно интересно, но как за это проголосует индустрия, пока непонятно.

Постоянный URL: http://servernews.ru/978113
25.09.2018 [13:36], Андрей Крупин

Опубликована новая редакция рейтинга TOP 50 самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённой редакции списка TOP 50 самых мощных компьютеров СНГ. Объявление новой редакции списка состоялось на проходящей в Москве международной конференции Russian Supercomputing Days, посвящённой развитию и применению суперкомпьютерных технологий в различных областях науки и техники.

Новая, двадцать девятая по счету редакция списка TOP 50 продемонстрировала незначительный рост производительности суперкомпьютеров СНГ. Суммарная производительность систем в тесте Linpack за полгода выросла с 10,7 до 11,2 петафлопс (квадриллионов операций с плавающей запятой в секунду). Суммарная пиковая производительность составила 18,4 петафлопс (17,4 петафлопс в предыдущей редакции рейтинга). Всего за полгода в списке появилось три новых суперкомпьютера и произошло обновление ещё двух систем.

Лидером списка уже восьмой раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, увеличилось с 18 до 20, а количество систем с ускорителями Intel Xeon Phi на борту осталось равным девяти. Число вычислительных комплексов на базе InfiniBand увеличилось с 30 до 32, при этом количество суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, уменьшилось с 8 до 6. Количество систем в списке на основе технологии Intel Omni-Path уменьшилось с семи до шести.

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 18 до 21; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 14 до 13; число систем, используемых в промышленности, осталось равным четырём; число систем в финансовой области сократилось с трёх до единицы. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следуют компании РСК (12 систем в рейтинге), «Т-Платформы» (11), IBM (3) и NVIDIA с четырьмя вычислительным комплексами.

С полной версией обнародованного документа можно ознакомиться по адресу top50.supercomputers.ru. Следующая, тридцатая по счёту редакция списка TOP 50 самых мощных компьютеров СНГ будет объявлена 2 апреля 2019 года на международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2019».

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/975910
04.08.2018 [10:48], Геннадий Детинич

PLDA и HPE будут совместно разрабатывать блоки архитектуры Gen-Z

Как известно, в феврале опубликована финальная версия спецификации стандарта Gen-Z Core Specification 1.0. Завершение работ над спецификацией означает приближение выхода совместимых архитектур, решений и устройств. Стандарт Gen-Z относится к открытым разработкам, что подразумевает снижение порога стоимости для желающих принять участие в развитии данной экосистемы. К сожалению, не все компании придерживаются концепции открытых компьютерных архитектур и протоколов. Компании Intel и NVIDIA, например, так и не стали участниками консорциума Gen-Z, который в 2016 году организовали компании AMD, ARM, Broadcom, Cray, Dell EMC, Hewlett Packard Enterprise, Huawei, IDT, Micron, Samsung, SK Hynix, и Xilinx.

Память станет «центром вселенной» для интерфейса Gen-Z

Память станет «центром вселенной» для интерфейса Gen-Z

Напомним, стандарт Gen-Z призван изменить парадигму вычислительных платформ и уйти от ориентированной на процессоры архитектуры. Вместо этого должны появиться архитектуры, ориентированные на память (Memory-Driven Computing architecture). Это уберёт иерархию в строении вычислительных систем, что снизит задержки при обращении к памяти каждого блока в платформе, отвечающего за вычисления — процессора, ускорителя или контроллера.

Чтобы массе независимых разработчиков решений с использованием элементов архитектуры Gen-Z стало проще, а продукция появилась бы на рынке быстрее, необходимо создать множество совместимых базовых архитектурных решений: стандартных интерфейсов ввода/вывода, сигнальных и управляющих интерфейсов для работы с памятью, процессорами и ускорителями и прочего. Разработкой подобной интеллектуальной собственности совместно будут заниматься компании Hewlett Packard Enterprise (HPE) и PLDA.

Одна из последних реализаций проекта HPE The Machine

Одна из последних реализаций проекта HPE The Machine

У компании PLDA богатый опыт в разработке полупроводниковых IP-блоков для интеграции в сторонние чипы, тогда как компания HPE может считаться специалистом по компьютерным платформам и даже архитектурам. Партнёры уверены, что совместная деятельность приведёт к появлению IP-решений, которые найдут применение как в периферийных устройствах, так и в облачных платформах. Причём у компании HPE есть свой кровный интерес в партнёрстве с PLDA — это продолжение концептуальной разработки платформы The Machine. Данный проект прошёл уже множество стадий и пока далёк от завершения. Но так совпало, что он тоже Memory-центрический, так что HPE ждёт от партнёрства с PLDA большего, чем простого распространения лицензий на IP-блоки.

Постоянный URL: http://servernews.ru/973528
Система Orphus