Материалы по тегу: супервычисления

20.08.2019 [18:08], Геннадий Детинич

Стартуют поставки памяти UPMEM со встроенными процессорами

На конференции Hot Chips 31 французская компания UPMEM объявила о начале опытных поставок памяти со встроенными процессорами. Модули памяти в форм-факторе DDR4 RDIMM и RDIMM ECC представлены внешне обычными 8-Гбайт планками DDR4-2400 из 16 и, соответственно, 18 чипов объёмом 4 Гбит DDR4-2400 каждый. Но каждый из них ― это не просто кристалл памяти. Внутри каждой микросхемы находятся несколько интегрированных процессоров DPU (data processing unit), каждый из которых адресуется к 64 Мбайт памяти. Итого, в каждом 4-Гбит чипе находятся по 8 DPU. Всего 8-Гбайт модуль DDR4 RDIMM содержит 128 DPU.

Истончник изображения - AnandTech

Источник изображения ― AnandTech

Данное новшество, уверяют разработчики, значительно ускорит обработку данных, повысит эффективность расчётов и снизит стоимость владения вычислительными системами. Всё дело в том, что простые операции над данными будут выполняться прямо в памяти ― там, где они хранятся. Это освободит как центральный процессор, так и всю цепочку по извлечению, пересылке, кешированию, обработке и обратной отсылке данных. Модули памяти UPMEM будут потреблять в два раза больше обычных модулей без встроенных процессоров, но в пересчёте на энергозатраты по обработке каждого запроса данных они окажутся в 10 раз менее затратными по потреблению и в 20 раз производительнее с точки зрения работы приложений.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Процессоры DPU имеют простую 32-битную архитектуру и рассчитаны на простые действия с данными типа  несложных инструкций смещения со сложением, смещения с заменой, циклические сдвиги и других. Модули UPMEM можно устанавливать в обычные материнские платы со штатными разъёмами под память RDIMM.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Необходимо лишь «слегка», как утверждают в UPMEM, модифицировать программы (библиотеки C) несколькими сотнями строк кода, с чем дюжина программистов может справиться за пару-тройку недель. Зато на выходе будет платформа, весьма эффективно перерабатывающая большие данные.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Разработками UPMEM активно интересуются инвесторы. Например, в компанию UPMEM вложила деньги и силы корпорация Western Digital. Как производитель флеш-памяти, WDC интересуется решениями, которые открывают новые горизонты для систем хранения. Модули UPMEM, как нетрудно понять, можно выпустить также с памятью NAND с интегрированными DPU, что наверняка интересует Western Digital и не только. Пока же UPMEM собирается продолжать совершенствовать чипы оперативной памяти. Следующим шагом обещает стать выпуск 128-Гбайт модулей RDIMM с 2048 процессорами DPU в составе каждого. Кстати, потребление 8-Гбайт модуля уже критическое для слота памяти (свыше 20 Вт). Поэтому разработчики рассматривают также иные варианты исполнения массивов памяти со встроенными процессорами.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Постоянный URL: http://servernews.ru/992738
10.06.2019 [20:00], Сергей Тверье

IonQ бросает вызов Google, IBM и Rigetti в квантовых системах

До сих пор основную шумиху вокруг квантовых вычислений создавали уже состоявшиеся акулы компьютерного бизнеса: производители серверов и микросхем, крупные поставщики облачных услуг. Их усилия в основном были сосредоточены на полупроводниковых и сверхпроводящих технологиях. И вот появился IonQ — стартап, использующий ионные ловушки в квантовых вычислениях. IonQ заявляет, что при таком подходе практически нет необходимости в исправлении квантовых ошибок и что запутывание большого числа кубитов намного проще, чем у конкурентов, а базовая технология является достаточного тривиальной, недорогой и компактной в реализации. И действительно, большая часть квантовой системы IonQ основана на давно известных технологиях, применяемых, например, в атомных часах.

Квантовый чип от IonQ с наложенным изображением ионов

Квантовый чип от IonQ с наложенным изображением ионов

Ловушки для ионов — относительно новая технология в мире квантовых компьютеров, хотя теоретические исследования начались почти четверть века назад. Даже Национальный научный фонд США создал проект по изучению данной технологии всего год назад. Основатель компании является одним из пионеров в области технологий с ловушками для ионов и соавтором известной статьи (2016 год) о данной технологии. На текущий момент сотрудники IonQ используют три 11-кубитные системы. Все кубиты полностью связаны, что позволяет создавать двухкубитовые затворы на любой из пар в составе системы. Правда, сама компания в прошлом году предпочла заявить о мировом рекорде, поставленном на такой сборке, посчитав однокубитовые затворы (79). Доступ к трём этим машинам по-прежнему ограничен и находится в стадии бета-тестирования, но публичный доступ через Интернет, возможно, появится в конце этого года. Инвесторами компании выступают New Enterprise Associates, GV (ранее Google Ventures) и Amazon AWS. 

IonQ хочет как можно скорее добиться коммерческого успеха, которого в квантовых вычислениях до сих пор не достигла ни одна из компаний, поскольку необходимое оборудование и экосистема у всех находятся в основном на стадии разработки. На этой неделе компания рассказала порталу HPCwire о технологиях и планах по развитию IonQ. Интересно, что большая часть разговора была направлена на то, чтобы доказать, что технология ловушек для ионов значительно отличается от подхода IBM, Google и Rigetti Computing — полупроводники + сверхпроводимость — и даже превосходит их. 

В камере сверхвысокого вакуума мы динамически разворачиваем и улавливаем атомные кубиты на кремниевом чипе, используя электромагнитные поля. Это позволяет нашим квантовым ядрам настраивать свою конфигурацию в программном обеспечении и масштабировать для обработки потенциально сотен кубитов без нового оборудования.

IonQ используют вакуумные камеры, где они динамически разворачивают и фиксируют атомные кубиты на кремниевом чипе, используя электромагнитное поле (Изображение: ionq.co)

Сегодня самая большая проблема с квантовыми компьютерами состоит в том, что они «шумят». Кубиты являются крайне чувствительными и неустойчивыми объектами, которые «разваливаются», когда им мешает практически что угодно (тепло, вибрация, рассеянное электромагнитное воздействие и т.д.). Построение систем для устранения возможных помех является важной задачей для систем на основе полупроводниковых сверхпроводящих кубитов. Эти системы требуют сложных подходов для исправления квантовых ошибок и до сих пор в значительной степени остаются достаточно непрактичными. Другая не менее сложная проблема — придумать, как контролируемо запутать большое количество кубитов. Не забывайте, что именно запутанность даёт квантовым вычислениям реальную силу. IonQ утверждает, что технология ловушек для ионов значительно лучше справляется с этими проблемами, чем сверхпроводящие подходы на основе полупроводников. 

IonQ вычисляются с использованием множества идентичных атомов иттербия. Как и в атомных часах иттербия, изоляция отдельных атомов уменьшает ошибку и улучшает стабильность.

Квантовая система IonQ использует множество идентичных ионов иттербия. Как и в атомных часах с иттербием, технология изоляции отдельных ионов уменьшает количество ошибок и улучшает стабильность (Изображение: ionq.co)

В ионных ловушках используются ионизированные молекулы с соответствующей валентной структурой в качестве регистров кубита. IonQ использует ионы Yb+ (иттербия). Ионы — идентичные и предсказуемые в своём поведении — удобны в использовании. Внешние электроны могут быть легко «накачаны» до более высокого энергетического уровня и оставаться в этом состоянии достаточно долго по меркам квантового мира. В зависимости от своего состояния молекула представляет собой ноль, единицу или нечто среднее. Подобные ионы легко генерировать, вставлять в ионную ловушку и удерживать их там в устойчивом состоянии. Взаимодействие с ними осуществляется с помощью внешних лазеров, которые переводят атомы в заданное состояние. В отличие от сверхпроводящих квантовых компьютеров на основе полупроводников, которые, помимо всего прочего, нуждаются к специальных системах охлаждения, системы с ионными ловушками дешевле, их легче создавать и эксплуатировать.

Точные лазеры хранят информацию о наших атомных кубитах, выполняют логические операции и соединяют их вместе в квантовом процессе, называемом запутанностью. Система IonQ без фиксированных проводов может соединять любые два кубита с помощью одной лазерной операции, что повышает точность.

Для считывания состояния кубитов используются точные лазеры, они также выполняют логические операции и соединяют ионы вместе в квантовом процессе, называемом запутанностью (Изображение: ionq.co)

Как утверждают в IonQ: «За цену одной только холодильной установки, даже если не учитывать детали, компоненты и всё остальное (что требуется для сверхпроводящего квантового компьютера), вы можете построить целую систему на основе ионных ловушек, обладающую гораздо большей мощностью и возможностями, при этом она также будет меньше по размеру, и вы сможете увеличивать количество кубитов, не меняя кардинально оборудование». С другой стороны, эксперты отмечают, что ионные ловушки необходимо контролировать с помощью сложной комбинации микроволновых и оптических устройств, что может быть проблематично, когда речь идет о серьёзном масштабировании квантовых компьютеров, использующих данную технологию. 

IonQ планирует удваивать количество своих кубитов примерно каждый год. Текущая архитектура поддерживает простое масштабирование до 32 кубитов, но в теории ёмкость одного модуля можно довести до 100-200 кубитов, а модули объединить оптическими трансиверами. Кроме того, компания активно занята созданием компилятора и оптимизатора для создания квантовых программ. Компания хочет в конечном итоге создать облачный сервис, где на повременной основе будет предоставляться доступ к их квантовым компьютерам. Также IonQ отмечает, что на текущий момент одной из важнейших проблем является отсутствие большого числа специалистов, способных создавать (или хотя бы портировать) программы, оптимизированные для работы на квантовых машинах. Для решения данной проблемы компания планирует предоставлять помощь своим клиентам в виде специализированной технической поддержки, которую назвали Q-tips.

View this post on Instagram

Экспериментальные квантовые чипы #Intel #tanglelake #quantumcomputing #SC18 #3dnewsru #3dnews

A post shared by 3DNews (@3dnews_live) on

Постоянный URL: http://servernews.ru/988832
07.05.2019 [11:00], Сергей Тверье

Китай инвестирует сразу в три проекта по созданию экзафлопсного суперкомпьютера

Одна из причин, по которой у Китая есть неплохие шансы выполнить свою амбициозную цель по достижению экзафлопсных вычислений к 2020 году, заключается в том, что правительство страны финансирует сразу три отличающихся по своей архитектуре проекта по созданию сверхмощного суперкомпьютера. Национальный университет оборонных технологий (National University of Defense Technology, NUDT), Национальный исследовательский центр параллельной вычислительной техники (National Research Center of Parallel Computer, NRCPC) и компания Sugon (также известная как Dawnning) столкнутся во внутреннем соревновании друг с другом, чтобы создать первый в стране (и, возможно, во всём мире) суперкомпьютер с производительностью в 1 экзафлопс.

Для скорейшего создания суперкомпьютера с производительностью свыше 1 экзафлопа правительство Китая инвестирует сразу в три конкурирующих проекта

Для скорейшего создания суперкомпьютера с производительностью в 1 экзафлопс правительство Китая инвестирует сразу в три конкурирующих проекта

На данный момент каждый из участников соревнования разработал и развернул прототип будущей высокопроизводительной системы, состоящий пока что только из 512 узлов. Дальнейшее их масштабирование в суперкомпьютеры с набором из более чем 100 000 узлов будет непростой задачей не только потому, что это огромный скачок, но также и потому, что Китай привержен идее создания собственных суперкомпьютеров с использованием относительно незрелых отечественных процессоров.

На недавней презентации Руибо Ван (Ruibo Wang) из NUDT поделился подробностями о трёх прототипах, которые были развернуты в 2018 году, и рассказал о некоторых деталях плана его организации в отношении их будущего суперкомпьютера Tianhe-3.

Прототип от NRCPC создан только на базе микропроцессоров без использования каких-либо ускорителей и потому, вероятно, самый классический в сравнении с двумя конкурентами. Фактически, это единственная «не ускоренная» архитектура, которая в настоящее время борется за будущее звание топ 1 суперкомпьютера в Поднебесной. Каждый из его узлов оснащён двумя процессорами ShenWei 26010 (SW26010), тем же чипом, который используется для суперкомпьютера Sunway TaihuLight. 26010 имеет 260 ядер и обеспечивает производительность около 3 терафлопс. Предположительно, у проекта Sunway в разработке есть более мощный чип ShenWei следующего поколения для будущей экзафлопсной системы NRCPC. По мнению портала The Next Platform, его производительность должна составить около 10 терафлопс.

Только в суперкомпьютере от NRCPC не планируется использование каких-либо ускорителей

Только в суперкомпьютере от NRCPC не планируется использование каких-либо ускорителей

Прототип от компании Sugon представляет собой гетерогенную вычислительную систему, состоящую из узлов, каждый из которых оснащён двумя процессорами Hygon x86 и двумя ускорителями DCU, соединённых между собой по топологии 6D-тор, разработанной японской компанией Fujitsu. Процессор представляет собой лицензионную копию первого поколения EPYC от AMD, а DCU - фирменные ускорители, созданные китайской компанией Hygon самостоятельно. В своей презентации Депей Цянь (Depei Qian) из университета Сиань Цзяотун ещё в 2017 году говорил, что производительность DCU в будущем составит до 15 терафлопс. Один из интересных аспектов прототипа от Sugon заключается в том, что он охлаждается иммерсионной СЖО, что может указывать на то, что чип DCU рассеивает просто огромное количество тепла.

Sugon делает ставку на ускорители компании Hygon и её лицензионные копии процессоров первого поколения AMD EPYC

Sugon делает ставку на ускорители компании Hygon и её лицензионные копии процессоров первого поколения EPYC от AMD

Прототип NUDT — это ещё одна гетерогенная архитектура, в данном случае использующая процессоры неизвестного происхождения, а также ускоритель Matrix-2000+, представляющий собой 128-ядерный DSP-чип общего назначения. Можно предположить, что Matrix-2000+ является преемником Matrix-2000, ускорителя, используемого в суперкомпьютере Tianhe-2A с производительностью в 100 петафлопс, который в настоящее время является четвёртым в рейтинге суперкомпьютеров TOP500. На пике Matrix-2000+ обеспечивает производительность в два терафлопса и потребляет около 130 Вт. Если бы данные ускорители использовались для работы суперкомпьютера с производительностью в 1 экзафлопс, то только они потребовали бы около 65 мегаватт для своей работы.

NUDT используют в виде сопроцессора DSP-чип собственного производства — Matrix-2000

NUDT используют в виде ускорителя DSP-чип собственного производства — Matrix-2000+

Однако для будущего суперкомпьютера Tianhe-3 NUDT планирует использовать разрабатываемый на данный момент DSP-чип Matrix-3000 вместе с неизвестным процессором. Ожидается, что будущий DSP будет иметь не менее 96 ядер и производительность более 10 терафлопс, а 64-ядерный процессор обеспечит дополнительно 2 терафлопса. Каждый узел будет оснащён восемью парами таких ускорителей и процессоров, обеспечивая производительность 96 терафлопс в сумме.

Для будущего суперкомпьютера NUDT планируют использовать следующее поколение своего сопроцессора — Matrix-3000, в котором стало заметно меньше ядер, а вот их производительность выросла в разы

Для будущего суперкомпьютера NUDT планируют использовать следующее поколение своего ускорителя — Matrix-3000, в котором стало заметно меньше ядер, а вот их производительность выросла в разы

Вся система будет состоять из 100 шкафов, каждый из которых содержит 128 блейдов, что дает 1,29 экзафлопс в пике. Все узлы будут подключены к собственной сети с пропускной способностью 400 Гбит/с, используя топологию "3D-бабочки" (3D butterfly). Данная топология обеспечит максимум пять переходов между любыми двумя узлами. Охлаждение будет обеспечиваться гибридной воздушно-водной системой, которая, как ожидается, обеспечит показатель PUE менее 1,1.

Будущие суперкомпьютер будет состоять из 100 шкафов, каждый из которых содержит 128 блейдов, которые в свою очередь имеют 8 процессоров и сопроцессоров Matrix, выдающих производительность в 1,29 экзафлопс в сумме

Суперкомпьютер от NUDT будет состоять из 100 шкафов, каждый из которых содержит 128 блейдов, которые в свою очередь имеют 8 процессоров и ускорителей Matrix-3000, выдающих производительность в 1,29 экзафлопс в сумме

Главной загадкой остается происхождение процессоров Tianhe-3. Портал The Next Platform предполагает, что это будет некий процессор на архитектуре Arm. И это вполне вероятно, так как Китай уже некоторое время намекает на то, что одна из его супервычислительных систем будет использовать эту архитектуру. Учитывая ожидаемую производительность процессора в 2 терафлопса, он может даже оказаться реализацией Armv8-A с масштабируемым векторным расширением (SVE).

Если NUDT решит пойти по этому пути, одним из возможных вариантов будет лицензирование у Fujitsu производства процессоров A64FX с технологией Arm SVE, стоящих за разрабатываемым на данный момент японским суперкомпьютером с экзафлопсной производительностью — Post-K. Эти процессоры обеспечивают 2,7 терафлопс производительности, а сама Fujitsu предлагает для них набор необходимых HPC-библиотек. В пользу этого варианта свидетельствует и тот факт, что ранее компания уже заявляла о планах продать некоторые технологии, разработанные ею для Post-K.

В любом случае, если разработка Tianhe-3 будет идти по графику, скоро мы узнаем, какой всё-таки процессор в NUDT используют для своего суперкомпьютера.

Постоянный URL: http://servernews.ru/987026
02.04.2019 [17:42], Сергей Юртайкин

«Тинькофф» представил свой суперкомпьютер

Финансовая группа «Тинькофф» сообщила о создании собственного суперкомпьютера, который получил название «Колмогоров». Он сможет решать коммерческие задачи, связанные с искусственным интеллектом и машинным обучением (МО).

В частности, вычислительная система будет использоваться для распределённого обучения нейросетевых моделей для распознавания и синтеза речи, обработки естественного языка, а также для обучения классических моделей МО для задач скоринга, привлечения и предиктивной аналитики.

«Колмогоров» включает 10 вычислительных серверов, оснащённых ускорителями NVIDIA Tesla V100 со специализированными тензорными ядрами. Вычислительные узлы суперкомпьютера объединены высокоскоростной 100-Гбит сетью с поддержкой технологии RoCE (RDMA over Converged Ethernet).

Производительность кластера в тесте Linpack составила 418,9 терафлопс. При этом пиковая производительность может достигать 658,5 терафлопс при вычислениях с плавающей точкой двойной точности (FP64).

«Колмогоров» занял 8-е место в рейтинге TOP 50 суперкомпьютеров России и СНГ, что соответствует самой высокой позиции среди коммерческих компаний, включенных в список.

«Данная платформа создана в рамках стратегии AI First, при которой все продукты, выпускаемые нами на рынок, содержат встроенный искусственный интеллект. Цель данной платформы — развивать культуру работы с данными, снизить порог входа в эту область для наших команд и сделать машинное обучение доступным для каждого аналитика и разработчика "Тинькофф"», — сообщил IT-директор группы Вячеслав Цыганов.

Постоянный URL: http://servernews.ru/985169
02.04.2019 [13:35], Андрей Крупин

«Ломоносов-2» продолжает удерживать лидерство в рейтинге самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённого рейтинга TOP 50 самых мощных компьютеров СНГ. Объявление новой редакции списка состоялось на международной  научной конференции «Параллельные вычислительные технологии (ПаВТ) 2019», проводимой Министерством науки и высшего образования РФ и Суперкомпьютерным консорциумом университетов России при поддержке Российского фонда фундаментальных исследований.

Новая, тридцатая по счету редакция списка TOP 50 продемонстрировала незначительный рост производительности суперкомпьютеров СНГ. Суммарная производительность систем в тесте Linpack за полгода выросла с 11,2 до 12,4 петафлопс (квадриллионов операций с плавающей запятой в секунду). Суммарная пиковая производительность составила 20,2 петафлопс (18,4 петафлопс в предыдущей редакции рейтинга). Всего за полгода в списке появилось четыре новых суперкомпьютера и произошло обновление ещё двух систем.

Лидером списка уже восьмой раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

На шестое место списка попал новый суперкомпьютер производства Dell, ИСП РАН и Avilex, установленный в Национальном исследовательском университете «Высшая школа экономики», чья производительность по данным теста Linpack составила 568,5 терафлопс. На восьмой позиции засветился вычислительный комплекс «Колмогоров» производства NVIDIA и Mellanox, установленный в компании «Тинькофф Банк» и ставший самым производительным суперкомпьютером в финансовом секторе для задач искусственного интеллекта, чья производительность на тесте Linpack составила 418,9 терафлопс. Другие изменения систем списка остались за пределами первой десятки рейтинга.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, увеличилось с 20 до 22, а количество систем с ускорителями Intel Xeon Phi на борту сократилось с девяти до восьми. Число вычислительных комплексов на базе InfiniBand увеличилось с 32 до 35, при этом количество суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, осталось равным 6. Количество систем в списке на основе технологии Intel Omni-Path уменьшилось с шести до пяти. Количество систем с интерконнектом Aries осталось равным 3. В данную редакцию списка входит также одна система с коммуникационной сетью «Ангара».

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 21 до 23; количество систем, ориентированных на конкретные прикладные исследования, осталось равным 13; число систем, используемых в промышленности, уменьшилось с 4 до 3. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следуют компании РСК (12 систем в рейтинге), «Т-Платформы» (11), NVIDIA (5) и IBM с одним вычислительным комплексом.

С полной версией обнародованного документа можно ознакомиться по адресу top50.supercomputers.ru. Следующая, тридцать первая редакция списка TOP 50 самых мощных компьютеров СНГ будет объявлена осенью 2019 года на международной конференции Russian Supercomputing Days.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/985160
13.03.2019 [19:00], Геннадий Детинич

Fujitsu представила второе поколение «не-фон-неймановского» компьютера Digital Annealer

Компания Fujitsu одна из немногих, кто приблизился к коммерческой эксплуатации квантовых методов в вычислениях. Более того, в эту среду Fujitsu анонсировала скорую доступность второго поколения фирменных вычислительных платформ с использованием квантовых методов вычислений. Второе поколение архитектуры Digital Annealer, как компания называет свою разработку, будет показано на выставке Hannover Messe 2019 в Ганновере с 1 по 5 апреля 2019 года, после чего начнётся её коммерческая эксплуатация. Первое поколение Fujitsu Digital Annealer, уточним, поступило в эксплуатацию в мае 2018 года.

Теперь поясним. Процессор Digital Annealing Unit (DAU) выпускается в обычном полупроводниковом КМОП техпроцессе. Но DAU не использует архитектуру фон-неймановской логики. Разрядность первого поколения Fujitsu DAU составляла 1024 бит, где каждый бит был связан с другим. Только этот момент роднит разработку Fujitsu с квантовыми вычислителями. У «квантового» процессора Fujitsu нет никаких кубитов и, следовательно, состояния суперпозиции для каждого из них. Зато система спокойно работает при комнатной температуре и не нуждается в охлаждении до абсолютного нуля.

Подчеркнём эти моменты. Fujitsu DAU ― это кремниевый чип с архитектурой, ориентированной для выполнения целого спектра операций по оптимизации, свойственным квантовым процессам. Первое поколение Fujitsu DAU вообще выпускалось на матрицах ПЛИС. Что собой представляет второе поколение процессоров, компания пока не раскрывает. Впрочем, Fujitsu сообщила, что второе поколение процессоров повысило разрядность до 8192 бит. С точки зрения квантовых вычислений это в 100 раз повысило вычислительные возможности платформы.

Как это работает. Метод Digital Annealing ― это так называемый квантовый отжиг или квантовая нормализация. Это как в печке. Зажёг и ждёшь, пока всё сгорит и остынет. Внизу останется то, что не горит ― имеет наименьшее энергетическое состояние. В математике ― это нахождение глобального минимума среди массы других минимумов. Данные обрабатываются параллельно и там, где они находятся без перемещения из памяти в процессор и обратно либо с минимальным перемещением в области одного массива.

С помощью квантового отжига практически мгновенно можно решать задачи по оптимизации маршрута среди множества объектов, которые обязательно необходимо посетить, задачи по оптимизации портфеля акций с минимальным риском размещения инвестиций, поиск молекулярного подобия при разработке лекарств и многое другое, на что привычным компьютерам и суперкомпьютерам потребуется масса вычислительных ресурсов и времени. Подробнее о возможностях на русском можно прочесть на сайте Fujitsu. Мы же добавим, что сервис Digital Annealing доступен по подписке в облачных сервисах компании либо в локальных сервисах с установкой оборудования в обычные серверные стойки.

Постоянный URL: http://servernews.ru/984174
23.02.2019 [20:20], Геннадий Детинич

Анонс серверных платформ ARM Neoverse E1 и N1: шах и мат, Intel

Уж извините за столь кричащий заголовок, но ARM давно мечтает сказать нечто подобное в отношении серверных платформ Intel. Пока получается не очень. Как говорят в самой ARM, не вышло с первого раза, попробуем во второй. Не получится во второй раз, на третий точно всё будет как надо. А сейчас и повод-то отличный! Разработчики оригинальных ядер ARM из одноимённой компании ударили сразу с двух направлений: по масштабируемым сетевым платформам (Neoverse E1) и по масштабируемым серверным (Neoverse N1). Очевидно, что пока «мата» в этой партии явно не будет. Intel крепко держится за серверные платформы и одновременно тянет руки к периферийным как в виде распределённых вычислительных ресурсов в составе базовых станций, так и в виде обычных периферийных ЦОД. Тем не менее, шансы объявить Intel «шах» у ARM определённо есть.

Рассчитанную на несколько лет вперёд стратегию Neoverse компания ARM представила в середине октября прошлого года. Она предполагает три крупных этапа, в ходе которых будут выходить доступные для широкого лицензирования 64-битные ядра ARM Ares (7 нм), Zeus (7 и 5 нм) и Poseidon (5 нм). Планируется, что каждый год производительность решений будет возрастать на 30 %. Сама компания ARM, напомним, не выпускает процессоры и SoC, а лишь продаёт лицензии на ядра и архитектуру, которые клиенты компании обустраивают нужными им контроллерами и интерфейсами. У ARM настолько многочисленная армия клиентов, что она ожидает буквально цунами из сотен и тысяч миллиардов ядер в год уже в недалёком будущем. Когда-нибудь в этот водоворот ядер будут вовлечены и серверные платформы, а затем количество перейдёт в качество.

Разработка и анонс ядер Neoverse N1 ― это явление народу 7-нм ядер Ares. Процессоры могут нести от 4 до 128 ядер, объединённых согласованной ячеистой сетью. Платформа N1 может служить периферийным компьютером с 8-ядерным процессором с потреблением менее 20 Вт, а может стать сервером в ЦОД на 128-ядерных процессорах с потреблением до 200 Вт. Степень масштабируемости должна впечатлять. Кроме этого, как сообщают в ARM, производительность ядер N1 на облачных нагрузках в 2,5 раза выше, чем у 16-нм ядер предыдущего поколения Cosmos (Cortex-A72, A75 и A53). Кстати, прошлой осенью на платформе Cosmos компания Amazon представила фирменный процессор Graviton.

Производительность N1 при обработке целочисленных значений оказывается на 60 % больше, чем на ядрах Cortex-A72 Cosmos. При этом энергоэффективность ядер N1 также на 30 % выше, чем у ядер Cortex-A72. Как поясняют разработчики, платформа Neoverse N1 построена на «таких инфраструктурных расширениях, как виртуализация серверного класса, современная поддержка сервисов удалённого доступа, управление питанием и производительностью и профилями системного уровня».

Когерентная ячеистая сеть (Coherent Mesh Network, CMN), о которой выше уже говорилось, разработана с учётом высокого соответствия вычислительным возможностям ядер. По словам ARM, сеть обменивается с ядрами такой служебной информацией, которая позволяет устанавливать объём загрузки в память данных для упреждающей выборки, распределяет кеш между ядрами и определяет, как он может быть использован, а также делает много других вещей, которые способствуют оптимизации вычислений.

Интересно отметить, что в составе процессоров на платформе Neoverse N1 может быть существенно больше 128 ядер, но с оптимальной работой возникнут проблемы. Точнее, вычислительная производительность упрётся в пропускную способность памяти. Так, ARM рекомендует для CPU с числом ядер от 64 до 96 использовать 8-канальный контроллер DDR4, а для 96–128 ядерных версий ― контроллер памяти DDR5.

Платформа Neoverse E1 ― это решение для сетевых шлюзов, коммутаторов и сетевых узлов, которое, например, облегчит переход от сетей 4G к сетям 5G с их возросшей требовательностью к каналам передачи данных. Так, Neoverse E1 обещает рост пропускной способности в 2,7 раза, увеличение эффективности при передаче данных в 2,4 раза, а также более чем 2-кратный рост вычислительной мощности по сравнению с предыдущими платформами (ядрами). С масштабируемостью ядер E1 тоже всё в порядке, они позволят создать решение как для базовых станций начального уровня с потреблением менее 35 Вт, так и маршрутизатор с пропускной способностью в сотни гигабайт в секунду.

Что же, ARM расставила на доске новые фигуры. Будет интересно узнать, кто же начнёт игру?

Постоянный URL: http://servernews.ru/983268
05.12.2018 [18:18], Геннадий Детинич

Western Digital представила процессор SweRV Core для ускорителей по обработке данных

В какой-то мере компания Western Digital выполнила своё прошлогоднее обещание — выпустить процессор, ориентированный на обработку данных во всём диапазоне: от периферийных устройств до ЦОД. Компания представила процессор SweRV Core на открытой архитектуре (системе команд) RISC-V с поддержкой когерентности кеша, тестовый пакет SweRV Instruction Set Simulator (ISS) для моделирования поведения работы процессоров и протокол OmniXtend для инкапсулирования команд и данных SweRV для передачи фактически по любому физическому уровню с поддержкой Ethernet (так сказать, открытый интерфейс). Всё это, повторим, использует открытые стандарты и, за исключением аппаратной части, уже доступно для загрузки на сервисах GitHub.

Поставки процессоров SweRV Core начнутся в первом квартале 2019 года. Решение будет выпускаться с использованием 28-нм техпроцесса. Кто выпускает, пока неизвестно. Кстати, неизвестно также, кто разработал SweRV Core. Год назад была информация, что в разработке RISC-V-процессоров компании Western Digital помогает компания Esperanto Technologies Дэвида (Дейва) Дитцеля. Сегодня же, когда Western Digital сообщила о спецификациях SweRV Core, разработка стала напоминать модификацию платформы SiFive Freedom E300, которую та готова была подгонять под любые капризы клиента.

Итак, SweRV Core — это 32-разрядный двухконвейерный суперскалярный процессор с упорядоченным исполнением команд. Каждый конвейер имеет 9 уровней, что позволяет загружать и исполнять несколько команд одновременно. Частота решения — до 1,8 ГГц. В бенчмарке CoreMark условное сравнение процессора WD SweRV Core с актуальными архитектурами и решениями (не опирающееся на реальное тестирование) показало, что процессор может набирать значение 4,9 CoreMark/МГц — сравнимо с решениями на архитектурах MIPS и ARM или даже лучше них.

В своих продуктах Western Digital будет использовать SweRV Core для встраиваемых решений, включая контроллеры для флеш-памяти и SSD, а сообществу разработчиков предлагает задействовать SweRV Core для разного рода устройств с прицелом на обработку больших и быстрых данных, данных IoT, для платформ по защите данных, управления в промышленности и в других областях. По мнению Western Digital, процессоры SweRV Core с открытой системой команд и открытыми протоколами идеально подходят для создания специализированных ускорителей для обработки данных с поддержкой когерентности кеша.

Постоянный URL: http://servernews.ru/979190
22.11.2018 [15:44], Геннадий Детинич

В Китае региональные ЦОД загружены на половину мощности

К известной проблеме в Китае с городами-призраками — пустующими домами и кварталами новых городов, где никто не жил и не живёт, — добавилась проблема недостаточной загрузки региональных центров по обработке данных.

Согласно обнародованным данным Министерства промышленности и информационных технологий (Ministry of Industry and Information Technology, MIIT) и Министерства финансов Китая, возможности ЦОД в крупных городах на востоке, западе и северо-востоке страны превышены по всем параметрам, тогда как потребность в мощностях удвоилась и не может быть удовлетворена на месте. Поэтому по установленной правительственной программе Китая, некоторое время назад в регионах начали возводить ЦОД для разгрузки центров с побережья.

Как водится, планы и реальное положение дел начали расходиться. Уже построенные в небольших городах на материковой части Китая ЦОД в большинстве оказались загруженными только на половину своих возможностей. Чтобы поощрить столичные компании переводить нечувствительные к большим задержкам данные в регионы, власти Пекина, например, ужесточили экологические требования к работе ЦОД в пределах столицы. Тем более, что вычислительных ресурсов ЦОД в Пекине не хватает на удовлетворение 19 % запросов.

Пока ситуация развивается по не самому удачному сценарию или, если смягчить выражения, нелинейно. Аналитики опасаются, что на ИТ-рынке Китая может возникнуть пузырь, который приведёт к расшатыванию экономики этой страны. До сих пор всё развивалось красиво и динамично, тогда как в итоге деньги окажутся выброшенными на ветер, и рынок свернётся. Региональные власти только в этом году утроили средства, отпущенные на создание локальных ЦОД, так что пузырь может выйти немаленьким с серьёзными последствиями после взрыва.

Постоянный URL: http://servernews.ru/978581
16.11.2018 [15:45], Андрей Крупин

5 самых мощных российских суперкомпьютеров (фото)

Иногда лучше один раз увидеть, чем сто раз услышать. Представляем подборку фотографий самых мощных суперкомпьютеров России, входящих в пятёрку лидеров списка TOP 50 высокопроизводительных систем СНГ.

«Ломоносов-2». Вычислительный комплекс производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Пиковая производительность суперкомпьютера составляет 4,9 петафлопс, производительность по данным теста Linpack достигает 2,5 петафлопс.

Суперкомпьютер Росгидромета. Машина производства компаний «T-Платформы» и Cray, установленная в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность по Linpack — 1,2 петафлопс.

«Ломоносов». Система разработки компании «Т-Платформы». Развёрнута в МГУ имени М.В. Ломоносова и по данным теста Linpack демонстрирует производительность в 901,9 терафлопс.

Курчатовский вычислительный комплекс. Базируется в национальном исследовательском центре «Курчатовский институт» и характеризуется производительностью в 755,5 терафлопс (по данным Linpack). Является совместной разработкой НИЦ «Курчатовский институт» и компаний Supermicro, «Борлас», «Т-Платформы».

Вычислительная система «Политехник — РСК Торнадо». Суперкомпьютер разработки группы компаний РСК, установленный в суперкомпьютерном центре Санкт-Петербургского политехнического университета. Производительность по Linpack — 715,9 терафлопс.

Ознакомится с другими входящими в TOP 50 российскими суперкомпьютерными системами можно по ссылке top50.parallel.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/978301
Система Orphus