Материалы по тегу: супервычисления

10.08.2017 [13:40], Алексей Степин

IBM ставит рекорды масштабируемости в сфере машинного обучения

Технологии машинного обучения и искусственного интеллекта на базе нейронных сетей в наши дни являются широко востребованными, на них возлагаются большие надежды в самых различных промышленных и научных отраслях. Очевидно также, что тенденция к распараллеливанию программных алгоритмов и не думает сокращаться, но не всякий софт хорошо масштабируется по мере роста количества вычислительных блоков. Компания IBM это понимает хорошо — она активно работает над оптимизацией программного обеспечения нейронных сетей. Буквально на днях разработчики «голубого гиганта» продемонстрировали новое ПО, которое одновременно ускоряет обучение нейронных сетей и повышает аккуратность самого обучения.

Добиться этого удалось путём программной оптимизации масштабирования при увеличении количества графических ускорителей в системе. Исследовательская группа, возглавляемая Хиллери Хантер (Hillery Hunter), фокусировала свои усилия на уменьшении времени тренировки нейросетей на больших объёмах данных. В таких задачах ждать получения результата можно часами и даже днями, а задачей исследователей было добиться сокращения этого временного промежутка до минут или даже секунд при сохранении или повышении точности. Для этого пришлось активно оптимизировать фирменное программное обеспечение IBM для эффективной работы в системах с большим количеством GPU-ускорителей.

Оптимизации, внесённые в комплекс ПО Distributed Deep Learning (DDL), позволили добиться 95 % эффективности масштабирования в системе с 256 ускорителями NVIDIA Tesla P100. Тестирование было проведено в системе Caffe на задачах распознавания изображений. Полученный результат является новым рекордом. Ранее этот рекорд составлял 89 % и был достигнут командой Facebook при использовании аналогичного аппаратного комплекса. Точность распознавания на базе из 7,5 миллионов изображений достигла 33,8 %, что тоже выше предыдущего достижения, равного 29,8 %. Казалось бы, немного, но предыдущий результат занял у Microsoft 10 дней обучения сети в 2014 году, в то время, как IBM удалось уложиться всего в 7 часов за счёт использования графических ускорителей серии Tesla.

Постоянный URL: http://servernews.ru/956738
10.08.2017 [13:00], Алексей Степин

Национальная лаборатория Ок-Ридж начала монтаж суперкомпьютера Summit

Как сообщают зарубежные средства массовой информации, национальная лаборатория министерства энергетики США, известная как Национальная лаборатория Ок-Ридж (Oak Ridge National Laboratory, ORNL), начала работы по установке новейшего суперкомпьютера Summit, базирующегося на синтезе технологий IBM и NVIDIA. Ранее мы рассказывали об этом проекте, когда речь шла о быстродействии новых ускорителей NVIDIA Volta GV100. Напомним, что каждый из 4600 узлов Summit будет иметь производительность свыше 40 терафлопс, а в качестве начинки выступает связка из двух процессоров IBM POWER9 и шести ускорителей Volta GV100 производительностью порядка 7,5 терафлопс каждый. В качестве связующего звена задействован интерфейс NVLink 2.0 с пропускной способностью до 200 Гбайт/с.

Summit должен стать ответом китайскому проекту TaihuLight — пиковая производительность нового суперкомпьютера планируется на уровне 200 петафлопс, тогда как конкурент развивает лишь чуть более 125 петафлопс. Эти два суперкомпьютера станут самыми мощными вычислительными комплексами на планете, не использующими архитектуры x86. В понедельник в лабораторию Ок-Ридж были доставлены первые контейнеры с узлами Summit, и по словам представителя ORNL, как только они будут распакованы, сразу же начнётся процесс установки и монтажа компонентов новой системы, а также её подключения к сетям питания и охлаждающим установкам. Процесс сборки должен занять порядка шести месяцев, полноценный ввод системы в эксплуатацию запланирован на январь 2019 года.

В последнем случае речь идёт об общей доступности для научно-исследовательских проектов, но до этого система будет проходить наладку, и к ней получат доступ разработчики из министерства энергетики и некоторые университеты. Скорее всего, первые «признаки жизни» Summit подаст не раньше 2018 года, так что процедуру смены короны лидера списка TOP500 мы увидим не раньше следующего июня. Новый суперкомпьютер ORNL превзойдёт не только китайского монстра, но и предыдущую систему Окриджской лаборатории под названием Titan. Сейчас эта система занимает четвёртое место в TOP500 с пиковой производительностью 27,1 петафлопса и измеренными с помощью Linpack 17,6 петафлопсами. Таким образом, Summit будет в 5‒10 раз быстрее предшественника. А благодаря архитектурным особенностям NVIDIA Volta на задачах глубинного обучения (смешанные 16/32-битные вычисления) мощность Summit и вовсе достигнет запредельных 3,3 экзафлопс.

Постоянный URL: http://servernews.ru/956728
25.07.2017 [08:31], Алексей Степин

Петафлопс на час: облачный кластер Amazon поставил рекорд

Суперкомпьютер — удовольствие дорогое. Достаточно представить себе залы, заставленные аппаратными шкафами, которые потребляют мегаватты энергии и мегаватты же выделяют в виде тепла, которое надо отвести и рассеять. А если добавить к этому десятки километров медных и оптоволоконных кабелей, то стоимость такого вычислительного монстра перестаёт удивлять. Далеко не все организации могут позволить себе владеть системами такого класса. Тут-то и приходит на выручку идея «суперкомпьютера как сервиса», ранее уже подтвердившая свою работоспособность. Но на что способны такие сервисы сегодня? Как оказалось, весьма и весьма на многое.

Уже несколько лет компания Cycle Computing разрабатывает методы использования сервисов Amazon Web Services в помощь исследователям, нуждающимся в серьёзных вычислительных мощностях, но на сравнительно коротком промежутке времени. Недавно она закончила программу по созданию самого большого кластерного вычислителя Amazon. Созданная система, включившая в себя 156314 процессорных ядер, успешно проработала 18 часов, развив пиковую мощность порядка 1,21 петафлопс. В операции были задействованы ЦОД Amazon по всему миру: в США, Ирландии, Сингапуре, Японии, Бразилии и даже Австралии. Ядра распределились по 16788 системам, в среднем количество ядер на виртуальную машину составило 9,3. Конечно, не всякая вычислительная задача хорошо масштабируется с учётом сравнительно медленной пропускной способности межузловых соединений в таком «виртуальном суперкомпьютере». Отмечается, что даже в тесте Linpack результаты оказались бы меньше из-за высокой латентности соединений.

Однако выгода в тех случаях, где это возможно, очевидна — счёт, выставленный Amazon за использованные вычислительные мощности, составил всего $33 тысячи. Работал же «виртуальный суперкомпьютер» над задачей, поставленной профессором Университета Южной Калифорнии Марком Томпсоном (Mark Thompson). Его команда разрабатывает материалы, с помощью которых можно будет создавать высокоэффективные солнечные панели нового поколения. Вместо сложнейшей и очень дорогостоящей программы исследований, которая заняла бы год работы, удалось воспользоваться системой Schrödinger, которая смогла сэмулировать поведение 205 тысяч молекул. Вклад, внесённый Amazon и Cycle Computing в разработку солнечных батарей нового поколения оценивать пока рано, но сама система оказалась работоспособной. Компанию стоит похвалить за вклад в науку — помимо счёта Amazon, она не взяла с исследователей ни цента.

Постоянный URL: http://servernews.ru/955937
24.07.2017 [23:55], Алексей Степин

Рекорд масштабируемости: инженерную задачу удалось распараллелить на 200 тысяч ядер

Нашим предкам, создававшим такие чудеса, как первые реактивные самолёты или двигатели для космических ракет, приходилось очень нелегко. В те времена не было цифрового моделирования физических процессов, и всё приходилось отрабатывать на моделях, а затем полноразмерных экземплярах устройств. Сегодняшним инженерам существенно проще: для многих задач не требуется даже создавать модели, достаточно использовать компьютерное моделирование. Одним из известных программных пакетов в этой области является ANSYS Fluent. Как считают создатели данного ПО, оно является самым продвинутым средством моделирования поведения жидкостей и газов (computational fluid dynamics, CFD). Сферу применения ANSYS Fluent чётко определить нельзя, поскольку этот пакет может использоваться как для симуляции обдува крыла самолёта, так и для моделирования процессов, происходящих в металлургических печах. Но вычислительных мощностей для этого требуется немало: предыдущий рекорд для ANSYS Fluent составил 36 тысяч процессорных ядер суперкомпьютера Blue Waters, расположенного в Национальном центре суперкомпьютерных приложений в США.

Как оказалось, это не предел. Новый рекорд смогли поставить исследователи из Научно-технологического университета имени короля Абдаллы (KAUST), находящегося в Саудовской Аравии. Им удалось успешно запустить ANSYS Fluent и распараллелить его работу почти на 200 тысяч процессорных ядер. Это большое достижение как для исследователей и ANSYS, так и для компании Cray: оба рекорда поставлены на суперкомпьютерах, спроектированных и воплощённых в металл этой компанией. Суперкомпьютер Shaheen II, установленный в KAUST в 2015 году, относится к серии Cray XC40 и содержит 6174 двухпроцессорных узла, в каждом из которых установлено по два 16-ядерных процессора Intel Haswell-EP с частотой 2,3 ГГц. Объём памяти каждого узла равен 128 Гбайт DDR4, а в целом система располагает 197568 процессорными ядрами и 790 Тбайт памяти. Общаются друг с другом узлы посредством высокоскоростной оптической сети Aries High Speed Network, каждый из 36 аппаратных шкафов суперкомпьютера имеет 8 каналов этой сети.

Вычислительный модуль Cray XC40

Вычислительный модуль Cray XC40

Совместно ANSYS, компании Saudi Aramco и команде исследователей KAUST удалось запустить на Shaheen II комплексную симуляцию работы многофазных гравитационных сепараторов (multiphase gravity separation vessel), при этом время симуляции сократилось с нескольких недель до одной ночи. Подобного рода задачи очень важны для нефтегазовой индустрии, которая очень хорошо развита в Саудовской Аравии — в 2009 году страна занимала второе место в мире по добыче и экспорту нефти. Современные нефтеперерабатывающие заводы очень сложны, стоимость оборудования огромна, а цена ошибки очень высока, вот почему средства, подобные ANSYS Fluent весьма востребованы в этой отрасли индустрии — они упрощают разработку нового оборудования и существенно снижают стоимость такой разработки. При этом современные системы симуляции позволяют предсказать поведение оборудования в различных ситуациях, а значит, и предотвратить возможные ошибки и даже катастрофы. Saudi Aramco планирует использовать эту технологию на всех своих заводах и по результатам симуляции модернизировать их оборудование.

Постоянный URL: http://servernews.ru/955932
24.07.2017 [22:55], Алексей Степин

Fujitsu разрабатывает специализированный процессор для систем ИИ

Глубокое машинное обучение и системы искусственного интеллекта в наше время являются очень популярными направлениями. Но современные процессорные архитектуры для задач подобного рода подходят далеко не лучшим образом, поэтому всё больше и больше разработчиков микроэлектроники обращаются к альтернативным и специализированным дизайнам. В гонку за искусственным интеллектом включился и такой японский гигант как Fujitsu — компания объявила о том, что ведёт работы над созданием специализированного процессора. Проект носит кодовое имя DLU (Deep Learning Unit), что в полной мере раскрывает его предназначение. Основной целью проекта является достижение десятикратного преимущества над конкурирующими решениями по соотношению «производительность на ватт». В разработке DLU находится с 2015 года, но лишь в этом году стали известны некоторые подробности об архитектуре нового процессора Fujitsu.

Глава отдела разработок ИИ, Такуми Маруяма (Takumi Maruyama), отметил, что архитектура DLU активно использует вычисления со сравнительно низкой точностью, как это делают и многие другие чипы, предназначенные для глубокого машинного обучения. Это позволяет добиться оптимального соотношения производительности и потребляемой мощности. Чип DLU поддерживает форматы FP32, FP16 INT16 и INT8, и компания продемонстрировала, что даже целочисленные 8 и 16-битные форматы могут эффективно использоваться в ряде задач машинного обучения без серьёзных проблем, вызванных низкой точностью вычислений. Архитектура Fujitsu DLU спроектирована таким образом, чтобы быть полностью управляемой со стороны программного обеспечения. Процессор разбит на блоки DPU (Deep Learning Processing Units), их общее количество может быть разным, но каждый блок DPU состоит из 16 более простых блоков DPE (Deep Learning Processing Elements).

В свою очередь, каждый DPE состоит из восьми блоков исполнения SIMD-инструкций и большого набора регистров. Последний, в отличие от традиционных кешей, полностью управляем программно. В состав чипа также входит некоторый объём памяти HBM2, которая выступает в роли кеша, а также интерфейсы межпроцессорной шины Tofu. Последняя позволяет объединять массив DLU в единую сеть с развитой топологией. Структура этой сети приведена на слайде выше. Как обычно, специализированные процессоры, к числу которых относится и Fujitsu DLU, работают в тандеме с процессорами общего назначения. В данном случае компания планирует использование чипов с архитектурой SPARC, что неудивительно — именно Такуми Маруяма принимал самое активное участие в разработке этой архитектуры начиная с 1993 года. Первый выход DLU на рынок запланирован на 2018 год, именно в виде сопроцессора, но у Fujitsu имеются и планы по интеграции данной архитектуры в ЦП общего назначения с архитектурой SPARC. Соперниками новинки будут чипы Intel Lake Crest, ускорители Radeon Instinct, а также чипы NVIDIA. Последняя имеет неплохую фору в сфере машинного обучения и конкурировать с ней будет непросто.

Постоянный URL: http://servernews.ru/955927
18.07.2017 [11:39], Алексей Степин

Российские учёные разработали модулярно-логарифмический сопроцессор

Как известно, классические процессорные архитектуры проявляют себя хорошо при решении определённого круга задач, но в ряде особых случаев разработчики вынуждены применять специализированные сопроцессоры, поскольку эффективность обычных ЦП в этих случаях низкая, и они решают задачу, что называется, в лоб — количественным методом, затрачивая на это чудовищное количество системных ресурсов. Сопроцессоры же способны решать такие задачи гораздо быстрее. Простейшим примером могут послужить вычисления с плавающей запятой: сейчас блоки FPU интегрированы в основной кристалл, но когда-то они были отдельными чипами — Intel 8087/80287/80387 или других производителей, таких, как Weitek. В качестве современного примера можно привести векторные процессоры NEC Aurora, о которых мы рассказывали читателям ранее.

Похожего класса разработки имеются и у российских учёных: так, в лабораториях ВНИИЭФ разработан уникальный модулярно-логарифмический сопроцессор, первый научный доклад о котором прозвучал на суперкомпьютерном форуме НСКФ-2016. Глава команды разработчиков, Илья Осинин, заявил, что благодаря использованию нетрадиционной логарифмической системы счисления удалось добиться десятикратного ускорения производительности на операциях умножения и стократного — на операциях деления. И это не только теория: сопроцессор был проверен в работе и аппаратно. Для прототипирования были использованы чипы ПЛИС производства Altera — так поступают практически все разработчики сложных вычислительных устройств, когда им нужно проверить свои теории на практике. Данной разработкой заинтересовались сразу три российских разработчика: АО «МЦСТ», Baikal Electronics и НИСИ РАН.

Внимание со стороны МЦСТ вполне логично: у этой команды уже налажен выпуск восьмиядерных 64-битных процессоров Эльбрус-8С, на основе которых планируется строить не только серверы и рабочие станции, но также и кластерные системы и суперкомпьютеры, в которых сопроцессор Осинина может принести немало пользы. По данным разработчиков, этот чип в 1000 раз быстрее Intel Xeon E5-2697 v3 (Haswell-EP, 14С/28T, 2,6 ГГц, 35 Мбайт L3, 145 ватт) при вычислении логарифмов и в три раза быстрее при обработке сложных полиномов. Интересно, что архитектура у новой разработки гибкая и имеет возможность реконфигурации на лету, что, в числе прочего, позволяет заменять отказавшие вычислительные блоки не прерывая вычислений. Это наверняка оценят как учёные, так и военные. Имеющийся прототип, выполняющий 4 операции за такт, оценивается в 9,2 миллиона транзисторов, что весьма немного по меркам современной индустрии.

При увеличении количества вычислительных блоков до 32 возможности модулярно-логарифмического сопроцессора сравняются с блоком AVX-512, реализованном в процессорах Intel Xeon Phi семейства Knights Landing, но транзисторный бюджет составит всего 73,6 миллиона транзисторов против 86 миллионов у Intel —  налицо 17 % экономия, а значит, и более низкая себестоимость. Помимо этого, группировка ядер в новой архитектуре позволяет выполнять 1024-разрядные операции за один такт, чего не умеет блок расширений AVX-512, ограниченный 512 разрядами за такт. О полной победе над Intel говорить рано, поскольку образец пока работает лишь на частоте 100 МГц — в 26 меньше, чем у решения Intel. Речь идёт о финальной версии с аналогичной частотой 2,6 ГГц, что вполне достижимо в финальной версии с собственным кремнием. Совместим новый сопроцессор не только с решениями МЦСТ, но и практически с любым другим процессором. Из отечественных решений названы чипы Байкал-М и KOMDIV-64.

Постоянный URL: http://servernews.ru/955609
26.06.2017 [18:07], Алексей Степин

ISC 2017: CPU SunWay Micro — китайская экзотика

В проектировании суперкомпьютеров нет единого стандарта и архитектуры: строятся системы как на базе x86-совместимых процессоров, но активно используются и уникальные решения, такие как векторные процессоры NEC. Идёт своим путём и Китай, разрабатывая специально для этой цели серию процессоров Sunway (ShenWei). За разработку отвечает Национальный центр по проектированию высокопроизводительных интегральных схем, расположенный в Шанхае.

Исторически эти процессоры родились как ответ на запрос военных из НОАК, считается что основой послужили знаменитые в своё время чипы DEC Alpha. Последнее поколение Sunway, 260-ядерные процессоры SW26010 стали «сердцами» для одного из самых мощных суперкомпьютеров в мире — TaihuLight, который по-прежнему возглавляет список TOP500 по состоянию на июнь 2017 года. Архитектурно эти процессоры чем-то напоминают современные GPU, так как содержат внутри четыре кластера, в каждом из которых организована матрица 8 × 8 из относительно простых вычислительных элементов, а за управление отвечает приставленное к каждому кластеру ядро с более традиционной архитектурой.

Каждый кластер имеет свой контроллер памяти и использует собственное адресное пространство. Вычислительные блоки имеют по 64 Кбайт кеша данных и 16 Кбайт кеша инструкций, но традиционная иерархия кешей на этом заканчивается и объединены эти блоки единой сетью класса NoC (network-on-chip); управляющие ядра, впрочем, построены более привычным образом — каждое из них располагает 256 Кбайт собственного кеша L2. Судя по экспозиции на ISC 2017, разработчики серии Sunway решили продвигать свои решения и в другие, не столь масштабные сферы. Были продемонстрированы новые системные платы Sunway Micro с двумя процессорами SW26010 на каждой, причём они изначально ориентированы на жидкостное охлаждение, на что явно указывают не лишённые китайского изящества водоблоки.

Речь, скорее, о модуле, нежели о системной плате в полном смысле этого слова, поскольку оперативная память распаяна в виде набора чипов, а не установлена модулями DIMM. В зависимости от конфигурации, её объем может составлять от 64 до 256 Гбайт на плату. Производительность такой платы составляет 6 терафлопс, она может нести на борту до 12 Тбайт дискового пространства. Эффективность SW26010 высока: каждый вычислительный блок может выполнять 8 операций над числами с плавающей запятой. Тактовая частота невысока, она составляет всего 1,45 ГГц, но для 260-ядерного процессора это серьёзное значение.

Новинки предназначаются для использования в науке и инженерии для моделирования различных процессов, подходят они и для набирающих популярность систем глубинного машинного обучения (deep learning). Аккуратное шасси с двумя иероглифами на передней панели напоминает шкафы TaihuLight, но, разумеется, занимает намного меньше места. Оно может вместить в себя несколько плат Sunway Micro и представляет собой суперкомпьютер в миниатюре.

Аппаратное обеспечение, особенно такое уникальное, как Sunway, требует программной поддержки, и она у китайских разработчиков есть: потенциальным партнёрам будут доступны всевозможные средства и среды разработки, базирующиеся на языках C/C++ и Fortran, отладочные механизмы, а также средства многопоточной оптимизации и автоматической векторизации кода. В этом платформа Sunway Micro ничуть не уступает японской NEC Vector Engine.

Постоянный URL: http://servernews.ru/954505
26.06.2017 [17:58], Алексей Степин

ISC 2107: кластерные системы NEC Aurora с векторной архитектурой

В мире супервычислений всё обстоит не так, как привыкли обычные пользователи — для последних обычной и чуть ли не единственной является архитектура x86, а вот в сверхмощных вычислительных системах широко применяются уникальные архитектуры и технологии. В качестве одного из примеров можно назвать векторные процессоры NEC и суперкомпьютеры на их основе. Они имеют давнюю историю, а в качестве наиболее известного проекта NEC можно назвать «Симулятор Земли» (Earth Simulator Project) — суперкомпьютер, предназначенный специально для отработки климатических моделей. Он был самой быстрой вычислительной системой на нашей планете с 2002 по 2004 годы.

Но игнорировать развитие x86 не стоит никому; не стала делать этого и NEC, представившая на ISC 2017 гибридные системы нового поколения, сочетающие в себе достоинства проверенной временем архитектуры с уникальными наработками компании в области векторных вычислений. Проект получил название Aurora и развивается он сразу в нескольких направления — от обычных рабочих станций в башенном форм-факторе и серверных модулей в 19-дюймовых корпусах до огромных сверхмощных суперкомпьютеров и кластерных систем.

В первом варианте векторный процессор NEC выполнен в форме обычной платы расширения, вроде Intel Xeon Phi или NVIDIA Tesla. Это представляет определённый интерес, но архитектура NEC интересна высокой пропускной способностью подсистемы памяти, а в этом случае ограничивающим фактором является шина PCI Express. Стоечный вариант интереснее: он представляет собой стандартный серверный корпус высотой 1U с креплениями для 19-дюймовой стойки. Процессоров в этой системе три: один традиционный Intel Xeon Skylake-EP (а в будущем, возможно, и AMD EPYC) и два векторных процессора NEC Vector Engine.

Общаются они также посредством PCI Express 3.0, и, что интересно, основная задача выполняется исключительно на этих процессорах, а подсистема x86 выполняет только обслуживающие роли (примерно так же работают многие ускорители в версии PCIe-адаптера). К сожалению, данных о самих чипах очень мало, есть лишь куцые сведения о производительности Vector Engine — более 150 гигафлопс FP64 на одно векторное ядро, более 150 Гбайт/с ПСП в пересчёте на ядро же, суммарная скорость обмена данными достигает 1,5 Тбайт/с.

Количество ядер может достигать 32, теплопакет, по имеющимся сведениям, при этом лежит в пределах 300 ватт. А вот как организована подсистема памяти у NEC Aurora, мы не знаем. Следует полагать, что разработчики позаботились об отсутствии «бутылочного горлышка» в этом месте. Судя по всему, каждый векторный процессор располагает весьмы существенным объёмом высокоскоростной памяти (возможно, HBM2). В рамках кластера роль объединяющей среды выполняет InfiniBand.

С программной же поддержкой у NEC всё хорошо: можно использовать наработанные решения, созданные для суперкомпьютеров серии SX, поддерживаются стандартные средства программирования C/C++ и Fortran, имеется проверенный временем векторный компилятор и развитые средства автоматической «векторизации» кода. В качестве основной операционной системы используется дистрибутив x86 Linux, дополненный специфическим ПО для работы с векторными процессорами. Выглядит новая платформа многообещающе, но как она покажет себя в сравнении с решениями типа GPGPU, ещё предстоит узнать.

Постоянный URL: http://servernews.ru/954503
24.06.2017 [14:05], Сергей Карасёв

Huawei открывает Международный центр высокопроизводительных вычислений

Компания Huawei в рамках конференции ISC 2017 объявила о формировании Международного центра высокопроизводительных вычислений (НРС).

В церемонии открытия центра приняли участие представители Intel — одного из ключевых партнёров Huawei в сфере высокопроизводительных вычислений. Компании пообещали сосредоточить усилия на разработке передовых вычислительных технологий, а также новейших решений и сервисов на их основе.

HPC-центр расположен в Открытой лаборатории в Мюнхене. Он позволит Huawei и участникам рынка оптимизировать процесс усовершенствования платформы для совместной разработки отраслевых решений в сегментах высокопроизводительных вычислений, облачных вычислений и искусственного интеллекта, тем самым ускоряя преобразование отрасли.

Важно отметить, что Huawei позиционирует новый центр как открытую площадку для коллективного использования. «Вычислительные инструменты станут ещё более совершенными и разнообразными в будущем — начиная с местных вычислительных кластеров и заканчивая огромными центрами обработки данных, начиная с периферийных вычислений и заканчивая комбинацией периферийных и облачных вычислений. Одновременно это создаёт огромные сложности для вычислительной платформы. Компания Huawei постоянно проводит исследования на передовой HPC-разработок», — заявляет китайский гигант. 

Постоянный URL: http://servernews.ru/954444
16.06.2017 [16:20], Владимир Мироненко

В погоне за Китаем США выделили $258 млн на создание экзафлопсного суперкомпьютера

Геополитическая битва за суперкомпьютерную мощь становится всё более ожесточённой. В четверг Министерство энергетики США объявило в рамках проекта Exascale Computing Project о гранте в $258 млн, выделенном шести компаниям — AMD, Cray, HPE, IBM, Intel и NVIDIA — на создание первого национального суперкомпьютера экзафлопсной производительности.

Morris MacMatzen/Getty Images

Morris MacMatzen/Getty Images

Экзафлопсный суперкомпьютер способен производить 1 миллион триллионов (1018, квинтильон) вычислительных операций с плавающей запятой в секунду.

Финансирование будет производиться в течение трёх лет. Компании будут вкладывать в проект и собственные средства в размере не менее 40 % от его общей стоимости, которая, как ожидается, составит не менее $430 млн.

Министерство энергетики США нацелено на развертывание одного экзафлопсного компьютера к 2021 году и по крайней мере двух — к 2023 году. Самый быстрый суперкомпьютер в США на текущий момент — Titan, который находится в Национальной лаборатории Ок-Ридж (Oak Ridge National Laboratory).

Getty Images/iStockphoto

Getty Images/iStockphoto

США намерены не отставать от стремительно развивающегося Китая, который в настоящее время обладает самым быстрым суперкомпьютером в мире под названием Sunway TaihuLight. Пиковое быстродействие Sunway TaihuLight теоретически может достигать 124,5 петафлопсов, что делает его первой компьютерной системой, чья производительность превосходит 100 петафлопсов.

Интересно также то, что этот суперкомпьютер основан на процессорах китайского производства. В 2015 году правительство США запретило Intel поставлять свои самые быстрые чипы для суперкомпьютерных проектов Китая. Китайское правительство планирует инвестировать в полупроводниковую индустрию в течение следующего десятилетия в пределах $161 млрд. Китай намерен создать свой первый экзафлопсный компьютер раньше, чем США — в 2020 году.

Постоянный URL: http://servernews.ru/954078