Материалы по тегу: суперкомпьютер

06.07.2019 [20:49], Геннадий Детинич

Конденсатор в прицеле машинного обучения: суперкомпьютеры ускоряют поиск новых материалов

Технологии машинного обучения (ML) позволяют явить миру не только системы распознавания, чем сегодня не занимается только ленивый, но также ведут к появлению решений для сложнейших анализов химических, молекулярных и атомарных структур веществ и материалов. До сих пор подобный анализ вёлся с  использованием знаний и уравнений квантовой механики и физики. Это долгий и трудоёмкий путь, который с помощью технологий ML можно пройти в разы быстрее. Для этого необходимо научить систему анализировать атомную структуру материалов, а не вести длительные расчёты по формулам.

Слева расчёт распределния плотности заряда бензола, справа анализ с помощью машинного обучения

Слева расчёт распределения плотности заряда бензола, справа ― разница между анализом с помощью машинного обучения и расчётом по формулам

Учёные из Технологического института штата Джорджия решили применить методику машинного обучения для анализа атомной структуры материалов, которые используются для производства обычных конденсаторов ― алюминия и полиэтилена. Увеличение потребления энергии ведёт к росту всякого рода силовой электроники, в которой конденсаторы играют немаловажную роль. Эти элементы хотелось бы сделать меньше, а их ёмкость ― больше. Очевидно, что для этого должны быть созданы материалы с заданными свойствами. Машинное обучение может помочь в скорейшем анализе (переборе) массы материалов, на изучение свойств которых традиционными средствами ушло бы непомерно много времени.

Проект по автоматизации анализа атомной структуры материалов включает два этапа расчётов. Первичный, самый быстрый, проходит на базе суперкомпьютера Comet в Сан-Диего (San Diego Supercomputer Center, SDSC), а вторичный ― на суперкомпьютере Stampede Техасского университета в Остине. В систему ML загоняются уже имеющиеся данные по каждому из материалов (алюминию и полиэтилену), рассчитанные с использованием уравнений соответствующего раздела квантовой механики, а учёные наделяют вычислительные платформы алгоритмами, которые учатся имитировать анализ атомной структуры материалов, не прибегая к точным расчётам. Так получается на несколько порядков быстрее, чем использование только квантовой механики.

По мнению учёных, подобным образом можно будет провести быстрый анализ и поиск материалов для любых сфер деятельности человека. Особенно в этом нуждается электронная промышленность, которая приближается к барьеру своих возможностей в виде физических ограничений для техпроцессов КМОП.

Постоянный URL: http://servernews.ru/990312
20.06.2019 [14:07], Сергей Юртайкин

Рынку высокопроизводительных вычислений пророчат рост до $44 млрд

Аналитическая компания Hyperion Research повысила прогноз по мировому рынку высокопроизводительных вычислений (HPC).

Согласно ожиданиям экспертов, в 2023 году продажи серверов, ПО и услуг в области HPC достигнут $44 млрд, тогда как прежде предсказывался показатель в $39 млрд.

Реализация HPC-серверов возрастёт до $19,9 млрд с рекордных $13,7 млрд в 2018 году. В 2023-м спрос на суперкомпьютеры с эксафлопсной производительностью будет измеряться $1,4 млрд, на серверы для обработки ИИ-задач — $2,7 млрд, на оборудование для работы облачных сервисов — $5,5 млрд. Наибольшие темпы роста (примерно на 30 % в год) прогнозируются в сегменте серверов для искусственного интеллекта.

Также в исследовании Hyperion Research указывается, что продажи систем хранения данных для высокопроизводительных вычислений в 2023 году составят $7,8 млрд. Расходы компаний на программное обеспечение и услуги технической поддержки в области HPC поднимутся до $8,6 млрд и $2,9 млрд соответственно.

По прогнозам аналитиков, расходы на суперкомпьютеры с производительностью эксафлопс или чуть меньше в период с 2019 по 2025 годы составят $9 млрд. Сюда войдут первые в истории $1 млрд инвестиций в суперкомпьютер Post-K, который создаётся в Японии.

Постоянный URL: http://servernews.ru/989507
19.06.2019 [19:37], Андрей Созинов

Большому компьютеру большое хранилище: Cray готовит для Frontier СХД ёмкостью 1 Экзабайт

Компания Cray объявила о создании системы хранения данных экзабайтного класса в рамках проекта по созданию суперкомпьютера Frontier. Напомним, что данный суперкомпьютер создаётся Cray совместно с Окриджской национальной лабораторией (Oak Ridge National Lab, ORNL) и Министерством энергетики США (Department of Energy, DOE). Он должен стать самой производительной системой в мире, а запуск ожидается в 2021 году.

Новая система хранения данных будет построена на новом поколении решений Cray ClusterStor. Она будет включать в себя более одного экзобайта гибридной памяти, объединяющей в себе скоростные твердотельные накопители и ёмкие жёсткие диски. Для примера, данное хранилище сможет вместить в себя более 200 млн фильмов в высоком разрешении. 

Работать это всё будет на высокопроизводительной распределённой файловой системе Lustre с локальными ZFS-томами. Причём с единым пространством имён для всей системы в целом, что в сочетании с объёмом СХД делает эту инсталляцию ФС уникальной. 

Создаваемое решение для хранения данных будет напрямую подключено к суперкомпьютеру Frontier через скоростной интерконнект Cray Slingshot. Это должно обеспечить плавную работу системы и возможность масштабирования различных нагрузок вроде моделирования, симуляции, анализа данных и искусственного интеллекта, работающих в системе одновременно. Напомним, что суперкомпьютер Frontier должен обладать производительностью выше 1,5 экзафлопса, так что и хранилище ему нужно скоростное и ёмкое.

СХД нынешнего суперкомпьютера Окриджской лаборатории, который называется Summit, имеет объём 250 петабайт, так что у новой системы объём будет в четыре раза больше. В четыре раза вырастет и пропускная способность — до 10 Тбайт/с.

Новая система будет состоять из более чем 40 стоек и будет разделена на два уровня. Первый уровень будет включать в себя твердотельные накопители и станет высокопроизводительным скоростным хранилищем. Второй же уровень будет построен на жёстких дисках для хранения больших объёмов данных. 

Постоянный URL: http://servernews.ru/989470
18.06.2019 [19:36], Константин Ходаковский

NVIDIA DGX SuperPOD: суперкомпьютер для автопилота за три недели

NVIDIA активно вкладывается в сферу автономных автомобилей. Буквально недавно она объединила усилия с AB Volvo в разработке ИИ-платформы для автономных грузовиков. А теперь компания представила 22-й по производительности в мире (если ориентироваться на публичный рейтинг Top 500) суперкомпьютер — DGX SuperPOD. Задача этой системы — предоставить инфраструктуру ИИ, которая отвечает огромным требованиям программы развёртывания автономных транспортных средств.

Система была построена всего за три недели на основе 96 суперкомпьютеров NVIDIA DGX-2H с использованием интерконнекта Mellanox. Суперкомпьютер в состоянии обеспечить 9,4 петафлопс вычислительной производительности и рассчитан на глубинное обучение массы нейронных сетей, необходимых для создания безопасного самоходного транспорта. 

Заказчики могут самостоятельно построить такой же суперкомпьютер, заказав аналогичные конфигурации DGX-2 у партнёров NVIDIA. DGX SuperPOD оснащён 1536 тензорными ускорителями NVIDIA Tesla V100, объединённых NVIDIA NVSwitch и интерконнектом Mellanox InfiniBand. 

Компания поясняет, что обучение автономного автомобиля — это сложнейшая задача, требующая больших вычислительных ресурсов. Одна машина, собирающая данные, генерирует 1 терабайт информации в час. Если умножить это на годы вождения всего автопарка, то речь идёт о петабайтах данных. Они используются для обучения авто правилам дорожного движения, а также для выявления потенциальных сбоев в нейронных сетях, работающих в автономных машинах, которые затем повторно обучаются в непрерывном цикле — суперкомпьютер трудится над этими задачами круглосуточно. 

«Лидерство в области требует первенства и в вычислительной инфраструктуре, — подчеркнул вице-президент по инфраструктуре ИИ в NVIDIA Клемент Фарабет (Clement Farabet). — Мало направлений ИИ столь же требовательны к ресурсам, как обучение автономных автомобилей — эта задача требует десятки тысяч раз переобучать нейронные сети, чтобы удовлетворить требованиям максимальной точности и надёжности. И здесь ничто не заменит такие ​​мощные вычислительные ресурсы, какие имеются у DGX SuperPOD».

Например, программно-аппаратная платформа DGX SuperPOD способна обучить модель ResNet-50 менее чем за две минуты. Когда эта модель появилась в 2015 году, потребовалось 25 дней, чтобы обучить её на системе с единственной картой NVIDIA K80. DGX SuperPOD работает в 18 000 раз быстрее. В то время как другие системы из списка Top 500 с сопоставимым уровнем производительности используют тысячи серверов, DGX SuperPOD занимает малое пространство — примерно в 400 раз меньше, чем его ближайшие соперники.

Постоянный URL: http://servernews.ru/989395
18.06.2019 [12:54], Константин Ходаковский

В тесте ИИ мощнейший суперкомпьютер утроил результат за счёт вычислений смешанной точности

Недавно мы писали большой материал, посвящённый июньскому обновлению публичного рейтинга суперкомпьютеров Top 500. В нём, в частности, упоминались проблемы, связанные с оценкой реальной производительности систем. Дело в том, что в список попадают суперкомпьютеры, которые прошли тест High-Performance Linpack (HPL) вне зависимости от того, используются ли они для реальных нагрузок HPC или ИИ. Но есть и другая сторона дела: Linpack оценивает 64-бит производительность систем в вычислениях с плавающей запятой, но многие современные нагрузки в области ИИ не всегда требуют такой точности, и потому реальная производительность может быть заметно выше.

Именно это недавно продемонстрировала Национальная лаборатории Ок-Риджа, протестировав свой суперкомпьютер Summit (текущий лидер среди участников публичного рейтинга Top500, создан IBM при участии NVIDIA и Mellanox) в особом тесте HPL-AI, призванном оценивать производительность суперкомпьютеров в задачах машинного обучения и искусственного интеллекта. В этом тесте Summit набрал 445 петафлопс — втрое больше стабильных 148,6 петафлопс в тесте HPL.

HPL, представленный три десятка лет назад, остаётся эталоном для измерения производительности систем Top500 в задачах HPC. Более современная альтернатива — HPCG Benchmark — пока так и не достигла заветной цифры в 500 участников рейтинга. 

Однако нынешние суперкомпьютеры теперь используются и в сфере «искусственного интеллекта», а не только для классических «тяжёлых» расчётов. При этом в большинстве ИИ-моделей применяются вычисления половинной или смешанной точности — принципиально иной метод, который позволяет исследователям повысить вычислительную эффективность, получив доступ к неиспользованному потенциалу производительности современных суперкомпьютеров.

Чтобы учесть этот фактор и был предложен тест HPL-AI, представляющий собой развитие HPL для оценки производительности вычислений смешанной точности, широко используемых для обучения моделей искусственного интеллекта. Методология HPL-AI изложена в документе, опубликованном на SC 2018 Аззамом Хайдаром (Azzam Haidar), Джеком Донгаррой и его командой.

«Методы смешанной точности становятся все более важными для повышения вычислительной эффективности суперкомпьютеров, как для традиционного моделирования с методами итеративного уточнения, так и для задач ИИ, — отметил господин Донгарра. — Так же, как HPL позволяет сравнивать потенциал систем в вычислениях двойной точности, этот новый подход, основанный на HPL, позволяет сравнивать возможности суперкомпьютеров в задачах смешанной точности».

NVIDIA удалось осуществить весь массив вычислений в рамках тестового запуска HPL-AI на Summit всего за полчаса — втрое быстрее, чем исполняется оригинальный HPL. В ряде задач, как можно видеть, это может давать кратно ощутимое преимущество. Напомним: в Summit используется 27 000 графических ускорителей NVIDIA Tesla V100.

Учёные используют суперкомпьютеры с поддержкой вычислений смешанной точности для моделирования и задач искусственного интеллекта в области химии, атомной энергетики, нефтегазовой промышленности и так далее.

Постоянный URL: http://servernews.ru/989365
18.06.2019 [12:40], Владимир Мироненко

Total запустила самый мощный в отрасли суперкомпьютер Pangea III

Французская нефтегазовая компания Total, занимающая четвёртое место в мире по объёмам добычи нефти и газа, запустила в эксплуатацию самый мощный в отрасли суперкомпьютер Pangea III (согласно публичным данным).

REUTERS/Charles Platiau

REUTERS/Charles Platiau

Компания надеется, что он позволит геологам находить нефть быстрее, дешевле и с большей долей успешных попыток бурения.

Суперкомпьютер Pangea III, разработанный IBM, поможет обрабатывать разнообразные данные сейсморазведки при поиске углеводородов в 10 раз быстрее, чем раньше, сообщила Total во вторник.

Компания также рассказала, что вычислительная мощность Pangea III выросла до 31,7 петафлопса с 6,7 петафлопса у предыдущей версии суперкомпьютера, вышедшей в 2016 году, и 2,3 петафлопса у версии 2013 года выпуска.

Pangea III занимает первое место среди суперкомпьютеров в нефтегазовом секторе и 11-е место в мире в публичном рейтинге самых производительных суперкомпьютеров TOP500. Правда, нельзя не отметить, что участие в этом рейтинге добровольное. Поэтому о некоторых действительно производительных машинах — а именно такие нужны данному сектору — мы вряд ли узнаем. 

Постоянный URL: http://servernews.ru/989363
17.06.2019 [23:32], Константин Ходаковский

Эра экзафлопсных вычислений на подходе, но трудности нарастают

Долгое время Закон Мура был справедлив для всех отраслей компьютерной индустрии — от домашних систем до суперкомпьютеров: каждые два года удваивалось число транзисторов на единицу площади за счёт прогресса в нормах производства, а вместе с этим росла и производительность. Сейчас рост, если судить по рейтингу Top 500, постепенно замедляется. Претендовать на звание суперкомпьютеров могут системы (создаваемые правительствами, институтами и организациями), способные обеспечить не менее петафлопса производительности. Но вскоре десятки и сотни петафлопс станут нормой, экзафлопсные вычисления станут общим местом, и индустрия начнёт думать о выборе следующего психологического порога производительности.

Шесть лет назад в списке Top 500 за июнь 2013 года совокупная производительность полутысячи систем, прошедших тестирование Linpack, начала замедляться и в итоге пересекла прогнозируемую линию закона Мура. Это произошло после всплеска прироста производительности, когда совокупный рост мощностей суперкомпьютеров в течение некоторого времени несколько опережал закон Мура.

Совокупная производительность в списке Top 500 за июнь 2019 года составляет 1,56 экзафлопс, что на 28 % больше 1,22 экзафлопс на июнь 2018 года и вдвое больше 749 петафлопс на июнь 2017 года (стоит помнить, что всё это согласно результатам теста Linpack, оценивающего 64-бит производительность систем в вычислениях с плавающей запятой). Не так уж плохо, но если бы тенденция соответствовала закону Мура, в июне 2019 года совокупная производительность 500 суперкомпьютеров в списке должна была быть на уровне порядка 4 экзафлопс — отставание огромно.

Производительность самого мощного суперкомпьютера на приведённом графике находится посредине. Традиционно эта линия выглядит ступенчатой, поскольку такая система, как правило, возглавляет список несколько лет подряд, пока на смену ей не приходит новый «царь горы». Если бы соответствие закону Мура сохранялось, индустрия уже должна была создать систему производительностью почти 500 петафлопс по оценке в Linpack. Линия закона Мура гласит, что к сентябрю 2020 года у нас должна быть машина с производительностью в 1 экзафлопс. Но, похоже, мы опоздаем примерно на год, даже если США, Китай, Япония и ЕС выполнят свои планы. 

Интересно, однако, что уже в июне 2014 года нижний представитель списка Top 500 тоже стал отставать от прогнозов. Сейчас в этом списке имеются суперкомпьютеры с производительностью не менее 1 петафлопс в операциях с плавающей запятой двойной точности по оценке Linpack. Хотя это и большое достижение, в теории там уже должны быть системы мощностью не менее 2,5 петафлопс.

Насколько всё это критично — сказать сложно. Индустрия высокопроизводительных вычислений продолжает развиваться и решать множество проблем, в том числе в области сетевых соединений и систем хранения данных. Но две вещи очевидны: становится всё труднее поддерживать темпы прироста производительности, как с точки зрения архитектуры, так и с точки зрения затрат.

Уже много лет подряд гораздо проще нарастить производительность суперкомпьютера, чем снизить стоимость вычислительной единицы. Но учёные и технологи стараются решать проблему наращивания производительности на многих фронтах. С одной стороны, даже удивительно, что мы сейчас находимся на пороге экзафлопсных вычислений: единица производительности стоит намного дешевле, чем многие предсказывали, а энергопотребление — заметно ниже, чем представлялось возможным.

Итак, давайте внимательнее взглянем на пять верхних систем из рейтинга Top 500 за июнь 2019 года. Система Summit, созданная IBM с помощью NVIDIA и Mellanox Technologies для Национальной лаборатории Ок-Ридж, немного повысила свою производительность, достигнув стабильных 148,6 петафлопс в Linpack — почти весь прирост получен за счёт ускорителей Tesla с архитектурой Volta. При этом пиковая производительность Summit составляет 200,8 петафлопс.

Система Sierra Ливерморской национальной лаборатории им. Лоуренса сохранила производительность в 94,6 петафлопс и удержалась на втором месте. Sunway TaihuLight в Национальном суперкомпьютерном центре в Уси (Китай) на базе собственных процессоров SW26010 заняла третье место с 93 петафлопсами. Tianhe-2A в Национальном суперкомпьютерном центре в Гуанчжоу (Китай), использующая DSP-ускорители Matrix-2000 и чипы Xeon, заняла четвёртое место с 61,4 петафлопсами.

Ходили слухи о том, что Китай собирается запустить одну из своих систем предэкзафлопсного поколения, чтобы сбросить Summit с Олимпа, однако этого не произошло — возможно, стоит подождать до ноября 2019 года. Можно ожидать, что до появления экзафлопсных систем в конце 2021 года или в начале 2022 года мы увидим немало суперкомпьютеров с производительностью в районе 200 петафлопс.

Система Frontera Центра передовых вычислений в Университете Техаса, созданная Dell на основе 28-ядерных процессоров Intel Xeon Platinum 8280 (Skylake-SP) с использованием интерконнекта InfiniBand 200 Гбит/с от Mellanox, заняла лишь пятое место. Frontera — это уже не вполне характерный сегодня суперкомпьютер, так как для расчётов используются только CPU. Его максимальная теоретическая производительность составляет 38,7 петафлопс, а в Linpack он показывает 23,5 петафлопс — эффективность 448 448 ядер составляет всего 60,7 %. Возможно, в будущем система повысит показатели за счёт оптимизации исполнения Linpack.

Примерно с 2003 года Intel остаётся доминирующим поставщиком — по крайней мере, по количеству систем, использующих её процессоры. Сейчас CPU Intel применяются в 95,6 % представителей из списка Top 500, однако нужно сказать несколько слов и о самом рейтинге. Дело в том, что всё большее количество суперкомпьютеров из США, Китая, ЕС и Японии, отправляющих результаты Linpack, не имеют ничего (подчас абсолютно ничего) общего к реальным рабочим нагрузкам HPC или даже к нагрузкам в области искусственного интеллекта и просто участвуют в рейтинге ради престижа своих стран.

Нет правила, согласно которому входящая в рейтинг машина должна действительно выполнять задачи HPC или ИИ в качестве своей повседневной работы: важны лишь результаты Linpack. Это искажает характер списка: фактически из него вытесняются реальные центры высокопроизводительных вычислений, и, что быть может ещё важнее, создаётся впечатление, будто отставание от закона Мура не столь значительно, чем, вероятно, дело обстоит на самом деле.

Хотелось бы, чтобы в будущем в списке Top 500 была какая-то проверка, позволяющая убедиться, что суперкомпьютер действительно на деле выполнял задачи HPC бо́льшую часть времени до того, как попал в рейтинг. Смысл списка должен быть в понимании реальных тенденций HPC, а не тенденций систем, настроенных на тесты производительности Linpack.

Более четверти всего рейтинга Top 500 сейчас представляют машины с ускорителями. Суперкомпьютеры на базе NVIDIA Tesla V100 в том или ином исполнении занимают 62 пункта или 12,4 % списка, обеспечивая при этом 621,4 петафлопс пиковой и 406,3 петафлопс устойчивой производительности — примерно четверть 1,56 экзафлопса производительности всего списка на июнь 2019 года.

Более старые ускорители NVIDIA Tesla P100 установлены в 46 машинах (9,2 % систем), но обеспечивают 160,8 петафлопс в пике и 94,6 петафлопс устойчивой производительности Linpack (6,1 % совокупной мощности). В список вошли ещё двенадцать машин, использующих акселераторы NVIDIA, но их устойчивая производительность составляет всего 44,7 петафлопс, что не очень много. Есть только две машины, которые построены исключительно на ускорителях Intel Xeon Phi. Есть ряд гибридных машин с Xeon и Xeon Phi, которые за счёт ускорителей способны обеспечить внушительную производительность в операциях с плавающей запятой, но эти данные не конкретизируются в сводной информации Top 500.

Проблема в том, что ускоренные системы ещё не являются нормой, но они уже считаются суперкомпьютерами. Реальные  задачи суперкомпьютеров могут не всегда получать ощутимый прирост от использования GPU и других ускорителей — последние показывают высокую эффективность на системах, которые исполняют одновременно сотни или тысячи приложений и потоков. NVIDIA создала рынок таких систем, а AMD и Intel сейчас собираются на нём конкурировать — это будет стимулировать инновации и снижать цены, что полезно для клиентов, но, возможно, не так хорошо для поставщиков. На рынке HPC уже сегодня сложно зарабатывать деньги, а в эпоху экзафлопсных вычислений станет ещё труднее.

Постоянный URL: http://servernews.ru/989334
17.06.2019 [19:51], Андрей Созинов

NVIDIA обеспечит ARM-системам поддержку ускорения вычислений с CUDA

Компания NVIDIA объявила о том, что теперь её продукты в полной мере поддерживают работу с центральными процессорами на архитектуре ARM. В первую очередь это должно позволить производителям создавать ещё более экономичные суперкомпьютеры для вычислений экзафлопсного уровня с поддержкой алгоритмов искусственного интеллекта.

Уже к концу текущего года создатели систем на базе ARM получат доступ ко всему программному обеспечению NVIDIA для искусственного интеллекта (ИИ) и высокопроизводительных вычислений (High performance computing, HPC). По словам компании, это ПО способно ускорить свыше 600 HPC-приложений и все AI-фреймворки. Сюда входят все библиотеки NVIDIA CUDA-X AI и HPC, GPU-ускоренные AI-фреймворки и инструменты программной разработки, такие, как PGI-компиляторы с поддержкой OpenACC и профилировщики.

Как известно, опыт работы с ARM у компании NVIDIA уже был. Ещё относительно недавно она активно трудилась над созданием собственных ARM-процессоров, которые сочетались бы с её собственными графическими ускорителями и использовались в мобильных устройствах, роботах и роботизированных автомобилях. Вместе с тем NVIDIA разрабатывала не только аппаратную часть, но и программную, и в итоге теперь эти наработки смогут использовать и сторонние производители.

Заметим, что уже сейчас NVIDIA обеспечила поддержку ускорения HPC и ИИ на архитектурах x86 и POWER, а после завершения процесса оптимизации к ним присоединится ARM. Получается, NVIDIA в скором времени сможет предложить ускорение вычислений для всех наиболее распространённых архитектур CPU.

«Суперкомпьютеры являются необходимым инструментом для совершения научных открытий. Переход на экзафлопсный уровень вычислений значительно расширит горизонты человеческого познания, — говорит Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA. — Масштабирование традиционных вычислений подходит к своему пределу из-за ограничений, накладываемых энергопотреблением суперкомпьютеров. Сочетание CUDA-ускоренных вычислений и энергоэффективной архитектуры ARM позволит HPC-сообществу перейти на экзафлопсный уровень».

«ARM работает со своей экосистемой, чтобы наделить платформы на базе ARM высочайшей производительностью и возможностями экзафлопсного уровня, — говорит Саймон Сигарс (Simon Segars), генеральный директор ARM. — Партнёрство с NVIDIA для обеспечения CUDA-ускорения архитектуре ARM является очень важным событием для HPC-сообщества, которое уже применяет технологии ARM для решения самых сложных в мире научных задач».

Согласно представленному сегодня обновлённому рейтингу Green500, ускорители на графических процессорах NVIDIA лежат в основе 22 из 25 самых энергоэффективных суперкомпьютеров мира. Высокой эффективности способствует то, что в данных системах тяжёлые вычислительные нагрузки выполняются на более энергоэффективных GPU с ядрами CUDA. Ещё отмечается сотрудничество NVIDIA с Mellanox по оптимизации вычислений в супервычислительных кластерах, а также использование SXM 3D-компоновки и высокоскоростного интерфейса NVIDIA NVLink, что позволяет создавать узлы с высокой плотностью и масштабируемостью. А теперь с поддержкой ARM могут появиться ещё более эффективные системы. 

Идеальным вариантом для NVIDIA было бы наличие в портфолио собственного процессора, что позволило бы создать единую платформу и экосистему без явной зависимости от других производителей. Причём такой процессор вовсе не обязан быть очень мощным. Гораздо важнее масштабируемость GPU-платформ, и покупка Mellanox вполне может оказаться первым шагом в этом направлении. 

Постоянный URL: http://servernews.ru/989326
14.06.2019 [15:11], Сергей Карасёв

Космический суперкомпьютер HPE Spaceborne вернулся на Землю

Вычислительная система HPE Spaceborne вернулась на Землю с борта Международной космической станции (МКС).

О космическом суперкомпьютере Spaceborne мы уже рассказывали. Он был разработан для того, чтобы продемонстрировать, насколько живучими могут быть обычные серверы в космосе.

Система обладает производительностью на уровне одного терафлопса, то есть способна выполнять триллион операций с плавающей запятой в секунду. В качестве программной платформы применяется специальная версия Linux.

Суперкомпьютер был доставлен на МКС на борту космического корабля SpaceX Dragon в августе 2017 года. Теперь этот же аппарат вернул вычислительную систему на Землю.

Изначально некоторые специалисты скептически относились к проекту, заявляя, что суперкомпьютер не проработает в космосе и недели. Однако Spaceborne продержался 615 суток.

И всё же в работе комплекса были зафиксированы различные аномалии — от странных скачков температуры до повышенного количества ошибок в кеше процессора. Теперь все зарегистрированные сбои будут тщательно проанализированы.

Уже обсуждается возможность отправки на МКС системы Spaceborne 2. Планируется, что она объединит элементы для решения различных задач — высокопроизводительных вычислений, машинного обучения, работы алгоритмов искусственного интеллекта и пр. 

Постоянный URL: http://servernews.ru/989207
08.06.2019 [11:11], Сергей Карасёв

Определены восемь площадок для европейских суперкомпьютеров

На территории Европейского союза определены восемь площадок для размещения высокопроизводительных вычислительных комплексов.

Речь идёт о создании новых суперкомпьютерных центров. Они будут сформированы в интересах исследователей, бизнес-пользователей и промышленных организаций.

Предполагается, что новые вычислительные площадки будут задействованы в рамках реализации самых разных проектов. Это создание перспективных лекарственных препаратов, разработка новых материалов, решение проблем глобальных изменений климата и пр.

Сообщается, что площадки высокопроизводительных вычислений расположатся в Софии (Болгария), Остраве (Чехия), Каяани (Финляндия), Болонье (Италия), Биссене (Люксембург), Минью (Португалия), Мариборе (Словения) и Барселоне (Испания).

Управлять работой новых суперкомпьютерных центров будут практически два десятка стран. 

Постоянный URL: http://servernews.ru/988845
Система Orphus