Материалы по тегу: супервычисления

07.12.2017 [19:25], Алексей Степин

Президенту PEZY Computing предъявлены обвинения в мошенничестве

Об уникальных японских процессорах PEZY-SC мы рассказываем читателям не первый год. Впервые о них мы поведали в 2016 году во время конференции ISC 2016, а на ISC 2017 компания-разработчик представила PEZY-SC2 — ещё более быструю версию предыдущей архитектуры. Процессор, кроме того, использовал уникальную технологию внутричиповых соединений TCI на базе индуктивных пар. Однако дела у компании идут далеко не гладко. Президент PEZY Computing Мотоаки Сайто (Motoaki Saito) и ещё один сотрудник компании Дайсукэ Сузуки (Daisuke Suzuki) были арестованы во вторник пятого декабря.

Согласно официальной версии, главная вина подозреваемых заключается в получении мошенническим путём государственных средств на сумму 431 млн иен (порядка 3,8 млн долларов США). Если верить предъявленным обвинениям, схема мошенничества довольно проста: компания, как это нередко бывает, получала субсидирования от государства, в частности, от организации NEDO (New Energy and Industrial Technology Development Organization), но в итоге себестоимость разработок PEZY была обманным путём завышена, и разницу в сумме руководители использовали в личных целях. Именно это и является составом преступления по мнению местных правоохранительных органов.

Сбудутся ли теперь амбициозные планы PEZY?

Сбудутся ли теперь амбициозные планы PEZY?

Сумма почти в 4 миллиона долларов США не выглядит маленькой, поскольку семилетний капитал самой PEZY оценивается примерно в 940 млн иен (около $8,4 млн), а планы у компании самые наполеоновские: уже в следующем году был запланирован выпуск 7-нм чипа PEZY-SC3 с 8192 ядрами, а на 2020 год был назначен настоящий монстр — PEZY SC4, использующий уже 5-нм техпроцесс и располагающий 16384 ядрами. В настоящее время PEZY-SC2 являются основой гибридного суперкомпьютера Gyoukou производительностью 19,4 петафлопс, который, согласно последним отчетам, занимает четвёртую строчку рейтинга Top 500. Используется этот уникальный процессор и в других японских кластерных системах. Как скажется судебный процесс над главой компании на её весьма амбициозных планах — пока неясно.

Постоянный URL: http://servernews.ru/962581
07.12.2017 [18:44], Алексей Степин

Новый кластер NVIDIA Saturn V: некоторые подробности

Крупнейшие разработчики и производители микропроцессоров не очень-то любят рассказывать о своих проектах суперкомпьютеров, и информацию о таких проектах буквально приходится выцеживать по крупицам. Оригинальный узловой сервер NVIDIA DGX-1, являющийся основой кластера Saturn V, был представлен ещё на конференции SC16. Вся система состояла из 124 серверов DGX-1P, в каждом из которых было установлено по два 20-ядерных процессора Broadwell-EP с частотой 2,2 ГГц и по 8 ускорителей на базе Pascal P100 в форм-факторе SXM2, позволявшим пользоваться интерфейсом NVLink 1.0. На сегодня, однако, в руках NVIDIA есть куда более подходящий ускоритель - Tesla V100, чьи тензорные ядра делают его отличным решением для задач машинного обучения.

С четырьмя узлами DGX-1P, каждый из которых, к слову, мог потреблять до 3200 ватт, система смогла достичь пиковой производительности 4,9 петафлопса на вычислениях двойной точности. Тест матричной математики Linpack Fortran показал 67,5 % эффективности (3,31 петафлопса), что обеспечило системе 28 место в списке Top 500 на ноябрь 2016 года. Стоимость Saturn V составила $13 миллионов. Если бы процессоры Xeon имели интерфейс NVLink, производительность была бы выше, но они такового не имеют, вот почему NVIDIA вкладывает усилия в создание нового узлового сервера на базе процессоров POWER9. Назовём такую модель DGP-1V: в этом названии зашифровано сочетание POWER9 и ускорителей Volta. Новая версия NVLink 2.0 и когерентность кешей ЦП и ГП должна существенно увеличить эффективность такого сервера.

От малого к большому: иерархия узлов Saturn V

От малого к большому: иерархия узлов Saturn V

Новый Saturn V в максимальной конфигурации будет насчитывать до 660 узлов, оснащённых ускорителями Tesla V100; впрочем, их количество на узел останется прежним — по восемь ускорителей на корпус. Всего в системе будет 5280 процессоров Volta, что даст ей 80 петафлопс пиковой производительности на одинарной точности и 40 петафлопс — на двойной. Но что самое важное, в задачах машинного обучения, где часто используется смесь FP16 и FP32, теоретическая эффективная производительность нового Saturn V может достичь 660 петафлопс. Пока NVIDIA протестировала лишь 33-узловую конфигурацию, показавшую 1,82 петафлопса и эффективность на уровне 58,8 %, но удельная производительность составила 15,1 Гфлопс/ватт против 9,46 Гфлопс/ватт у системы предыдущего поколения.

Среднее звено

Среднее звено

Дешёвой новая система не будет: стоимость одного узла в полном оснащении оценивается в $149 тысяч (против $129 тысяч у DGX-1P), и суперкомпьютер Saturn V в новом своём воплощении может обойтись в $100‒$110 миллионов, причём эта цена не включает программное обеспечение для машинного обучения и внешние файловые системы Lustre или GPFS. Но заявка у «зелёных» серьёзная: в районе следующего года NVIDIA надеется смонтировать полную 660-узловую версию Saturn V и достичь показателя 22,3 петафлопса в тестах Linpack, что выведет новый суперкомпьютер на третье место в списке Top 500. Особенно большие надежды возлагаются на задачи машинного обучения: DGX-1P мог обеспечивать в этих сценариях 170 терафлопс, а вот условный DGP-1V за счёт наличия тензорных ядер — уже 960 терафлопс или в 5,6 раз больше.

Высший уровень

Высший уровень

Что касается сетевой конфигурации, то основой межузловых соединений станет стандарт InfiniBand EDR со скоростью 100 Гбит/с на кабель. Доступ к основной сети и хранилищам данных обеспечит сеть Ethernet на скорости 10 Гбит/с (несколько странно, что не использован более новый стандарт 25G), а для целей управления и телеметрии хватит и обычного канала Gigabit Ethernet. На среднем уровне коммутацию IB будут выполнять устройства Mellanox Director с 216 портами, а на высшем — ещё более мощные коммутаторы той же серии с 324 портами. Узким местом система межузловых соединений, скорее всего, не станет —  у Mellanox наработан огромный опыт в этой области, и есть полный спектр решений, покрывающих все потребности NVIDIA в проектировании сетевой подсистемы нового Saturn V.

Постоянный URL: http://servernews.ru/962577
22.11.2017 [23:35], Алексей Степин

Cavium празднует ещё одну победу ARM в серверном сегменте

Архитектура x86 с нами давно. Когда-то её уделом были лишь персональные компьютеры, но в последние годы подавляющее большинство серверных систем и прочих решений класса HPC строятся именно на базе процессоров Intel или AMD. Времена господства таких архитектур, как DEC Alpha или MIPS давно позади, хотя, к примеру, IBM POWER всё ещё сопротивляется активному натиску со стороны Intel Xeon и AMD Opteron/EPYC: в свежем рейтинге TOP500 всего 24 машины из 500 используют отличную от x86 архитектуру.

Но по ряду причин x86 даже с 64-битными расширениями не является оптимальной и особенно в том случае, когда речь заходит о соотношении производительности и энергопотребления. Последнее автоматически тянет за собой и повышенное тепловыделение, что в условиях увеличения плотности размещения узлов в ЦОД и суперкомпьютерах представляет собой серьёзную проблему. У x86 есть и ещё один конкурент — это архитектура ARM, которую долгое время никто всерьёз в качестве серверной не воспринимал.

Широко известный слайд, демонстрирующий эволюцию архитектур суперкомпьютеров

Широко известный слайд, демонстрирующий эволюцию архитектур суперкомпьютеров

Однако ARM это не просто рабочая лошадка в секторе планшетов и смартфонов. Всё зависит от реализации, и некоторые варианты процессоров на базе этой архитектуры обладают весьма серьёзными возможностями. К числу таких чипов относится Cavium ThunderX2. Этот новый чип на базе ARMv8-A был продемонстрирован разработчиками ещё на ISC 2017. Характеристики его выглядят вполне солидно: здесь и 54 ядра с частотой 3 ГГц, и поддержка двухсокетных конфигураций, и шестиканальный контроллер памяти, и 24 порта SATA (и, вероятно, SAS).

Блок-схема ThunderX2

Блок-схема ThunderX2

Нельзя забывать и про встроенную поддержку Ethernet 25G, наличие 32 Мбайт общего кеша L2, интегрированные аппаратные средства шифрования и контроллер PCI Express 3.0. При этом теплопакет, по данным Cavium, не превышает 95 ватт. К сожалению, у нас пока нет возможности проверить это утверждение. Но можно представить себе, какой величины достиг бы этот показатель в случае 54-ядерного Xeon, даже в варианте Skylake. Проникновение ARM в сегмент HPC, впрочем, быстрым назвать нельзя, хотя Cavium вполне заслуженно хвалится своими успехами на этом поприще.

Процессоры Cavium используют пусть и свой, но вполне привычный разъём типа LGA

Процессоры Cavium используют пусть и свой, но вполне привычный разъём типа LGA

Одна из национальных лабораторий Министерства энергетики США — Аргоннская национальная лаборатория — объявила, что планирует установку нового кластера производства Hewlett Packard Enterprise, а основой этого кластера станут именно процессоры Cavium ThunderX2. Надо полагать, что в такой организации, как Министерство энергетики, хорошо понимают всю важность экономичности суперкомпьютеров. Кластер под названием Comanche Wave будет состоять из 32 узлов. В числе прочего его задачей будет оценка применимости ARM в сфере супервычислений и разработка соответствующего программного обеспечения, включая ARM-версию компилятора LLVM.

Потенциальный конкурент Xeon и EPYC: взгляд вблизи

Потенциальный конкурент Xeon и EPYC: взгляд вблизи

Именно Аргоннская лаборатория активно поддерживает альтернативные процессорные архитектуры и славится своими разработками для платформ PowerPC и IBM Blue Gene/Q, так что выбор места установки нового кластера не вызывает удивления. Интересно отметить, что Cavium, по сути, смогла перехватить кусок пирога буквально под носом у Intel, которой не удалось заключить контракт на установку суперкомпьютера Aurora на базе процессоров Xeon Phi Knights Hill. Лишь в 2021 году «синие» повторят попытку с процессорами x86, которые будут доступны к тому моменту. Впрочем, не факт, что это будет именно x86.

Постоянный URL: http://servernews.ru/961897
16.11.2017 [19:00], Алексей Степин

77 % новых кластерных систем и суперкомпьютеров используют InfiniBand

Как мы уже неоднократно отмечали, одной из важнейших частей любого суперкомпьютера или кластера является система межузловых соединений. Именно от неё зависит то, насколько эффективно будут распараллеливаться ресурсы, ведь медленная сеть легко может свести на нет все преимущества самых мощных процессоров и ускорителей. Сегодня Ethernet претендует на эту роль весьма активно благодаря развитию новых стандартов и достижению скоростей уровня 200 Гбит/с. Но другая технология, исторически раньше укоренившаяся в суперкомпьютерной отрасли, InfiniBand, похоже, не собирается сдавать позиции.

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Говорим InfiniBand, подразумеваем Mellanox. Именно эта компания является самым активным разработчиком соответствующих устройств на рынке InfiniBand. Такое название, как ConnectX, знакомо любому, кто когда-либо интересовался тематикой высокоскоростных межсерверных соединений. Компания опубликовала последнюю статистику, согласно которой, 77 % всех суперкомпьютеров, вошедших в список TOP500 последними, в период с июня по ноябрь текущего года, используют именно InfiniBand. Таких систем в шесть раз больше, нежели применяющих сети собственной разработки и в 15 раз больше, нежели платформ, объединённых стандартом Ethernet.

А вот новейшие модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

А вот последние модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

Всего на долю InfiniBand приходится 60 % всех систем в списке, из этих 60 % две системы входят в пятёрку наиболее производительных суперкомпьютеров в мире. Как считают представители Mellanox, это закономерно, поскольку InfiniBand обладает рядом преимуществ перед Ethernet. Как минимум, данный протокол с самого начала разрабатывался, как предназначенный именно для использования в системах класса HPC, поэтому его создатели сконцентрировались на достижении не только высокой пропускной способности, но и минимизации задержек. Впрочем, Mellanox не отказывается от Ethernet. Напротив, на выставке-конференции SC17 она представила ряд интересных решений, включая новейшие «умные» ускорители на базе связки чипов ConnectX-5 и Xilinx Kintex UltraScale.

Постоянный URL: http://servernews.ru/961639
14.11.2017 [14:38], Сергей Карасёв

Рейтинг «зелёных» суперкомпьютеров возглавили три новые системы из Японии

Представлена ноябрьская редакция рейтинга Green500 — списка мощнейших вычислительных систем мира, обеспечивающих наиболее высокую энергетическую эффективность.

Сообщается, что места с первого по третье занимают новые японские системы — Shoubu system B, Suiren2 и Sakura. Энергетическая эффективность этих комплексов составляет соответственно 17,0, 16,8 и 16,7 гигафлопса (миллиарда операций с плавающей запятой в секунду) на ватт. Что касается производительности, то она достигает 842,0, 788,2 и 824,7 терафлопса (триллиона операций с плавающей запятой в секунду).

Любопытно, что лидер списка Green500 — упомянутая система Shoubu system B — в общем рейтинге суперкомпьютеров Top500 занимает лишь 259 место. В свою очередь комплекс Sunway TaihuLight, стоящий на вершине Top500, в списке Green500 оказался на 20 позиции с эффективностью около 6,1 гигафлопса на ватт.

Самым энергоэффективным российским суперкомпьютером назван «Политехник РСК Торнадо» (Polytechnic RSC Tornado), показавший результат примерно 2,1 гигафлопса на ватт. Производительность данной системы составляет 658,1 терафлопса.

Более подробно с рейтингом «зелёных» суперкомпьютеров можно ознакомиться здесь

Постоянный URL: http://servernews.ru/961480
14.11.2017 [13:00], Сергей Карасёв

Представлена юбилейная редакция мирового рейтинга суперкомпьютеров Top500

Обнародована юбилейная пятидесятая редакция рейтинга мощнейших вычислительных систем мира Top500. Забегая вперёд скажем, что лидерство сохранил китайский суперкомпьютер Sunway TaihuLight.

Суммарная производительность входящих в рейтинг вычислительных комплексов достигла 845 петафлопсов (квадриллионов операций с плавающей запятой в секунду). Для сравнения: шесть месяцев назад этот показатель равнялся 749 петафлопсам, а год назад — 672 петафлопсам.

Из 500 вошедших в рейтинг систем в 471 применяются процессоры Intel. Таким образом, доля этих суперкомпьютеров достигла 94,2 %. Ещё 14 комплексов полагаются на процессоры IBM Power.

Производительность наименее мощного суперкомпьютера в рейтинге составляет 548,7 терафлопса (триллиона операций с плавающей запятой в секунду). Полгода назад на последней строчке находилась система с быстродействием 432 терафлопса.

По общему количеству систем в рейтинге лидирует Китай, на счету которого 202 комплекса. Далее идут Соединённые Штаты со 143 системами. Япония с 35 суперкомпьютерами находится на третьем месте.

Лидирующую позицию, как уже отмечалось, продолжает удерживать китайский монстр Sunway TaihuLight, быстродействие которого составляет 93 петафлопса, а пиковая производительность теоретически может достигать 125 петафлопсов.

На второй строке располагается ещё одна система из КНР — Tianhe-2 (MilkyWay-2) с мощностью в 33,9 петафлопса. «Бронза» досталась швейцарской системе Piz Daint с 19,6 петафлопса.

Самый мощный российский суперкомпьютер — «Ломоносов-2» — располагается на 63 строке с быстродействием в 2,1 петафлопса. 

Постоянный URL: http://servernews.ru/961477
28.10.2017 [21:30], Алексей Степин

Amazon предлагает виртуальные системы EC2 с ускорителями Tesla V100

Компания Amazon — это не только владелец крупнейшей в мире торговой площадки, на которой можно приобрести практически всё, но и весьма серьёзный поставщик облачных услуг. К этим услугам недавно добавилась новая: компания первая в мире предложила потенциальным клиентам виртуальные системы EC2, в состав которых входят вычислительные ускорители NVIDIA Tesla V100. Нацелены такие услуги на тех, кто занимается машинным обучением, рассчитывает поведение жидкостей и газов, работает с сейсмическими данными и вообще всех тех, кому нужны серьёзные вычислительные мощности.

Возможные конфигурации новых платформ Amazon EC2

Возможные конфигурации новых платформ Amazon EC2

В настоящий момент доступны конфигурации с одним, четырьмя и восемью ускорителями Tesla V100. На каждый графический процессор приходится по восемь ядер Xeon, хотя и не уточняется какой архитектуры. Соответственно, в максимальном варианте (p3.16xlarge) в распоряжении пользователя имеется 64 виртуальных ЦП, три ускорителя V100 с общим объёмом памяти 128 Гбайт, шина NVLink (300 Гбайт/с), 488 Гбайт оперативной памяти и сетевая подсистема, работающая на скорости 25 Гбит/с. У менее мощных конфигураций эти параметры могут варьироваться в меньшую сторону. Цены довольно существенны: использование самой мощной конфигурации может стоить почти $25 в час в США и почти вдвое дороже в Японии, но всё же в ряде случаев это будет дешевле, нежели сборка собственной системы с сопоставимым уровнем производительности и поддержание её в рабочем состоянии.

NVIDIA Tesla V100: NVLink (слева) и PCI Express

NVIDIA Tesla V100: NVLink (слева) и PCI Express

Зарубежные обозреватели предполагают, что особенно востребованными новые конфигурации виртуальных машин Amazon будут у тех, кто занимается проблемами машинного обучения. Неудивительно: в составе ядра V100 имеются специальные блоки тензорных вычислений, и производительность на подобного рода задачах составляет внушительные 125 терафлопс. Но и в обычных вычислениях показатели достаточно солидны: 7,8 терафлопс в режиме FP64 и вдвое больше в режиме FP32. По всей видимости, в ближайшее время представят свои аналоги виртуальных систем с ускорителями Microsoft и Google: первая может сделать упор на широкое применение ПЛИС, а у Google есть тензорный процессор собственной разработки. Тем не менее, пальма первенства по праву принадлежит Amazon.

Постоянный URL: http://servernews.ru/960668
28.10.2017 [20:49], Алексей Степин

NEC представила новую платформу SX-Aurora TSUBASA с векторными ускорителями

Векторные процессоры NEC Aurora были представлены ещё на ISC 2017. Уже тогда была продемонстрирована возможность использования таких чипов в качестве сопроцессоров на платах расширения с разъёмом PCI Express. Назывались такие платы Vector Engine. От образцов к серийному производству путь оказался недолог: уже 26 октября компания объявила о доступности новых систем SX-Aurora TSUBASA. Это название с японского можно перевести как «крылатая». Как и предполагает концепция NEC SX, основную работу выполняют векторные процессоры, но в этой системе они используются исключительно в виде плат расширения.

Процессор с архитектурой x86 выполняет только вспомогательные задачи, в терминологии компании-разработчика он называется Vector Host. На его плечи ложатся управление подсистемой ввода-вывода, обработка вызовов ОС и прочие вспомогательные вычисления, в том числе скалярные. Основная вычислительная мощь SX-Aurora TSUBASA кроется именно в ускорителях Vector Engine. Каждый чип Vector Engine имеет 8 ядер и развивает производительность порядка 2,45 терафлопс, что в пять раз больше векторных систем NEC SX-ACE, относящихся к предыдущему поколению. Поскольку шина PCI Express может стать узким местом, на борту каждого процессора имеется некоторый объём быстрой многослойной памяти HBM2, которая играет роль своеобразного кеша. Шесть сборок гарантируют ПСП на уровне 1,2 Тбайт/с. Сами платы могут иметь как пассивное, зависящее от хост-системы охлаждение, так и активное с собственным вентилятором на борту. Теплопакет по имеющимся данным составляет около 300 ватт — вполне на уровне современных видеокарт.

Серверы серии TSUBASA могут содержать в своём составе от 1 до 8 карт Vector Engine вплоть до 64 ускорителей на стойку. Эта стойка, изображённая на первом снимке, уже сама по себе считается суперкомпьютером. В сравнении с самым мощным ускорителем NVIDIA (7,8 терафлопс) векторный процессор NEС развивает всего 31 % его мощности, зато по показателю ПСП заметно опережает своего соперника (1,2 Тбайт/с против 900 Гбайт/с). Кроме того, в ряде задач специализированная архитектура NEC показывает себя более эффективной. Поскольку архитектура NEC не имеет аналогов, компания поставляет своим клиентам не только аппаратные комплексы, но и соответствующие программные решения: компиляторы, библиотеки MPI и прочее системное ПО. Используется даже уникальная файловая система NEC Scalable Technology File System и диспетчер задач NEC Network Queuing System V. Гарантируется бинарная совместимость с машинами NEC SX предыдущего поколения.

Постоянный URL: http://servernews.ru/960659
05.10.2017 [14:14], Андрей Крупин

РСК упрочила позиции в новой редакции рейтинга TOP 50 самых мощных суперкомпьютеров СНГ

Группа компаний РСК, занимающаяся разработкой решений для сегмента высокопроизводительных вычислений и центров обработки данных, на 22% увеличила долю своих суперкомпьютеров в новой редакции рейтинга TOP 50 самых мощных вычислительных систем в России и СНГ.

В обновлённый список TOP 50 вошли одиннадцать суперкомпьютерных систем РСК, четыре из которых развёрнуты в Москве (в Межведомственном суперкомпьютерном центре Российской академии наук), два в Санкт-Петербурге (в Санкт-Петербургском политехническом университете Петра Великого), два в Челябинске (в Южно-Уральском государственном университете), один в Долгопрудном (в Московском физико-техническом институте), один в Волгограде (в Волгоградском государственном техническом университете) и один в Новосибирске (в Сибирском суперкомпьютерном центре сибирского отделения РАН).

Лидером рейтинга TOP 50 уже шесть редакций подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 2962,3 терафлопс. На второй строчке рейтинга, как и ранее, с пиковой производительностью в 1700,21 терафлопс фигурирует суперкомпьютер «Ломоносов», также установленный в МГУ и разработанный специалистами компании «Т-Платформы». Замыкает тройку фаворитов развёрнутая в Санкт-Петербургском политехническом университете система «Политехник РСК Торнадо» производства группы компаний РСК с пиковой производительностью в 1015,1 терафлопс.

В обновлённом рейтинге 49 суперкомпьютеров построены на процессорах Intel, одна система построена на процессорах IBM POWER8. Число гибридных комплексов, использующих для вычислений графические процессоры, увеличилось с 17 до 19, а количество систем с ускорителями Intel Xeon Phi на борту выросло с 8 до 9. Количество вычислительных систем на базе InfiniBand увеличилось с 32 до 33, при этом число суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, сократилось с 13 до 9. Количество систем в списке на основе технологии Intel Omni-Path выросло с трёх до пяти.

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, осталось равным 18; количество систем, ориентированных на конкретные прикладные исследования, выросло с 12 до 16; число систем, используемых в промышленности, уменьшилось с 7 до 5; число систем в финансовой области осталось равным трём. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следует РСК с 11 вычислительным комплексами и IBM с «Т-Платформы» (у каждой по 7 систем в рейтинге).

С полной версией рейтинга TOP 50 самых мощных суперкомпьютеров в России и СНГ можно ознакомиться по адресу top50.supercomputers.ru.

Материалы по теме:

Источники:

Постоянный URL: http://servernews.ru/959531
30.09.2017 [00:15], Алексей Степин

Терафлопс в космосе: на МКС тестируется компьютер HPE Spaceborne

Бытует мнение, что в космической отрасли используется всё самое лучшее, включая компьютерные компоненты. Это не совсем так: вы не встретите в космических аппаратах 18-ядерных Xeon и ускорителей Tesla. Во-первых, энергетические резервы за пределами Земли строго ограничены, и даже на МКС никто не будет тратить несколько киловатт на питание «космического суперкомпьютера». Во-вторых, практически вся электроника, работающая за пределами атмосферы, выпускается в специальном радиационно-стойком исполнении. Чаще всего за счёт техпроцессов «кремний на диэлектрике» (SOI) и «сапфировая подложка» (SOS), используется также биполярная логика вместо менее стойкой к внешним излучениям CMOS.

Мини-кластер в космическом исполнении. Охлаждение жидкостное

Мини-кластер в космическом исполнении. Охлаждение жидкостное

Мощными в космосе считаются такие решения, как BAE Systems серии RAD, особенно новая RAD5500 (от 1 до 4 ядер, 45-нм SOI, PowerPC, 64 бита). Четырёхъядерный вариант RAD5545 развивает производительность более 3,7 гигафлопс при потреблении около 20 ватт. Иными словами, вычислительные мощности в космосе тоже растут, но совсем иными темпами, нежели на Земле. Тому подтверждением служит недавно вступивший в строй на борту Международной космической станции компьютер HPE Spaceborne. Если на Земле мощность суперкомпьютеров измеряется десятками и сотнями петафлопс, то Spaceborne куда скромнее — судя по проведённым тестам, его вычислительная мощность достигает 1 терафлопса. Достигнута она путём сочетания современных процессоров Intel с ускорителями NVIDIA Tesla P100 (NVLink-версия).

Конфигурация каждого из узлов Spaceborne

Конфигурация каждого из узлов Spaceborne

Для космических систем это большое достижение, и не стоит иронизировать над этим показателем производительности. Интересно, что сама по себе система Spaceborne, доставленная на борт станции миссией SpaceX CRS-12, является своего рода экспериментом на тему «как чувствуют себя в космосе обычные компьютерные комплектующие». Это связка из двух серверов HPE Apollo 40 на базе Intel Xeon, объединённая сетью со скоростью 56 Гбит/с. 14 сентября на систему было подано питание (48 и 110 вольт), а недавно проведены первые тесты High Performance LINPACK.

Системы охлаждения и электропитания Spaceborne

Системы охлаждения и электропитания Spaceborne

Пока Spaceborne не будет использоваться для анализа научных данных или управления какими-либо системами станции. Его миссия — продемонстрировать то, насколько живучи обычные серверы в космосе. Результаты постоянных тестов будут сравниваться с аналогичной системой, оставшейся на Земле. Тем не менее, достижение первого терафлопса в космосе является своеобразным мировым рекордом. Это маленький шаг для супервычислений, но большой для всей космической индустрии, поскольку за Spaceborne явно последуют его более совершенные и мощные потомки.

Постоянный URL: http://servernews.ru/959278