Материалы по тегу: компьютер

23.05.2018 [22:03], Сергей Карасёв

NanoPC-T4: одноплатный компьютер с поддержкой Wi-Fi 802.11ac и Bluetooth LE

Для заказа доступен новый одноплатный компьютер для разработчиков — решение FriendlyELEC NanoPC-T4, обладающее весьма богатой функциональностью.

Основой изделия служит процессор Rockchip RK3399. Чип содержит шесть вычислительных ядер: это дуэт ARM Cortex-A72 с тактовой частотой до 2,0 ГГц и квартет ARM Cortex-A53 с частотой до 1,5 ГГц. Обработкой графики занят ускоритель ARM Mali-T860MP4.

В арсенале мини-компьютера — 4 Гбайт оперативной памяти и флеш-модуль eMMC 5.1 вместимостью 16 Гбайт. Дополнительно можно установить карту microSD, а также подключить твердотельный модуль М.2 SSD.

Новинка несёт на борту сетевой контроллер Gigabit Ethernet с соответствующим разъёмом для подключения кабеля. Возможности беспроводного обмена данными обеспечивают адаптеры Wi-Fi 802.11a/b/g/n/ac (2,4 / 5 ГГц) и Bluetooth 4.1 LE.

Для вывода изображения служит разъём HDMI 2.0a. Имеются порты USB 2.0 (×2), USB 3.0, USB 3.0 Type-C, 3,5-миллиметровый аудиоразъём. Упомянута поддержка интерфейсов UART, SPI, SPDIF, GPIO и пр.

Габариты платы составляют 100 × 64 мм. Заявлена совместимость с программными платформами Android 7.1 и Lubuntu 16.04. Ориентировочная цена мини-компьютера — 130 долларов США

Постоянный URL: http://servernews.ru/970133
08.05.2018 [12:05], Алексей Степин

Стартовали поставки новых сетевых чипов Innovium Teralynx 7

Как известно специалистам и энтузиастам в области супервычислений, обладать мощными процессорами и ускорителями мало — узлы суперкомпьютера должны быть связаны между собой высокопроизводительной сетью. В противном случае получается парадоксальный результат: при чудовищной пиковой производительности на тестовых задачах небольшого объёма реальная скорость вычислений в настоящих научных или инженерных задачах может составлять единицы процентов от пиковой! Недостаточно быстрая сеть просто не успевает «кормить» все узлы системы нужным объёмом данных, и могучие ускорители большую часть времени попросту простаивают. Компания Innovium, основанная сравнительно недавно выходцами из Intel и Broadcom, предлагает своё решение данной проблемы, впервые анонсированное ещё в прошлом 2017 году.

Семейство Innovium Teralynx 7 включает в себя четыре процессора

Семейство Innovium Teralynx 7 включает в себя четыре процессора

Сетевая инфраструктура тоже имеет свои ключевые узлы, а именно, коммутаторы — и именно для создания высокоскоростных коммутаторов нового поколения предназначается семейство сетевых процессоров Teralynx 7. Разработчикам удалось достигнуть совокупной пропускной способности на уровне 12,8 терабит в секунду на чип. Сам чип, использующий модуляцию PAM-4, способен обслуживать порты Ethernet со скоростью до 400 Гбит/с, то есть, 50 Гбайт/с. Разумеется, это меньше пропускной способности локальных подсистем памяти ЦП и специализированных ускорителей, но всё же цифра достаточно велика, чтобы сеть с такой производительностью более не являлась сдерживающим фактором во всей системе. На фоне сложностей, вызванных массовым переходом со стандарта 10G на 40G, возможности новинки Innovium выглядят настоящим прорывом. Единственным соперником является Mellanox Technologies с её серией Spectrum-2, которая также поддерживает PAM-4 и может обеспечивать скорость 200 Гбит/с на порт, а в перспективе — те же 400 Гбит/с, что и Teralynx 7.

Варианты применения и конфигурация коммутаторов на базе Teralynx 7

Варианты применения и конфигурация коммутаторов на базе Teralynx 7

Когда речь заходит об отдалённом будущем, называется показатель 3,2 Тбит/с на порт, однако специалисты считают, что достижение таких скоростей будет сопряжено с существенными трудностями. Если поднять частоту работы блоков SerDes (сериализация‒десериализация) до 50 или даже 100 ГГц ещё удастся, то перешагнуть последний показатель будет весьма и весьма сложно. Что же касается Teralynx 7, то в мае компания начала поставлять образцы не одного, а целых четырёх вариантов данного сетевого процессора с совокупной производительностью от 3,2 до 12,8 Тбит/с. Все они поддерживают модуляцию NRZ с производительностью 25 Гбит/с на линию, а также PAM-4 с вдвое более высокой производительностью. Разумеется, новинки не предназначены исключительно для построения сетей класса 400G — так, новый чип может использоваться и для построения 128-портовых коммутаторов класса 100G или 64-портовых класса 200G, в зависимости от пожеланий заказчика.

Именно поэтому модели Teralynx IVM77500 и 77510 имеют разную конфигурацию. При одинаковой производительности 6,4 Тбит/с один из процессоров оснащён 256 модулями SerDes с поддержкой NRZ, а другой — 128 модулями стандарта PAM-4. Как показали результаты тестирования, старшая модель IVM77700 в конфигурации со 128 портами класса 100G смогла обработать миллиард пакетов размером от 64 до 1518 байт без выпадений или ошибок. С латентностью дела обстоят неплохо: показатель порядка 350 наносекунд на хоп (hop) типа «от порта в порт» является одним из лучших в индустрии, хотя стандарты, отличные от Ethernet, такие, как InfiniBand или Omni-Path, могут предложить и 100 наносекунд. В настоящее время главной целью компании Innovium является развёртывание массового производства новых сетевых чипов Teralynx, но и останавливаться на достигнутом разработчики не планируют.

Постоянный URL: http://servernews.ru/969383
25.04.2018 [14:48], Сергей Карасёв

Одноплатный компьютер NanoPi K1 Plus поддерживает Gigabit Ethernet и Wi-Fi

Для заказа доступен новый одноплатный компьютер для разработчиков — изделие NanoPi K1 Plus, подходящее для реализации различных проектов в области робототехники, Интернета вещей и пр.

В основе решения — процессор Allwinner H5, который объединяет четыре ядра ARM Cortex-A53 и графический контроллер ARM Mali-450MP4 с поддержкой OpenGL ES 2.0/1.1, OpenVG 1.1 и EGL. Объём оперативной памяти стандарта DDR3 составляет 2 Гбайт.

Для вывода изображения служит интерфейс HDMI 1.4; поддерживается работа с видеоматериалами в формате 4К. В качестве накопителя применяется карта microSD.

Одноплатный компьютер наделён сетевым контроллером Gigabit Ethernet (RTL8211E IC). Кроме того, есть адаптер беспроводной связи Wi-Fi с поддержкой стандартов 802.11b/g/n.

Мини-плата снабжена тремя портами  USB 2.0, одним разъёмом Micro-USB и 3,5-миллиметровым аудиогнездом. Заявлена поддержка интерфейсов I2C, GPIO, UART, PWM, S/PDIF, SPI и пр.

Размеры составляют 85 × 56 мм. Новинка может функционировать в широком температурном диапазоне — от минус 40 до плюс 80 градусов Цельсия. Заказать плату NanoPi K1 Plus можно по ориентировочной цене 35 долларов США

Постоянный URL: http://servernews.ru/968861
22.04.2018 [18:24], Сергей Юртайкин

В суперкомпьютерах Cray появились процессоры AMD EPYC

Производитель суперкомпьютеров Cray сообщил о появлении процессоров AMD EPYC в своих системах для удовлетворения растущих потребностей в области высокопроизводительных вычислений (HPC).

Процессоры AMD EPYC 7000 были добавлены в семейство кластерных суперкомпьютеров Cray CS500, благодаря чему клиенты получают гибкую систему с высокоплотным размещением, специально настроенную для требовательных вычислительных сред.

Новый суперкомпьютер представляет собой четыре двухпроцессорных узла в шасси высотой 2U, каждый узел поддерживает два набора слотов PCIe Gen3 × 16 и установку твердотельных накопителей и жёстких дисков. Процессоры AMD EPYC 7000 поддерживают до 32 ядер и до шести каналов памяти DDR4 на каждый разъём. В серию CS500 также вошли шасси 2U с одним узлом для конфигураций с большим полем памяти, визуализации и сервисных задач.

Использующие AMD EPYC системы Cray CS500 поставляются с программной средой Cray, которая была оптимизирована наряду с библиотеками, чтобы дополнительно увеличить производительность процессоров AMD.

«Cray стал первым вендором, предложившим оптимизированную программную среду для процессоров AMD EYPC, что определенно является особым преимуществом. Сочетание процессоров AMD EPYC с экспертизой Cray в области суперкомпьютеров открывает новые возможности для роста обеих компаний», — отметил вице-президент и руководитель подразделения AMD Datacenter and Embedded Solutions Business Group Скотт Эйлор.

Система Cray CS500 с процессорами AMD EPYC поступит в продажу летом 2018 года.

Постоянный URL: http://servernews.ru/968711
20.04.2018 [14:13], Сергей Карасёв

ODROID-MC1 Solo: решение для создания компьютерных мини-кластеров

Команда Hardkernel выпустила модуль под названием ODROID-MC1 Solo, на основе которого могут формироваться компактные вычислительные кластеры.

Изделие представляет собой одноплатный компьютер в специальном кожухе, выполняющем функции радиатора охлаждения. Несколько таких устройств могут устанавливаться друг на друга для создания многоярусной системы. Иными словами, на основе модуля можно сформировать стойку с требуемым количеством одноплатных мини-компьютеров.

Основа платы — процессор Samsung Exynos 5422. Чип выполнен на архитектуре ARM big.LITTLE: он содержит четыре ядра Cortex-A15 с тактовой частотой до 2,0 ГГц и такое же количество ядер Cortex-A7 с частотой до 1,4 ГГц. Обработкой графики занят интегрированный контроллер Mali-T628 MP6.

Оснащение включает 2 Гбайт оперативной памяти LPDDR3 RAM и слот для флеш-карты microSD. Есть гнездо для подключения сетевого Ethernet-кабеля и один порт USB 2.0. Габариты составляют 92 × 42 × 29 мм.

Приобрести изделие ODROID-MC1 Solo можно по ориентировочной цене 50 долларов США

Постоянный URL: http://servernews.ru/968648
19.04.2018 [19:34], Сергей Юртайкин

Число суперкомпьютеров РСК в рейтинге Top50 выросло до 12

Группа компаний РСК, разработчик высокопроизводительных платформ для дата-центров, укрепила лидерство среди российских производителей суперкомпьютеров в рейтинге Top50.

В новую редакцию списка самых мощных вычислительных систем в России и СНГ вошли 12 суперкомпьютеров РСК против 11 систем в предыдущей версии. Доля группы в рейтинге увеличилась с 22 % до 24 %.

В конце марта 2018 года РСК ввела в опытную эксплуатацию новый гетерогенный и гиперконвертгенный суперкомпьютер для Объединенного института ядерных исследований (ОИЯИ) на базе Лаборатории информационных технологий.

Две системы РСК в составе нового суперкомпьютера ОИЯИ вошли в новую редакцию рейтинга Top50 самых мощных вычислительных систем в России и СНГ, заняв в нём 18-е (на базе процессоров Intel Xeon Gold 6154 семейства Intel Xeon Scalable) и 45-е (на базе процессоров Intel Xeon Phi 7290) места.

Суперкомпьютер в ОИЯИ

Суперкомпьютер в ОИЯИ

Кроме того, в текущей редакции Top50 представлены ещё 10 суперкомпьютеров РСК, установленных в Санкт-Петербургском политехническом университете имени Петра Великого (5-я и 10-я позиции), МСЦ РАН в Москве (6-е, 13-е, 24-е и 42-е места), ССКЦ СО РАН в Новосибирске (38-я позиция), Южно-Уральском государственном университете (8-е и 20-е места), Московском физико-техническом институте (34-я позиция).

Постоянный URL: http://servernews.ru/968654
13.04.2018 [15:28], Сергей Карасёв

Предложен кубит новой конструкции для квантовых компьютеров

Международная группа учёных из России, Великобритании и Германии создала альтернативную конструкцию сверхпроводникового кубита — основы квантовых компьютеров.

Напомним, что квантовые вычислительные системы оперируют квантовыми битами, или кубитами. Они могут одновременно принимать значение и логического ноля, и логической единицы. Поэтому с ростом количества использующихся кубитов число обрабатываемых одновременно значений увеличивается в геометрической прогрессии. А это обеспечивает колоссальную производительность при решении задач определённых типов.

Как теперь сообщается, исследователям удалось создать принципиально новый кубит, основанный не на джозефсоновском переходе, представляющем собой разрыв в сверхпроводнике, а на сплошной сверхпроводящей нано-проволоке. В работе приняли участие отечественные специалисты из Российского квантового центра, НИТУ «МИСиС», МФТИ и Сколтеха, а также их коллеги из Университета Лондона и Национальной физической лаборатории в Теддингтоне (Великобритания), Университета Карлсруэ и Института фотонных технологий (Германия).

Новый кубит основан на эффекте квантового проскальзывания фазы — контролируемого периодического разрушения и восстановления сверхпроводимости в сверхтонкой (около 4 нм) нано-проволоке, которая в обычном состоянии имеет довольно большое сопротивление.

Ожидается, что новое решение по сравнению с «обычными» кубитами обеспечит не меньшую (а, возможно, даже большую) функциональность и при этом будет гораздо более простым в изготовлении. Подробнее об изысканиях учёных можно узнать здесь

Постоянный URL: http://servernews.ru/968344
11.04.2018 [10:50], Сергей Карасёв

Достижение Microsoft поможет в создании более точного квантового компьютера

Группа исследователей Microsoft из Делфтского технического университета в Нидерландах провела эксперимент, результаты которого помогут в создании квантового компьютера, превосходящего по точности современные решения в десятки тысяч раз.

Специалисты экспериментально подтвердили существование фермиона Майораны. Он уникален тем, что является собственной античастицей и одновременно обладает свойствами полупроводника и суперпроводника. Существование таких частиц впервые рассмотрел итальянский физик Этторе Майорана в 1930-х годах.

Кубиты (квантовые биты) вычислителя, построенного на основе названных частиц, как ожидается, будут менее подвержены внешним влияниям и смогут давать более точные результаты, а значит, показывать большую производительность.

Если учёные преуспеют в создании работающих кубитов на основе фермиона Майораны, то рано или поздно клиенты Microsoft смогут пользоваться ресурсами квантового компьютера через облачную платформу Azure.

Предполагается, что системы нового типа смогут с высочайшей производительностью решать определённые задачи. Это, в частности, расчёты, связанные с криптографией, поиском новых лекарственных препаратов и пр. 

Постоянный URL: http://servernews.ru/968247
10.04.2018 [01:20], Алексей Степин

Тайны коммутатора NVIDIA NVSwitch

На прошедшей недавно конференции GTC (GPU Technology Conference) корпорация NVIDIA представила новый внутренний интерконнект NVSwitch, целью которой является эффективное объединение в сеть множества вычислительных процессоров Volta. Именно NVSwitch является сердцем демонстрационной системы DGX-2, аналоги которой планируется использовать в дальнейшем для постройки суперкомпьютера нового поколения Saturn V. С момента официального анонса новой технологии о ней стали известны новые детали, включая данные о внутренней архитектуре самого коммутатора NVSwitch. Как известно, вычислительные ускорители имеют три фундаментальных ограничения, влияющих на эффективность их работы в составе кластерной системы: производительность подсистемы ввода-вывода, пропускная способность памяти и объём этой самой памяти.

Кристалл NVSwitch

Кристалл NVSwitch

Последние два, впрочем, обходятся достаточно малой кровью: ускорители Volta могут нести на борту до 32 Гбайт памяти типа HBM2, которая, к тому же, может прокачивать до 900 Гбайт/с. Но по мере масштабирования системы проблема I/O встаёт всё острее, поскольку скорости, приведённые выше, сетям и сетевым средам пока недоступны, а значит, на задачах с большой степенью параллелизации главным фактором, ограничивающим производительность, может стать именно сеть. Это подтверждают и результаты тестирования суперкомпьютеров с помощью новой методики, о чём мы недавно рассказывали нашим читателям.

Его функциональные блоки

Его функциональные блоки

Решить эту проблему и призвана технология NVIDIA NVSwitch. Само сердце технологии, чип-коммутатор может работать в разных топологиях. Как уже было сказано, впервые он найдёт применение в системе DGX-2, поставки которой должны начаться в третьем квартале. NVIDIA пока не предполагает использование этого коммутатора для сетевого соединения нескольких «корпусов», то есть, в качестве, «внешнего интерконнекта», но это не значит, что разработчики суперкомпьютеров не решат попробовать новинку и в качестве такого решения.

Выглядит снимок кристалла NVSwitch довольно впечатляюще, что неудивительно, поскольку состоит этот кристалл из 2 миллиардов транзисторов. Предположительно, в его производстве задействован 12-нм техпроцесс класса FinFET, разработанный TSMC, но компания-разработчик хранит по этому поводу молчание, по крайней мере, пока. Архитектурно в составе NVSwitch можно выделить два блока по 8 портов NVLink плюс два дополнительных порта этой шины. Система соединений (кроссбар) работает в неблокирующем режиме, так что любой из портов NVLink в правом или левом модуле может напрямую работать с одним из двух портов в верхнем модуле. Это существенно отличает реальный чип от опубликованных в момент анонса данных о технологии NVSwitch.

Один из слайдов NVIDIA

Один из слайдов NVIDIA

На предыдущих слайдах изображено 16 чипов в 8 парах, соединённых друг с другом на скорости 300 Гбайт/с (150 Гбайт/с в каждую сторону) с тотальной пропускной способностью, достигающей 2,4 Тбайт/с. Но NVSwitch имеет 18 портов, поэтому при подключении 16 процессоров Volta остаётся место для дальнейшего расширения конфигурации. Если блок-схема DGX-2, продемонстрированная на презентации, верна, то в ней имеется 12 коммутаторов NVSwitch, но тогда не все порты остаются задействованными.

Это позволяет предположить, что 16-процессорая версия DGX-2 является пилотной, а дизайн NVSwitch создан с заделом на будущее и позволяет создавать, к примеру, 32-процессорные системы в одном корпусе-узле. Пока этому мешает текущая версия модуля backplane, которой оснащается DGX-2, но архитектурного запрета на создание системы с теми же 32 вычислительными GPU нет. Точных данных о топологии DGX-2 пока нет, на имеющемся слайде видны по шесть «толстых» шин на каждую «половину» кластера. С учётом свободных портов, скорость «общения половин» между собой может достигать 6 Гбайт/с (3 Гбайт/с в каждую сторону). 

Из этого слайда топология DGX-2 не ясна

Из этого слайда топология DGX-2 не ясна

Были различные предположения о топологии, включая схему «двойное кольцо», но в худшем сценарии такая схема соединяет два ГП через шесть «скачков» (hops), а это не лучший вариант с точки зрения латентности. NVIDIA употребляет термин «fully connected crossbar internally» по отношению к NVSwitch, но не говорит этого про систему в целом и про соединение между двумя половинами DGX-2. Если предположить, что для соединения используется пара «верхних» портов коммутатора, то ГП могут быть соединены попарно, но тогда для полноценного соединения всей системы в единое целое потребуются иные механизмы, например, дополнительные соединения PCI Express, что выглядит не слишком осмысленным, если сравнить скорости PCIe и декларируемые NVIDIA цифры, относящиеся к NVLink.

Как оказалось впоследствии и было подтверждено официально, 12 «лишних» портов NVLink в NVSwitch не задействованы в DGX-2. Топология внутренней сети в новой системе проще, и каждый из шести портов в Volta соединён с одним из NVSwitch «сверху». Аналогичным образом подключается восьмёрка ГП «снизу». Такая схема позволяет добиться латентности в два «хопа» между двумя любыми ГП на одной «половине» системы, а если требуется коммуникация между разными половинами, то количество «хопов» увеличивается до трёх.

А так она выглядит на самом деле

А так она выглядит на самом деле

Разумеется, это не единственный сценарий: в данном варианте использовано всего 6 чипов NVLink для каждой половины, но ничто не мешает увеличить их число до, скажем, двенадцати. Новая система весьма эффективна: для демонстрации NVIDIA использовала пару серверов DGX-1 с 8 ГП Volta V100 в каждом. Они были соединены между собой четырьмя каналами InfiniBand с совокупной пропускной способностью 400 Гбит/с. Сравнительные тесты показали более чем двукратное (от 2,4 до 2,7x) превосходство системы DGX-2, использующей новые технологии с NVSwitch во главе.

DGX-2 ставит новые рекорды

DGX-2 ставит новые рекорды

Выглядит новая технология очень многообещающе, но интересно будет взглянуть, как она поведёт себя при увеличении количества вычислительных узлов, ведь модули DGX-2 придётся как-то соединять между собой, и не поглотит ли это все преимущества в случае постройки достаточно крупного кластера? Есть вариант NUMA, но практический предел, достигнутый на сегодня, составляет 128 процессоров; более того, после 32 процессоров в такой схеме критическую роль начинают играть очереди запросов и задержки. Как только DGX-2 начнёт поставляться массово, мы, скорее всего, узнаем ответ.

Постоянный URL: http://servernews.ru/968189
03.04.2018 [13:45], Сергей Карасёв

ПаВТ 2018: самый мощный суперкомпьютер России нарастил производительность

Научно-исследовательский вычислительный центр МГУ имени М.В.Ломоносова и Межведомственный суперкомпьютерный центр РАН представили двадцать восьмую редакцию рейтинга самых мощных компьютеров СНГ — списка Тор50.

Лидером рейтинга уже семь редакций подряд остаётся суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Причём эта система была модернизирована. Её производительность на тесте Linpack поднялась с 2,1 петафлопса (квадриллиона операций с плавающей запятой в секунду) до 2,48 петафлопса, а пиковое быстродействие увеличилось с 2,96 до 4,95 петафлопса.

На втором месте оказался новый суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в Главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность этого комплекса на тесте Linpack составляет 1,2 петафлопса.

Замыкает первую тройку суперкомпьютер «Ломоносов», установленный в Московском государственном университете имени М.В.Ломоносова. Его быстродействие составляет около 0,9 петафлопса.

Любопытно, что все системы в рейтинге используют в качестве основных процессоров решения Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, по сравнению с предыдущей редакцией рейтинга уменьшилось с 19 до 18, а количество систем, использующих ускорители Intel Xeon Phi, осталось равным 9.

Суммарная производительность систем на тесте Linpack за полгода выросла с 8,7 до 10,7 петафлопса. Суммарная пиковая производительность систем списка составила 17,4 петафлопса против 13,4 петафлопса в предыдущей редакции.

Количество систем, используемых в науке и образовании, осталось равным 18; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 16 до 14; число систем, используемых в промышленности, уменьшилось с 5 до 4; число систем в финансовой области осталось равным 3. 

Постоянный URL: http://servernews.ru/967909
Система Orphus