Материалы по тегу: супервычисления

05.12.2018 [18:18], Геннадий Детинич

Western Digital представила процессор SweRV Core для ускорителей по обработке данных

В какой-то мере компания Western Digital выполнила своё прошлогоднее обещание — выпустить процессор, ориентированный на обработку данных во всём диапазоне: от периферийных устройств до ЦОД. Компания представила процессор SweRV Core на открытой архитектуре (системе команд) RISC-V с поддержкой когерентности кеша, тестовый пакет SweRV Instruction Set Simulator (ISS) для моделирования поведения работы процессоров и протокол OmniXtend для инкапсулирования команд и данных SweRV для передачи фактически по любому физическому уровню с поддержкой Ethernet (так сказать, открытый интерфейс). Всё это, повторим, использует открытые стандарты и, за исключением аппаратной части, уже доступно для загрузки на сервисах GitHub.

Поставки процессоров SweRV Core начнутся в первом квартале 2019 года. Решение будет выпускаться с использованием 28-нм техпроцесса. Кто выпускает, пока неизвестно. Кстати, неизвестно также, кто разработал SweRV Core. Год назад была информация, что в разработке RISC-V-процессоров компании Western Digital помогает компания Esperanto Technologies Дэвида (Дейва) Дитцеля. Сегодня же, когда Western Digital сообщила о спецификациях SweRV Core, разработка стала напоминать модификацию платформы SiFive Freedom E300, которую та готова была подгонять под любые капризы клиента.

Итак, SweRV Core — это 32-разрядный двухконвейерный суперскалярный процессор с упорядоченным исполнением команд. Каждый конвейер имеет 9 уровней, что позволяет загружать и исполнять несколько команд одновременно. Частота решения — до 1,8 ГГц. В бенчмарке CoreMark условное сравнение процессора WD SweRV Core с актуальными архитектурами и решениями (не опирающееся на реальное тестирование) показало, что процессор может набирать значение 4,9 CoreMark/МГц — сравнимо с решениями на архитектурах MIPS и ARM или даже лучше них.

В своих продуктах Western Digital будет использовать SweRV Core для встраиваемых решений, включая контроллеры для флеш-памяти и SSD, а сообществу разработчиков предлагает задействовать SweRV Core для разного рода устройств с прицелом на обработку больших и быстрых данных, данных IoT, для платформ по защите данных, управления в промышленности и в других областях. По мнению Western Digital, процессоры SweRV Core с открытой системой команд и открытыми протоколами идеально подходят для создания специализированных ускорителей для обработки данных с поддержкой когерентности кеша.

Постоянный URL: http://servernews.ru/979190
22.11.2018 [15:44], Геннадий Детинич

В Китае региональные ЦОД загружены на половину мощности

К известной проблеме в Китае с городами-призраками — пустующими домами и кварталами новых городов, где никто не жил и не живёт, — добавилась проблема недостаточной загрузки региональных центров по обработке данных.

Согласно обнародованным данным Министерства промышленности и информационных технологий (Ministry of Industry and Information Technology, MIIT) и Министерства финансов Китая, возможности ЦОД в крупных городах на востоке, западе и северо-востоке страны превышены по всем параметрам, тогда как потребность в мощностях удвоилась и не может быть удовлетворена на месте. Поэтому по установленной правительственной программе Китая, некоторое время назад в регионах начали возводить ЦОД для разгрузки центров с побережья.

Как водится, планы и реальное положение дел начали расходиться. Уже построенные в небольших городах на материковой части Китая ЦОД в большинстве оказались загруженными только на половину своих возможностей. Чтобы поощрить столичные компании переводить нечувствительные к большим задержкам данные в регионы, власти Пекина, например, ужесточили экологические требования к работе ЦОД в пределах столицы. Тем более, что вычислительных ресурсов ЦОД в Пекине не хватает на удовлетворение 19 % запросов.

Пока ситуация развивается по не самому удачному сценарию или, если смягчить выражения, нелинейно. Аналитики опасаются, что на ИТ-рынке Китая может возникнуть пузырь, который приведёт к расшатыванию экономики этой страны. До сих пор всё развивалось красиво и динамично, тогда как в итоге деньги окажутся выброшенными на ветер, и рынок свернётся. Региональные власти только в этом году утроили средства, отпущенные на создание локальных ЦОД, так что пузырь может выйти немаленьким с серьёзными последствиями после взрыва.

Постоянный URL: http://servernews.ru/978581
16.11.2018 [15:45], Андрей Крупин

5 самых мощных российских суперкомпьютеров (фото)

Иногда лучше один раз увидеть, чем сто раз услышать. Представляем подборку фотографий самых мощных суперкомпьютеров России, входящих в пятёрку лидеров списка TOP 50 высокопроизводительных систем СНГ.

«Ломоносов-2». Вычислительный комплекс производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Пиковая производительность суперкомпьютера составляет 4,9 петафлопс, производительность по данным теста Linpack достигает 2,5 петафлопс.

Суперкомпьютер Росгидромета. Машина производства компаний «T-Платформы» и Cray, установленная в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность по Linpack — 1,2 петафлопс.

«Ломоносов». Система разработки компании «Т-Платформы». Развёрнута в МГУ имени М.В. Ломоносова и по данным теста Linpack демонстрирует производительность в 901,9 терафлопс.

Курчатовский вычислительный комплекс. Базируется в национальном исследовательском центре «Курчатовский институт» и характеризуется производительностью в 755,5 терафлопс (по данным Linpack). Является совместной разработкой НИЦ «Курчатовский институт» и компаний Supermicro, «Борлас», «Т-Платформы».

Вычислительная система «Политехник — РСК Торнадо». Суперкомпьютер разработки группы компаний РСК, установленный в суперкомпьютерном центре Санкт-Петербургского политехнического университета. Производительность по Linpack — 715,9 терафлопс.

Ознакомится с другими входящими в TOP 50 российскими суперкомпьютерными системами можно по ссылке top50.parallel.ru.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/978301
13.11.2018 [16:06], Геннадий Детинич

Western Digital предлагает расширять оперативную память массивами SSD

Для зарождающегося рынка решений и услуг «вычислений в памяти» (in-memory computing) компания Western Digital разработала семейство накопителей Ultrastar DC ME200 Memory Extension Drive. Подчеркнём, в наименовании новинки вы не увидите привычной аббревиатуры SSD. С точки зрения Western Digital — это именно «расширитель» ОЗУ, а не привычное всем устройство для долговременного хранения данных. Внешне новинки невозможно отличить от SSD в исполнении PCIe-адаптера или накопителя в форм-фактре U.2. Но логика работы накопителей Memory Extension Drive совсем другая и требует иного подхода со стороны разработчиков программ и операционных систем.

В компании Western Digital заявляют о совместимости Memory Extension Drive с Linux 64-bit OS, RHEL 6.5, 6.6, 6.7, 6.8, 6.9, 7.0, 7.1, 7.2, 7.3, 7.4, SLES 11-SP4, 12, 12-SP1, 12-SP2, Fedora Core версии от 4 до 27, Open SuSe версий 10 и 11, Ubuntu Server версий от 16.04 до 17.10 и Debian 9.5.0. Драйверы и утилиты создают платформу для адресации к виртуальной программно-конфигурируемой памяти, где нет различия между модулями DRAM и SSD с поддержкой протокола NVMe. Тем самым условно сколь угодно большой массив данных можно загрузить и обработать в памяти, где для программного обеспечения нет различия между модулями DRAM и накопителями SSD.

Для того, чтобы накопители Memory Extension Drive работали с производительностью, близкой к производительности оперативной памяти, а в ином случае весь этот огород не имеет смысла, разработчик задействовал свыше 20 алгоритмов кеширования, предсказания ветвлений и другие механизмы для сглаживания проблем, связанных с задержками обращения к SSD. При этом Western Digital настаивает, что проблему стирания границы между SSD и DRAM в основном должны решать специальные алгоритмы машинного обучения. В одиночку компания не потянет весь круг задач и призывает сообщество развивать программную инфраструктуру для накопителей Memory Extension Drive.

Как уверены в компании, накопители Memory Extension Drive хорошо подходят для решения следующих задач: для сетевого журналируемого хранилища данных Redis, для сервиса кеширования данных Memcached в оперативной памяти на основе хеш-таблицы, для баз данных In-Memory, для хранилищ данных, для IoT-платформ, для потоковой аналитики, для Apache (Spark, Storm, Kafka), для распределённых баз в памяти, для приложений с кешированием, для распределённого контента (CDN), для услуг SaaS, для аналитики как сервиса, AI/ML и сервисов с массивным журналированием.

На момент анонса компания поставляет избранным клиентам накопители Ultrastar DC ME200 Memory Extension Drive в виде моделей объёмом 1 Тбайт, 2 Тбайт и 4 Тбайт. Полка высотой 1U вместит достаточно накопителей в форм-факторе U.2, чтобы предоставить пользователю 24 Тбайт «почти что памяти DRAM». Насколько будут велики потери от работы такой виртуальной памяти? По данным WD, если взять за чистую производительность обращение к 786 Гбайт DRAM, скорость работы которой оценивается на уровне 1,080 млн транзакций в секунду, то микс 3:1 (576 Гбайт Ultrastar и 192 Гбайт DRAM) просядет до 91 % производительности или до 983 тыс. транзакций, а при соотношении 7:1 (672 Гбайт Ultrastar и 96 Гбайт DRAM) производительность снизится до 85 % или 918 тыс. транзакций в секунду. Достаточно интересно, но как за это проголосует индустрия, пока непонятно.

Постоянный URL: http://servernews.ru/978113
25.09.2018 [13:36], Андрей Крупин

Опубликована новая редакция рейтинга TOP 50 самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённой редакции списка TOP 50 самых мощных компьютеров СНГ. Объявление новой редакции списка состоялось на проходящей в Москве международной конференции Russian Supercomputing Days, посвящённой развитию и применению суперкомпьютерных технологий в различных областях науки и техники.

Новая, двадцать девятая по счету редакция списка TOP 50 продемонстрировала незначительный рост производительности суперкомпьютеров СНГ. Суммарная производительность систем в тесте Linpack за полгода выросла с 10,7 до 11,2 петафлопс (квадриллионов операций с плавающей запятой в секунду). Суммарная пиковая производительность составила 18,4 петафлопс (17,4 петафлопс в предыдущей редакции рейтинга). Всего за полгода в списке появилось три новых суперкомпьютера и произошло обновление ещё двух систем.

Лидером списка уже восьмой раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, увеличилось с 18 до 20, а количество систем с ускорителями Intel Xeon Phi на борту осталось равным девяти. Число вычислительных комплексов на базе InfiniBand увеличилось с 30 до 32, при этом количество суперкомпьютеров, использующих для взаимодействия узлов лишь коммуникационную сеть Gigabit Ethernet, уменьшилось с 8 до 6. Количество систем в списке на основе технологии Intel Omni-Path уменьшилось с семи до шести.

Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что количество систем, задействованных в науке и образовании, увеличилось с 18 до 21; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 14 до 13; число систем, используемых в промышленности, осталось равным четырём; число систем в финансовой области сократилось с трёх до единицы. По количеству представленных в списке систем лидером осталась Hewlett Packard Enterprise (13 разработанных суперкомпьютеров), далее следуют компании РСК (12 систем в рейтинге), «Т-Платформы» (11), IBM (3) и NVIDIA с четырьмя вычислительным комплексами.

С полной версией обнародованного документа можно ознакомиться по адресу top50.supercomputers.ru. Следующая, тридцатая по счёту редакция списка TOP 50 самых мощных компьютеров СНГ будет объявлена 2 апреля 2019 года на международной научной конференции «Параллельные вычислительные технологии (ПаВТ) 2019».

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/975910
04.08.2018 [10:48], Геннадий Детинич

PLDA и HPE будут совместно разрабатывать блоки архитектуры Gen-Z

Как известно, в феврале опубликована финальная версия спецификации стандарта Gen-Z Core Specification 1.0. Завершение работ над спецификацией означает приближение выхода совместимых архитектур, решений и устройств. Стандарт Gen-Z относится к открытым разработкам, что подразумевает снижение порога стоимости для желающих принять участие в развитии данной экосистемы. К сожалению, не все компании придерживаются концепции открытых компьютерных архитектур и протоколов. Компании Intel и NVIDIA, например, так и не стали участниками консорциума Gen-Z, который в 2016 году организовали компании AMD, ARM, Broadcom, Cray, Dell EMC, Hewlett Packard Enterprise, Huawei, IDT, Micron, Samsung, SK Hynix, и Xilinx.

Память станет «центром вселенной» для интерфейса Gen-Z

Память станет «центром вселенной» для интерфейса Gen-Z

Напомним, стандарт Gen-Z призван изменить парадигму вычислительных платформ и уйти от ориентированной на процессоры архитектуры. Вместо этого должны появиться архитектуры, ориентированные на память (Memory-Driven Computing architecture). Это уберёт иерархию в строении вычислительных систем, что снизит задержки при обращении к памяти каждого блока в платформе, отвечающего за вычисления — процессора, ускорителя или контроллера.

Чтобы массе независимых разработчиков решений с использованием элементов архитектуры Gen-Z стало проще, а продукция появилась бы на рынке быстрее, необходимо создать множество совместимых базовых архитектурных решений: стандартных интерфейсов ввода/вывода, сигнальных и управляющих интерфейсов для работы с памятью, процессорами и ускорителями и прочего. Разработкой подобной интеллектуальной собственности совместно будут заниматься компании Hewlett Packard Enterprise (HPE) и PLDA.

Одна из последних реализаций проекта HPE The Machine

Одна из последних реализаций проекта HPE The Machine

У компании PLDA богатый опыт в разработке полупроводниковых IP-блоков для интеграции в сторонние чипы, тогда как компания HPE может считаться специалистом по компьютерным платформам и даже архитектурам. Партнёры уверены, что совместная деятельность приведёт к появлению IP-решений, которые найдут применение как в периферийных устройствах, так и в облачных платформах. Причём у компании HPE есть свой кровный интерес в партнёрстве с PLDA — это продолжение концептуальной разработки платформы The Machine. Данный проект прошёл уже множество стадий и пока далёк от завершения. Но так совпало, что он тоже Memory-центрический, так что HPE ждёт от партнёрства с PLDA большего, чем простого распространения лицензий на IP-блоки.

Постоянный URL: http://servernews.ru/973528
29.07.2018 [13:00], Геннадий Детинич

Американские ВВС получили самый большой в мире нейроморфный суперкомпьютер

Звучит громко, но это именно так. Лаборатория Air Force Research Laboratory (AFRL) в городе Ром, штат Нью-Йорк, получила в своё распоряжение самый большой в мире компьютер по числу задействованных в системе нейроморфных процессоров IBM TrueNorth. Система представлена полочными компьютерами высотой 4U (7 дюймов) для стандартной серверной стойки. Каждый компьютер располагает 64 процессорами IBM TrueNorth. В пересчёте на человеческие в буквальном смысле единицы измерения мозга — это 64 млн нейронов и 16 млрд синапсов. Всего в стойке может разместиться 512 млн цифровых нейронов. Примерно столько нейронов в коре головного мозга собаки.

AFRL

AFRL

Система под именем «Blue Raven» на базе IBM TrueNorth для Лаборатории ВВС США представлена пока 64-процессорным решением с общим потреблением 40 Вт. Это, кстати, в 4 раза больше ожидаемого. Аналогичный 16-процессорный компьютер, переданный в 2016 году Ливерморской национальной лаборатории им. Лоуренса, потреблял всего 2,5 Вт или 156 мВт на один процессор. Возможно таким образом была повышена производительность системы, которая при потреблении 70 мВт способна работать с производительностью 46 млрд синаптических операций в секунду.

IBM

IBM

По оценкам IBM, работа процессоров TrueNorth с необозначенным датасетом на CIFAR-100 по распознаванию наборов изображений характеризуется производительностью свыше 1500 кадров в секунду с потреблением 200 мВт или свыше 7000 кадров в секунду на ватт. Ускоритель NVIDIA Tesla P4 (Pascal GP104), например, обрабатывает датасет Resnet-50 с производительностью 27 кадров в секунду на ватт.

Структура процессора IBM TrueNorth

Структура процессора IBM TrueNorth

Вообще, в Лаборатории AFRL, похоже, работают увлечённые люди. Новым проектом «Blue Raven» руководит тот же человек (Mark Barnell), который несколько лет назад отметился запуском суперкомпьютера Condor Cluster на базе сотен игровых консолей Sony PlayStation 3. Какими расчётами в AFRL будет заниматься суперкомпьютер с «мозгами» не уточняется. Пока учёные будут изучать круг задач, решаемый подобными системами. Ожидается, что принятая на «вооружение» научным отделом ВВС США вычислительная система обеспечит дальнейшее приоритетное развитие технологий в этой стране.

Постоянный URL: http://servernews.ru/973232
29.06.2018 [13:00], Геннадий Детинич

Опубликованы финальные спецификации CCIX 1.0: разделяемый кеш и PCIe 4.0

Чуть больше двух лет назад в мае 2016 года семёрка ведущих компаний компьютерного сектора объявила о создании консорциума Cache Coherent Interconnect for Accelerators (CCIX, произносится как «see six»). В число организаторов консорциума вошли AMD, ARM, Huawei, IBM, Mellanox, Qualcomm и Xilinx, хотя платформа CCIX объявлена и развивается в рамках открытых решений Open Compute Project и вход свободен для всех. В основе платформы CCIX лежит дальнейшее развитие идеи согласованных (когерентных) вычислений вне зависимости от аппаратной реализации процессоров и ускорителей, будь то архитектура x86, ARM, IBM Power или нечто уникальное. Скрестить ежа и ужа — вот едва ли не буквальный смысл CCIX.

Варианты топологии CCIX

Варианты топологии CCIX

На днях консорциум сообщил, что подготовлены и представлены финальные спецификации CCIX первой версии. Это означает, что вскоре с поддержкой данной платформы на рынок может выйти первая совместимая продукция. По словам разработчиков, CCIX позволит организовать новый класс подсистем обмена данными с согласованием кеша с низкими задержками для следующих поколений облачных систем, искусственного интеллекта, больших данных, баз данных и других применений в инфраструктуре ЦОД. Следующая ступенька в производительности невозможна без эффективных гетерогенных (разнородных) вычислений, которые смешают в одном котле исполнение кода общего назначения и спецкода для ускорителей на базе GPU, FPGA, «умных» сетевых карт и энергонезависимой памяти.

Решение CCIX IP компании Synopsys

Решение CCIX IP компании Synopsys

Базовые спецификации CCIX Base Specification 1.0 описывают межчиповый и «бесшовный» обмен данными между вычислительными ресурсами (процессорными ядрами), ускорителями и памятью во всём её многообразии. Все эти подсистемы объединены разделяемой виртуальной памятью с согласованием кеша. В основе спецификаций CCIX 1.0, добавим, лежит архитектура PCI Express 4.0 и собственные наработки в области быстрой коррекции ошибок, что позволит по каждой линии обмениваться данными со скоростью до 25 Гбайт/с.

Тестовая платформа с поддержкой CCIX Synopsys на FPGA матрице

Тестовая платформа с поддержкой CCIX Synopsys на FPGA матрице

Но главное, конечно, не скорость обмена, хотя это важная составляющая CCIX. Главное — в создании программируемых и полностью автономных процессов по обмену данными в кешах процессоров и ускорителей, что реализуется с помощью новой парадигмы разделяемой виртуальной памяти для когерентного кеша. Это радикально упростит создание программ для платформ CCIX и обеспечит значительный прирост в ускорении работы гетерогенных платформ. Вместо механизма прямого доступа к памяти (DMA), со всеми его тонкостями для обмена данными, на платформе CCIX достаточно будет одного указателя. Причём обмен данными в кешах будет происходить без использования драйвера на уровне базового протокола CCIX. Ждём в готовой продукции. Кто первый, AMD, ARM или IBM?

Тестовый набор CCIX

Рабочая демо-система с неназванным CPU и FPGA, соединённых шиной CCIX

Рабочая демо-система с неназванным CPU и FPGA, соединённых шиной CCIX

Постоянный URL: http://servernews.ru/971947
08.05.2018 [13:00], Геннадий Детинич

Qualcomm планирует выйти из бизнеса по выпуску серверных процессоров

Ещё один разработчик собирается сойти с новой дистанции — покинуть зарождающийся рынок серверных платформ на архитектуре ARM. Причём не просто новичок, как, например, компания Calxeda, которая свернула разработки в 2014 году, а один из главных сторонников продвижения серверных решений на ARM — компания Qualcomm.

Как сообщает информагентство Bloomberg со ссылкой на анонимные источники внутри компании, в настоящий момент руководство Qualcomm зондирует почву на предмет выбора одного из вариантов: просто ликвидировать подразделение по разработке серверных процессоров или найти покупателя на этот вид деятельности. В любом случае, это окажет негативное влияние на сообщество сторонников серверных процессоров на ядрах ARM. Расцвет серверных платформ на архитектурах ARM ожидался не позже 2016 года. На дворе истекает первая половина 2018 года, а массовых решений в этой области как не было, так и нет.

Интересно, что прошло всего лишь чуть больше полугода после старта коммерческих поставок 10-нм 48-ядерных процессоров Qualcomm Centriq 2400. По словам разработчиков, процессоры Centriq 2400 по энергоэффективности и по показателю стоимости существенно опережали 28-ядерные модели процессоров Intel Xeon Platinum 8180. В ноябре компания Microsoft показала сервер на процессорах Qualcomm Centriq 2400 и явную заинтересованность в подобных решениях.

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

Выглядит Cenriq практически так же, как и обычные Xeon, Opteron или EPYC

С тех пор ничего нового об использовании процессоров Centriq 2400 в каких-либо системах не сообщалось, а тишина в данном случае свидетельствует об отсутствии интереса к новинкам. Всё снова вернулось к x86-совместимым платформам Intel Xeon, тем более, что как раз прошлой осенью вышли первые серверные модели Xeon на архитектуре Skylake, и все дружно начали закупать проверенные временем решения.

Постоянный URL: http://servernews.ru/969391
26.04.2018 [15:49], Алексей Степин

Verne Global представила новый сервис hpcDIRECT

Компания Verne Global, известный производитель и поставщик решений для ЦОД и сферы супервычислений, анонсировала системы hpcDIRECT, главное назначение которых — работа в составе кластеров, задействованных в области вычислительной биологии и генетики. Новинки относятся к модному нынче классу «супервычисления как облачный сервис», и клиент может выбирать из многочисленных опций.

К примеру, в зависимости от задачи, Verne Global предлагает разные ускорители на базе графических процессоров, выделенные или разделяемые хранилища данных, а также гарантирует наличие скоростной сетевой среды. Типичная спецификация включает в себя 32 физических ядра с частотой 2,1 ГГц, 512 Гбайт оперативной памяти (16 Гбайт на ядро) и сетевое подключение InfiniBand FDR со скоростью 56 Гбит/с.

Решения hpcDIRECT устанавливаются в безопасном ЦОД, оптимизированном с учётом сферы супервычислений, и обслуживаются командой квалифицированных специалистов. Клиентам предоставляется настоящая вычислительная мощность без виртуализации; иными словами, процессорную производительность не приходится делить с другими заказчиками. Стоимость трёхлетней резервации мощностей стоит 0,03 евро за одно ядро в час, мгновенный доступ «по требованию» дороже — 0,07 евро. Подробности можно узнать на сайте сервиса по приведённой выше ссылке.

Постоянный URL: http://servernews.ru/968954
Система Orphus