Материалы по тегу: вычисления

13.04.2018 [15:28], Сергей Карасёв

Предложен кубит новой конструкции для квантовых компьютеров

Международная группа учёных из России, Великобритании и Германии создала альтернативную конструкцию сверхпроводникового кубита — основы квантовых компьютеров.

Напомним, что квантовые вычислительные системы оперируют квантовыми битами, или кубитами. Они могут одновременно принимать значение и логического ноля, и логической единицы. Поэтому с ростом количества использующихся кубитов число обрабатываемых одновременно значений увеличивается в геометрической прогрессии. А это обеспечивает колоссальную производительность при решении задач определённых типов.

Как теперь сообщается, исследователям удалось создать принципиально новый кубит, основанный не на джозефсоновском переходе, представляющем собой разрыв в сверхпроводнике, а на сплошной сверхпроводящей нано-проволоке. В работе приняли участие отечественные специалисты из Российского квантового центра, НИТУ «МИСиС», МФТИ и Сколтеха, а также их коллеги из Университета Лондона и Национальной физической лаборатории в Теддингтоне (Великобритания), Университета Карлсруэ и Института фотонных технологий (Германия).

Новый кубит основан на эффекте квантового проскальзывания фазы — контролируемого периодического разрушения и восстановления сверхпроводимости в сверхтонкой (около 4 нм) нано-проволоке, которая в обычном состоянии имеет довольно большое сопротивление.

Ожидается, что новое решение по сравнению с «обычными» кубитами обеспечит не меньшую (а, возможно, даже большую) функциональность и при этом будет гораздо более простым в изготовлении. Подробнее об изысканиях учёных можно узнать здесь

Постоянный URL: http://servernews.ru/968344
11.04.2018 [10:50], Сергей Карасёв

Достижение Microsoft поможет в создании более точного квантового компьютера

Группа исследователей Microsoft из Делфтского технического университета в Нидерландах провела эксперимент, результаты которого помогут в создании квантового компьютера, превосходящего по точности современные решения в десятки тысяч раз.

Специалисты экспериментально подтвердили существование фермиона Майораны. Он уникален тем, что является собственной античастицей и одновременно обладает свойствами полупроводника и суперпроводника. Существование таких частиц впервые рассмотрел итальянский физик Этторе Майорана в 1930-х годах.

Кубиты (квантовые биты) вычислителя, построенного на основе названных частиц, как ожидается, будут менее подвержены внешним влияниям и смогут давать более точные результаты, а значит, показывать большую производительность.

Если учёные преуспеют в создании работающих кубитов на основе фермиона Майораны, то рано или поздно клиенты Microsoft смогут пользоваться ресурсами квантового компьютера через облачную платформу Azure.

Предполагается, что системы нового типа смогут с высочайшей производительностью решать определённые задачи. Это, в частности, расчёты, связанные с криптографией, поиском новых лекарственных препаратов и пр. 

Постоянный URL: http://servernews.ru/968247
10.04.2018 [01:20], Алексей Степин

Тайны коммутатора NVIDIA NVSwitch

На прошедшей недавно конференции GTC (GPU Technology Conference) корпорация NVIDIA представила новый внутренний интерконнект NVSwitch, целью которой является эффективное объединение в сеть множества вычислительных процессоров Volta. Именно NVSwitch является сердцем демонстрационной системы DGX-2, аналоги которой планируется использовать в дальнейшем для постройки суперкомпьютера нового поколения Saturn V. С момента официального анонса новой технологии о ней стали известны новые детали, включая данные о внутренней архитектуре самого коммутатора NVSwitch. Как известно, вычислительные ускорители имеют три фундаментальных ограничения, влияющих на эффективность их работы в составе кластерной системы: производительность подсистемы ввода-вывода, пропускная способность памяти и объём этой самой памяти.

Кристалл NVSwitch

Кристалл NVSwitch

Последние два, впрочем, обходятся достаточно малой кровью: ускорители Volta могут нести на борту до 32 Гбайт памяти типа HBM2, которая, к тому же, может прокачивать до 900 Гбайт/с. Но по мере масштабирования системы проблема I/O встаёт всё острее, поскольку скорости, приведённые выше, сетям и сетевым средам пока недоступны, а значит, на задачах с большой степенью параллелизации главным фактором, ограничивающим производительность, может стать именно сеть. Это подтверждают и результаты тестирования суперкомпьютеров с помощью новой методики, о чём мы недавно рассказывали нашим читателям.

Его функциональные блоки

Его функциональные блоки

Решить эту проблему и призвана технология NVIDIA NVSwitch. Само сердце технологии, чип-коммутатор может работать в разных топологиях. Как уже было сказано, впервые он найдёт применение в системе DGX-2, поставки которой должны начаться в третьем квартале. NVIDIA пока не предполагает использование этого коммутатора для сетевого соединения нескольких «корпусов», то есть, в качестве, «внешнего интерконнекта», но это не значит, что разработчики суперкомпьютеров не решат попробовать новинку и в качестве такого решения.

Выглядит снимок кристалла NVSwitch довольно впечатляюще, что неудивительно, поскольку состоит этот кристалл из 2 миллиардов транзисторов. Предположительно, в его производстве задействован 12-нм техпроцесс класса FinFET, разработанный TSMC, но компания-разработчик хранит по этому поводу молчание, по крайней мере, пока. Архитектурно в составе NVSwitch можно выделить два блока по 8 портов NVLink плюс два дополнительных порта этой шины. Система соединений (кроссбар) работает в неблокирующем режиме, так что любой из портов NVLink в правом или левом модуле может напрямую работать с одним из двух портов в верхнем модуле. Это существенно отличает реальный чип от опубликованных в момент анонса данных о технологии NVSwitch.

Один из слайдов NVIDIA

Один из слайдов NVIDIA

На предыдущих слайдах изображено 16 чипов в 8 парах, соединённых друг с другом на скорости 300 Гбайт/с (150 Гбайт/с в каждую сторону) с тотальной пропускной способностью, достигающей 2,4 Тбайт/с. Но NVSwitch имеет 18 портов, поэтому при подключении 16 процессоров Volta остаётся место для дальнейшего расширения конфигурации. Если блок-схема DGX-2, продемонстрированная на презентации, верна, то в ней имеется 12 коммутаторов NVSwitch, но тогда не все порты остаются задействованными.

Это позволяет предположить, что 16-процессорая версия DGX-2 является пилотной, а дизайн NVSwitch создан с заделом на будущее и позволяет создавать, к примеру, 32-процессорные системы в одном корпусе-узле. Пока этому мешает текущая версия модуля backplane, которой оснащается DGX-2, но архитектурного запрета на создание системы с теми же 32 вычислительными GPU нет. Точных данных о топологии DGX-2 пока нет, на имеющемся слайде видны по шесть «толстых» шин на каждую «половину» кластера. С учётом свободных портов, скорость «общения половин» между собой может достигать 6 Гбайт/с (3 Гбайт/с в каждую сторону). 

Из этого слайда топология DGX-2 не ясна

Из этого слайда топология DGX-2 не ясна

Были различные предположения о топологии, включая схему «двойное кольцо», но в худшем сценарии такая схема соединяет два ГП через шесть «скачков» (hops), а это не лучший вариант с точки зрения латентности. NVIDIA употребляет термин «fully connected crossbar internally» по отношению к NVSwitch, но не говорит этого про систему в целом и про соединение между двумя половинами DGX-2. Если предположить, что для соединения используется пара «верхних» портов коммутатора, то ГП могут быть соединены попарно, но тогда для полноценного соединения всей системы в единое целое потребуются иные механизмы, например, дополнительные соединения PCI Express, что выглядит не слишком осмысленным, если сравнить скорости PCIe и декларируемые NVIDIA цифры, относящиеся к NVLink.

Как оказалось впоследствии и было подтверждено официально, 12 «лишних» портов NVLink в NVSwitch не задействованы в DGX-2. Топология внутренней сети в новой системе проще, и каждый из шести портов в Volta соединён с одним из NVSwitch «сверху». Аналогичным образом подключается восьмёрка ГП «снизу». Такая схема позволяет добиться латентности в два «хопа» между двумя любыми ГП на одной «половине» системы, а если требуется коммуникация между разными половинами, то количество «хопов» увеличивается до трёх.

А так она выглядит на самом деле

А так она выглядит на самом деле

Разумеется, это не единственный сценарий: в данном варианте использовано всего 6 чипов NVLink для каждой половины, но ничто не мешает увеличить их число до, скажем, двенадцати. Новая система весьма эффективна: для демонстрации NVIDIA использовала пару серверов DGX-1 с 8 ГП Volta V100 в каждом. Они были соединены между собой четырьмя каналами InfiniBand с совокупной пропускной способностью 400 Гбит/с. Сравнительные тесты показали более чем двукратное (от 2,4 до 2,7x) превосходство системы DGX-2, использующей новые технологии с NVSwitch во главе.

DGX-2 ставит новые рекорды

DGX-2 ставит новые рекорды

Выглядит новая технология очень многообещающе, но интересно будет взглянуть, как она поведёт себя при увеличении количества вычислительных узлов, ведь модули DGX-2 придётся как-то соединять между собой, и не поглотит ли это все преимущества в случае постройки достаточно крупного кластера? Есть вариант NUMA, но практический предел, достигнутый на сегодня, составляет 128 процессоров; более того, после 32 процессоров в такой схеме критическую роль начинают играть очереди запросов и задержки. Как только DGX-2 начнёт поставляться массово, мы, скорее всего, узнаем ответ.

Постоянный URL: http://servernews.ru/968189
03.04.2018 [13:45], Сергей Карасёв

ПаВТ 2018: самый мощный суперкомпьютер России нарастил производительность

Научно-исследовательский вычислительный центр МГУ имени М.В.Ломоносова и Межведомственный суперкомпьютерный центр РАН представили двадцать восьмую редакцию рейтинга самых мощных компьютеров СНГ — списка Тор50.

Лидером рейтинга уже семь редакций подряд остаётся суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», установленный в Московском государственном университете имени М.В.Ломоносова. Причём эта система была модернизирована. Её производительность на тесте Linpack поднялась с 2,1 петафлопса (квадриллиона операций с плавающей запятой в секунду) до 2,48 петафлопса, а пиковое быстродействие увеличилось с 2,96 до 4,95 петафлопса.

На втором месте оказался новый суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в Главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Производительность этого комплекса на тесте Linpack составляет 1,2 петафлопса.

Замыкает первую тройку суперкомпьютер «Ломоносов», установленный в Московском государственном университете имени М.В.Ломоносова. Его быстродействие составляет около 0,9 петафлопса.

Любопытно, что все системы в рейтинге используют в качестве основных процессоров решения Intel. Число гибридных суперкомпьютеров, использующих для вычислений графические процессоры, по сравнению с предыдущей редакцией рейтинга уменьшилось с 19 до 18, а количество систем, использующих ускорители Intel Xeon Phi, осталось равным 9.

Суммарная производительность систем на тесте Linpack за полгода выросла с 8,7 до 10,7 петафлопса. Суммарная пиковая производительность систем списка составила 17,4 петафлопса против 13,4 петафлопса в предыдущей редакции.

Количество систем, используемых в науке и образовании, осталось равным 18; количество систем, ориентированных на конкретные прикладные исследования, уменьшилось с 16 до 14; число систем, используемых в промышленности, уменьшилось с 5 до 4; число систем в финансовой области осталось равным 3. 

Постоянный URL: http://servernews.ru/967909
30.03.2018 [09:00], Андрей Крупин

2 апреля в Ростове-на-Дону стартует международная научная конференция «Параллельные вычислительные технологии»

В понедельник, второго апреля в Донском государственном техническом университете начнёт работу международная научная конференция «Параллельные вычислительные технологии (ПаВТ) 2018», посвящённая развитию и применению суперкомпьютерных вычислительных технологий в различных областях науки и техники, включая аппаратное и программное обеспечение, специализированные языки и пакеты. Мероприятие будет проходить в течение четырёх дней и охватит различные теоретические и практические аспекты использования высокопроизводительных систем в России и мире.

Мероприятие «ПаВТ 2018» станет площадкой для обсуждения перспектив развития параллельных вычислительных технологий, представления результатов, полученных ведущими научными группами в использовании суперкомпьютерных технологий для решения задач науки и техники, а также обмена опытом. Участники конференции озвучат современные тренды развития HPC-индустрии на примере обработки больших данных, представят аппаратно-программные решения для высокопроизводительных вычислений и задач искусственного интеллекта, расскажут о технологиях параллельного программирования и прочих наработках в суперкомпьютерной сфере.

В первый день работы конференции будет объявлена 28-я редакция списка Tоп-50 самых мощных суперкомпьютеров СНГ. Во все дни работы «ПаВТ 2018» будет действовать суперкомпьютерная выставка, на которой ведущие производители аппаратного и программного обеспечения представят свои новейшие разработки в области высокопроизводительных вычислений.

Организаторами конференции «ПаВТ 2018» являются Федеральное агентство научных организаций России и Суперкомпьютерный консорциум университетов России. Мероприятие проводится при поддержке Российского фонда фундаментальных исследований, а также компаний Intel, РСК, NVIDIA, Hewlett Packard Enterprise, AMD и ряда других.

Подробнее с программной конференции можно ознакомиться на сайте ПаВТ.рф.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/967726
28.03.2018 [13:45], Андрей Крупин

Объединённый институт ядерных исследований запустил новый суперкомпьютер производительностью 1 Пфлопс

Объединённый институт ядерных исследований (ОИЯИ) в Дубне сообщил о вводе в эксплуатацию нового вычислительного комплекса, названного в честь Н. Н. Говоруна, с именем которого с 1966 года связано развитие информационных технологий в научно-исследовательской организации. В разработке суперкомпьютера приняли участие сотрудники ОИЯИ, Лаборатории теоретической физики им. Н.Н. Боголюбова, Лаборатории информационных технологий, а также специалисты компаний Intel, РСК, NVIDIA и IBS Platformics.

Пиковая производительность суперкомпьютера им. Н. Н. Говоруна оценивается в 1 Пфлопс. Вычислительные мощности комплекса будут задействованы для решения задач в области физики элементарных частиц, ядерной физики и физики конденсированных сред, а также для реализации масштабного научно-исследовательского проекта NICA (Nuclotron-based Ion Collider facility), целью которого является моделирование момента возникновения Вселенной и изучение свойств плотной барионной материи.

В основу вычислительного комплекса ОИЯИ положена кластерная система на базе архитектуры «РСК Торнадо» с прямым жидкостным охлаждением. Вычислительные узлы суперкомпьютера построены с использованием 72-ядерных серверных процессоров Intel Xeon Phi 7290, процессоров семейства Intel Xeon Scalable (Xeon Gold 6154), плат семейства Intel Server Board S7200AP и S2600BP, твердотельных накопителей Intel SSD DC S3520 с подключением по шине SATA в форм-факторе M.2 и Intel SSD DC P4511 с интерфейсом NVMe ёмкостью 1 Тбайт. Для высокоскоростной передачи данных между вычислительными узлами задействованы контроллеры Intel Omni-Path, обеспечивающие скорость неблокируемой коммутации до 100 Гбит/c, на основе 48-портовых коммутаторов Intel Omni-Path Edge Switch 100 Series.

Все элементы суперкомпьютера (вычислительные узлы, блоки питания, модули гидрорегулирования и др.) имеют встроенный модуль управления, что обеспечивает широкие возможности для детальной телеметрии и гибкого управления. Конструктив шкафа позволяет заменять вычислительные узлы, блоки питания и гидрорегулирования (при условии применения резервирования) в режиме горячей замены без прерывания работоспособности комплекса. При этом большинство компонентов системы (таких, как вычислительные узлы, блоки питания, сетевые и инфраструктурные компоненты и т.д.) — это программно-определяемые компоненты, позволяющие существенно упростить и ускорить как начальное развёртывание, так и обслуживание, и последующую модернизацию системы. Жидкостное охлаждение всех компонентов обеспечивает длительный срок их службы.

О надёжности решений на базе архитектуры «РСК Торнадо» свидетельствует факт промышленной эксплуатации подобного рода систем российскими заказчиками с 2009 года. Кроме нового проекта в ОИЯИ, такие системы установлены и активно используются для моделирования и расчётов широкого спектра научно-исследовательских и реальных промышленных задач в Санкт-Петербургском политехническом университете Петра Великого (СПбПУ), Межведомственном суперкомпьютерном центре Российской академии наук (МСЦ РАН), Сибирском суперкомпьютерном центре (ССКЦ) ИВМиМГ СО РАН, Южно-Уральском государственном университете (ЮУрГУ), Институте океанологии имени П. П. Ширшова РАН, Московском физико-техническом университете (МФТИ), Росгидромете и у других заказчиков из различных отраслей промышленности и направлений деятельности, таких как авиамоторостроение, энергетика, компьютерная графика, нефтегазовая отрасль и другие.

Материалы по теме:

Источники:

Постоянный URL: http://servernews.ru/967645
20.03.2018 [13:45], Сергей Карасёв

Самый мощный российский суперкомпьютер станет существенно производительнее

Московский государственный университет (МГУ) имени М.В.Ломоносова сообщил о завершении разработки и начале опытной эксплуатации нового вычислительного кластера суперкомпьютера «Ломоносов-2».

На сегодняшний день «Ломоносов-2» является самым мощным вычислительным комплексом в России. Сейчас этот суперкомпьютер демонстрирует производительность на тесте Linpack на уровне 2,1 петафлопса (квадриллиона операций с плавающей запятой в секунду). Пиковое быстродействие достигает 2,96 петафлопса.

Новый кластер системы обладает пиковой производительностью в 1,8 петафлопса. Он базируется на многоядерных процессорах Intel Skylake и процессорах NVIDIA Pascal P100 с аппаратной поддержкой высокоскоростного интерфейса NVLink.

Утверждается, что по сравнению с предыдущими поколениями суперкомпьютеров МГУ в новой системе увеличен объём и улучшена структура оперативной памяти, что позитивно скажется на эффективности практически всех приложений пользователей, работающих на суперкомпьютере «Ломоносов-2».

Таким образом, с вводом нового кластера в строй пиковое быстродействие вычислительного комплекса вплотную приблизится к отметке в 5 петафлопсов. «Это значительно ослабит острейший дефицит высокопроизводительных вычислительных ресурсов, доступных для научно-образовательного сообщества России: на суперкомпьютерах МГУ работают 2500 пользователей из 20 подразделений вуза, более 100 институтов Российской академии наук, более 100 университетов России, решая задачи, отвечающие всем направлениям стратегии научно-технологического развития Российской Федерации», — отмечает МГУ. 

Постоянный URL: http://servernews.ru/967204
19.03.2018 [13:49], Сергей Карасёв

Суперкомпьютер на базе NVIDIA DGX-1 рассчитает алгоритмы движения беспилотного «КАМАЗа»

В Университете Иннополис установлен суперкомпьютер на платформе NVIDIA DGX-1: мощная вычислительная система подходит для задач глубокого обучения и нейронных сетей.

В компьютере задействованы восемь графических процессоров Tesla V100. Они помогают машине достичь производительности в 960 терафлопсов (триллионов операций в секунду при выполнении вычислений с плавающей запятой). Исследования показали, что в работе с алгоритмами глубокого обучения система в 96 раз быстрее традиционного серверного узла на базе центрального процессора.

В устройстве также используются два 20-ядерных процессора Intel Xeon E5-2698 v4 с частотой 2,2 ГГц (до 3,6 ГГц в турбо-режиме). Применена операционная система Ubuntu Linux.

«Суперкомпьютер будет задействован в решении задач машинного обучения для автономного вождения — проекта вуза по созданию беспилотной системы для КАМАЗа с аэроразведкой территории дроном и для конкурса "Зимний город", для которого мы создаём беспилотный автомобиль, адаптированный к движению зимой без разметки в разное время суток», — рассказали в Университете Иннополис.

Отметим, что «КАМАЗ» активно участвует в развитии беспилотного транспорта в России. В частности, на инвестиционном форуме в Сочи в прошлом году автопроизводитель подписал соглашение о сотрудничестве между Ассоциацией развития беспилотного транспорта в России «Автонет», Машиностроительным кластером Республики Татарстан и Камским инновационным территориально-производственным кластером «Иннокам». В рамках договора стороны намерены построить в Набережных Челнах специальный полигон для испытания роботизированной автотехники и наладить на территории Татарстана производство как самих беспилотных автомобилей, так и их компонентов. 

Постоянный URL: http://servernews.ru/967161
17.03.2018 [11:25], Алексей Степин

TOP500: бенчмарк HPCG набирает популярность, вытесняя HPL

На протяжении многих лет основным тестовым инструментом для измерения производительности суперкомпьютеров и кластерных систем был пакет High Performance Linpack (HPL), причём, таковым он считался де-факто. Продержался этот пакет в таком статусе четверть века, что в мире информационных технологий означает не одну эпоху: в 1993 году самым мощным процессором с архитектурой x86 был Intel Pentium (P5), но процветали также архитектуры MIPS (R4400), SPARC V8/V9, DEC Alpha и POWER2. Но у HPL есть одна проблема: тест хорошо подходит для «прогрева» только что смонтированной системы, и в лучшем случае предоставляет собой не самый точный индикатор того, насколько хорошо она будет выполнять научные и инженерные задачи.

1992 год: одно из воплощений процветавших тогда архитектур, процессор  DEC Alpha 21064 (EV4)

1992 год: одно из воплощений процветавших тогда архитектур, процессор DEC Alpha 21064 (EV4)

Команда разработчиков альтернативного тестового пакета HPCG (High Performance Gradients) продвигает своё детище уже довольно давно, при этом статистика производительности собирается с 2014 года, что, конечно, не идёт в сравнение со сроками HPL, но всё же популярность новинки постоянно растёт. Создатель HPCG считает, что Linpack на сегодня свою задачу выполнил и более не отвечает требованиям времени. В этом есть смысл: HPL использует богатые на вычисления алгоритмы с небольшими, «плотными» структурами данных, но современные приложения могут задействовать (и часто задействуют) огромные распределенные массивы при менее интенсивных вычислениях. Примером могут послужить задачи класса Big Data, но создатели HPCG используют и другие актуальные примеры, например, моделирование распределения давлений в потоке жидкости, где также сильна нагрузка на подсистему памяти.

Одно из многочисленных сердец комплекса K: чип SPARC64 VIIIfx. 128 гигафлопс, 45 нм

Одно из многочисленных сердец комплекса K: чип SPARC64 VIIIfx. 128 гигафлопс, 45 нм

В число типичных для сегодняшнего дня проектов входят задачи машинного обучения, финансовая аналитика, системы защиты от электронного мошенничества — и все они серьёзно зависят от производительности системы при случайном обращении к памяти. И в этом плане HPCG гораздо лучше отвечает веяниям нового времени, нежели HPL, поскольку последний тест не нагружает подсистему памяти — во всяком случае, сколько-нибудь серьёзно по нынешним меркам. Сама ситуация в сфере высокопроизводительных вычислений действительно такова, что узкими местами уже давно являются не процессоры, а подсистемы памяти и межузловой коммуникации. Количество процессоров увеличить легко, но гораздо сложнее «прокормить» их так, чтобы вычислительные ядра не простаивали попусту, и именно поэтому подсистемы памяти также нуждаются в тщательном тестировании, что может предложить HPCG. Итог любопытный и похож он более всего на ведро ледяной воды на голову энтузиастов супервычислений: результаты HPCG нередко оказываются гораздо скромнее показателей, достигнутых в HPL.

Десятка лучших систем по данным тестового комплекса HPCG. Обратите внимание на КПД

Десятка лучших систем по данным тестового комплекса HPCG. Обратите внимание на КПД

Из 181 протестированной системы мощностью от 1 петафлопса в HPCG подобного показателя не смогла показать ни одна. Это должно серьёзно охладить пыл энтузиастов, вещающих об «эре петафлопсов», вполне закономерно возвращая их в предыдущую «эру терафлопсов». В настоящее время лидером в HPCG является комплекс с простейшим названием K, запущенный в 2011 году в Институте физико-химических исследований в городе Кобе, Япония. Он показывает 602,7 терафплоса, что составляет лишь 5,3 % от теоретической пиковой производительности. По всей видимости, стать победителем этой системе помогла фирменная шестимерная система межузловых соединений под названием Tofu (Torus Fusion). Основой K являются процессоры SPARC64 VIIIfx, хотя и x86 нашлось место в десятке лидеров: второе место занимает машина NUDT, построенная на базе связки Xeon и Xeon Phi. Скромные показатели эффективности неоспоримо свидетельствуют о том, что разработчикам суперкомпьютеров следует сконцентрировать свои усилия на улучшении характеристик подсистем памяти, хранения данных, а также межузловых соединений. Процессорных же мощностей в 2018 году более чем достаточно.

Постоянный URL: http://servernews.ru/967110
12.03.2018 [15:37], Сергей Карасёв

В России испытано новое решение на базе квантового шифрования

«Сервионика» (ГК «АйТеко») совместно со специалистами компании «Россети», Университета ИТМО и КНИТУ-КАИ испытала прототип комплекса передачи данных с гибридной квантово-классической защитой в телекоммуникационной сети.

Технология квантовых коммуникаций основана на фундаментальных законах физики. Для обмена данными используются одиночные фотоны, состояния которых безвозвратно меняются, как только кто-то попытается перехватить данные. Поэтому незаметно похитить информацию, передающуюся по квантовым каналам, попросту невозможно.

Комплекс, испытания которого были успешно проведены в России, представляет собой два сетевых шлюза, предназначенных для организации прозрачного туннеля с шифрованием AES-256, генерируемым системой квантовой коммуникации. В рамках тестирования использовались два ноутбука, которые были подключены к специальному оборудованию.

Испытания проводились на волоконно-оптической линии протяжённостью около 60 км (с учётом затухания сигнала это эквивалентно 90–100 км). Передача квантовых битов (ключей шифрования) осуществлялась по отдельному оптическому волокну на боковых (поднесущих) частотах в результате фазово-частотной модуляции.

Комплекс позволяет безопасно и с высокой скоростью передавать криптографические ключи для классических средств криптографической защиты информации (СКЗИ), использующих симметричное шифрование (когда для шифрования и дешифрования используется одинаковый ключ). Так как симметричная криптография подразумевает содержание криптографического ключа в секрете, частая его смена затруднительна: в коммерческих СКЗИ ключи обновляются, как правило, раз в год, согласно рекомендациям производителей.

Новый комплекс призван решить проблему безопасной передачи криптографического ключа для обеспечения более частой смены в классических СКЗИ. Это позволит обеспечить безопасность передаваемой информации, в том числе при использовании таких перспективных разработок, как квантовые компьютеры. 

Постоянный URL: http://servernews.ru/966820
Система Orphus