Материалы по тегу: вычисления

25.09.2019 [13:27], Сергей Карасёв

Сервер Manli M-4U10GC621-A допускает установку десяти графических ускорителей

Компания Manli анонсировала сервер M-4U10GC621-A, предназначенный для решения задач в области искусственного интеллекта, глубокого обучения, аналитики больших данных, распознавания изображений и пр.

Новинка, выполненная в форм-факторе 4U, рассчитана на монтаж в стойку. Применена материнская плата на наборе логики Intel C621. Допускается установка двух процессоров Intel Xeon в исполнении LGA3647.

В системе можно задействовать до 3 Тбайт оперативной памяти DDR4-2400/2133/1866/1600 в виде 24 модулей. Предусмотрена возможность установки десяти накопителей типоразмера 2,5 дюйма и восьми устройств хранения данных в формате 3,5 дюйма. Поддерживаются массивы RAID 0, 1, 5, 10.

Сервер может быть оборудован десятью графическими ускорителями: для них предусмотрены слоты PCI-Express x16. Таким образом, платформа подходит для выполнения высокопроизводительных вычислений.

Питание обеспечивают четыре блока мощностью 1600 Вт каждый. Среди прочего стоит упомянуть два сетевых порта SFP+ 10 Gigabit LAN и дополнительный порт управления RJ45 Dedicated IPMI LAN.

Информации об ориентировочной цене сервера Manli M-4U10GC621-A на данный момент нет. 

Постоянный URL: http://servernews.ru/994604
23.09.2019 [13:20], Андрей Крупин

Обновлён рейтинг 50 самых мощных суперкомпьютеров СНГ

Научно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук сообщили о выпуске обновлённой редакции списка TOP 50 самых мощных компьютеров СНГ.

Объявление новой редакции списка состоялось на проходящей в Москве международной конференции Russian Supercomputing Days, посвящённой развитию и применению суперкомпьютерных технологий в различных областях науки и техники.

Лидером списка уже десятый раз подряд остаётся установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс.

На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

В обновлённом рейтинге TOP 50 все пять десятков систем построены на процессорах Intel. Количество гибридных суперкомпьютеров, использующих для вычислений графические процессоры, составило 28. Число вычислительных комплексов на базе InfiniBand достигло 35.

С полной версией рейтинга 50 самых мощных суперкомпьютеров СНГ можно ознакомиться на сайте top50.supercomputers.ru.

Постоянный URL: http://servernews.ru/994488
19.09.2019 [13:59], Андрей Крупин

НИЦЭВТ и «Скирус» создали модульный суперкомпьютер «Фишер» для Российской академии наук

Государственная корпорация «Ростех» сообщила о вводе эксплуатацию нового суперкомпьютера «Фишер» для Объединённого института высоких температур Российской академии наук (ОИВТ РАН).

Проект реализован специалистами Научно-исследовательского центра электронной вычислительной техники (НИЦЭВТ, входит в «Ростех») и компании «Скирус». «Фишер» состоит из 24 вычислительных узлов, каждый из которых включает два процессора AMD EPYC 7301 (16 ядер; 2,2 ГГц), память DDR4 суммарным объёмом 128 Гбайт и SSD-накопители ёмкостью 240 Гбайт.

Комплекс функционирует под управлением SUSE Linux Enterprise Server  12 SP4, а его пиковая производительность составляет 13,5 терафлопс. В вычислительном кластере используется погружная система жидкостного охлаждения, а для объединения узлов системы в единое целое задействован разработанный в России интерконнект «Ангара» ЕС8432 и ЕС8433 .

Сообщается, что «Фишер» — это первый суперкомпьютер, созданный на основе коммуникационной сети «Ангара» в коммутаторном исполнении, что позволяет создавать суперкомпьютеры с большей плотностью компоновки (по сравнению с бескоммутаторным вариантом исполнения) и облегчает монтаж и дальнейшую эксплуатацию вычислительной системы за счёт уменьшения числа используемых для коммутации кабелей.

ОИВТ РАН – один из крупнейших научных центров России в области современной энергетики и теплофизики

ОИВТ РАН – один из крупнейших научных центров России в области современной энергетики и теплофизики

«Фишер» будет использоваться сотрудниками Объединённого института высоких температур Российской академии наук для проведения научных исследований и решения задач молекулярной динамики. «В ОИВТ РАН уже несколько лет используется суперкомпьютер DESMOS мощностью 52,24 Тфлопс, созданный на базе предыдущего поколения сети «Ангара», — говорит исполнительный директор госкорпорации Ростех Олег Евтушенко. — Его вычислительные мощности оказались настолько востребованы учёными, что было принято решение о создании «младшего брата» этого суперкомпьютера уже на базе нового поколения коммутационной сети». Комплекс спроектирован под конкретные задачи, но при необходимости возможности «Фишера» могут быть существенно расширены, отмечают разработчики.

В настоящий момент самым мощным суперкомпьютером в России является установленный в МГУ имени М.В. Ломоносова суперкомпьютер «Ломоносов-2» производства компании «Т-Платформы», чья пиковая производительность составляет 4,9 петафлопс, а производительность по данным теста Linpack достигает 2,5 петафлопс. На второй строчке рейтинга с производительностью по Linpack в 1,2 петафлопс фигурирует суперкомпьютер производства компаний «T-Платформы» и CRAY, установленный в главном вычислительном центре Федеральной службы по гидрометеорологии и мониторингу окружающей среды. Замыкает тройку лидеров развёрнутая в МГУ имени М.В. Ломоносова система «Ломоносов» разработки «Т-Платформы», чья производительность на тесте Linpack составляет 901,9 терафлопс.

Постоянный URL: http://servernews.ru/994318
09.09.2019 [12:39], Сергей Тверье

DARPA заинтересовалась развитием параллелизма в высокопроизводительных вычислениях

По мере того как закон Мура теряет свою актуальность, внедряются всё новые подходы к программированию с целью повышения эффективности использования оборудования при уменьшении затрат на написание кода. 

Управление перспективных исследовательских проектов Министерства обороны США DARPA запускает новый проект, направленный на максимизацию использования преимуществ массивно-параллельных архитектур с минимизацией необходимых трудозатрат.

Проект PAPPA (Performant Automation of Parallel Program Assembly — высокопроизводительная автоматизация создания параллельных программ) стремится разработать новые подходы к программированию, которые позволили бы исследователям и разработчикам приложений создавать эффективные программы для запуска на высокопараллельных и гетерогенных системах.

DARPA запускает новый проект нацеленный на развитие массово-параллельных архитектур и упрощения инструментов для работы с ними

DARPA запускает новый проект, нацеленный на развитие массово-параллельных архитектур и упрощения инструментов для работы с ними

PAPPA рассмотрит «компромиссы между производительностью программирования, универсальностью решений и масштабируемостью, чтобы позволить ученым без понимания нюансов параллельного программирования и аппаратных архитектур создавать высокоэффективные и легко портируемые программы».

Одной из желательных целей было бы создание новой технологии компиляции, обеспечивающей вплоть до 10 000-кратного повышения производительности программирования для массивно-параллельных архитектур. Такие эффективные компиляторы должны снизить барьеры на пути развертывания новых алгоритмов для популярных платформ.

PAPPA также планируют устранить пробелы в современных подходах к программированию, которые позволяют масштабироваться на миллионы процессорных ядер, но при этом требуют очень высокого уровня знаний и компетенции, что часто приводит к длительным и дорогостоящим проектам разработки ПО для высокопроизводительных вычислений. 

Проект PAPPA должен упростить создание расспараллеленных приложений для сложных многоядерных и многопроцессорных архитектур

Проект PAPPA должен упростить создание расспараллеленных приложений для сложных многоядерных и многопроцессорных архитектур, в том числе для таких сложных задач, как моделирование физических процессов в реальном времени

PAPPA стремится повысить ставку, используя специфичные для предметной области инструменты, такие как PyTorch и TensorFlow. Теперь в рамках усилий DARPA должны появиться новые инструменты программирования, основанные на машинном обучении, которые помогут автоматизировать моделирование вычислительных систем. Автоматизация параллельного программирования также необходима для таких задач, как распределение ресурсов и управление памятью. 

Именно поэтому представители DARPA пришли к выводу, что «необходим совершенно новый подход» для автоматизации параллельного программирования. Одним из возможных вариантов было бы точное моделирование и прогнозирование производительности компонентов в рамках всей платформы для высокопроизводительных вычислений. Там, где это уместно, можно было бы применять средства автоматизации, которые не так заметно влияют на бюджет.

DARPA утверждает, что её усилия будут сосредоточены на двух прикладных областях: физическом моделировании и обработке данных в реальном времени. Первое направление будет включать в себя приложения, способные рассчитывать, например, динамику жидкости в определенной среде или прогноз погоды, а также алгоритмы для работы с задачами в физике элементарных частиц. Второе же будет охватывать современные компьютерные приложения, в том числе радиолокационные и беспроводные системы связи.

Анонс программы PAPPA, запущенной DARPA во вторник (3 сентября), находится здесь. Предложения от представителей отрасли будут приниматься до 3 октября.

Постоянный URL: http://servernews.ru/993726
20.08.2019 [18:08], Геннадий Детинич

Стартуют поставки памяти UPMEM со встроенными процессорами

На конференции Hot Chips 31 французская компания UPMEM объявила о начале опытных поставок памяти со встроенными процессорами. Модули памяти в форм-факторе DDR4 RDIMM и RDIMM ECC представлены внешне обычными 8-Гбайт планками DDR4-2400 из 16 и, соответственно, 18 чипов объёмом 4 Гбит DDR4-2400 каждый. Но каждый из них ― это не просто кристалл памяти. Внутри каждой микросхемы находятся несколько интегрированных процессоров DPU (data processing unit), каждый из которых адресуется к 64 Мбайт памяти. Итого, в каждом 4-Гбит чипе находятся по 8 DPU. Всего 8-Гбайт модуль DDR4 RDIMM содержит 128 DPU.

Истончник изображения - AnandTech

Источник изображения ― AnandTech

Данное новшество, уверяют разработчики, значительно ускорит обработку данных, повысит эффективность расчётов и снизит стоимость владения вычислительными системами. Всё дело в том, что простые операции над данными будут выполняться прямо в памяти ― там, где они хранятся. Это освободит как центральный процессор, так и всю цепочку по извлечению, пересылке, кешированию, обработке и обратной отсылке данных. Модули памяти UPMEM будут потреблять в два раза больше обычных модулей без встроенных процессоров, но в пересчёте на энергозатраты по обработке каждого запроса данных они окажутся в 10 раз менее затратными по потреблению и в 20 раз производительнее с точки зрения работы приложений.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Процессоры DPU имеют простую 32-битную архитектуру и рассчитаны на простые действия с данными типа  несложных инструкций смещения со сложением, смещения с заменой, циклические сдвиги и других. Модули UPMEM можно устанавливать в обычные материнские платы со штатными разъёмами под память RDIMM.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Необходимо лишь «слегка», как утверждают в UPMEM, модифицировать программы (библиотеки C) несколькими сотнями строк кода, с чем дюжина программистов может справиться за пару-тройку недель. Зато на выходе будет платформа, весьма эффективно перерабатывающая большие данные.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Разработками UPMEM активно интересуются инвесторы. Например, в компанию UPMEM вложила деньги и силы корпорация Western Digital. Как производитель флеш-памяти, WDC интересуется решениями, которые открывают новые горизонты для систем хранения. Модули UPMEM, как нетрудно понять, можно выпустить также с памятью NAND с интегрированными DPU, что наверняка интересует Western Digital и не только. Пока же UPMEM собирается продолжать совершенствовать чипы оперативной памяти. Следующим шагом обещает стать выпуск 128-Гбайт модулей RDIMM с 2048 процессорами DPU в составе каждого. Кстати, потребление 8-Гбайт модуля уже критическое для слота памяти (свыше 20 Вт). Поэтому разработчики рассматривают также иные варианты исполнения массивов памяти со встроенными процессорами.

Источник изображения ― AnandTech

Источник изображения ― AnandTech

Постоянный URL: http://servernews.ru/992738
14.08.2019 [13:17], Геннадий Детинич

NGD Newport: SSD с 4-ядерным 64-бит ARM-процессором для Azure IoT Edge

Совместимый с Azure IoT Edge код может исполняться на периферийных (пограничных) устройствах в виде смартфонов, вещей с подключением к Интернету или на других удалённых платформах. При этом также существенно снижаются задержки при работе с данными, что иногда не менее важно, чем отсутствие доступа к удалённому серверу.

Данные обрабатываются там же, где они хранятся. Если абсолютизировать принцип реализации Azure IoT Edge, то информацию можно обрабатывать непосредственно в накопителях, например, в SSD. 

Такие NVMe SSD на днях представила компания NGD Systems. Новая серия накопителей NGD Newport получила флагманское решение с вдвое большей ёмкостью (32 Тбайт) и 2,5-дюймовый формфактор U.2. Самым интересным стало оснащение SSD Newport 4-ядерным 64-бит ARM-процессором с поддержкой Ubuntu и возможностью запуска Docker. Заявляется, что потребление накопителя не превышает 12 Вт. 

Обычно данные только хранятся на SSD и для обработки загружаются в память сервера, после чего обрабатываются центральным процессором сервера. Накопители NGD Newport могут обрабатывать данные не загружая их в память сервера и не отдавая эту работу процессору. Правда, для этого понадобится «несущественная», как заявляют в компании NGD, доработка кода, поскольку необходимо портирование с x86 на ARM.

Цену вопроса источник не раскрывает, но утверждает, что новые накопители NGD с поддержкой локальных вычислений Azure IoT Edge готовы для развёртывания. 

Идея разгрузки CPU путём переноса части вычислений, а также обработки данных в непосредственной близости от места их хранения не нова. Из относительно свежих примеров можно вспомнить SmartSSD Samsung с FPGA Xilinx

Постоянный URL: http://servernews.ru/992401
06.07.2019 [23:50], Геннадий Детинич

Нейронные сети научили моделировать квантовые процессы

Доступное квантовое моделирование и квантовые вычислители ― вот мечты учёных на ближайшие 5–10 лет. Но квантовые системы ещё необходимо разработать и довести до ума, в чём также могли бы помочь квантовые вычислители. Заколдованный круг? Разорвать его можно с помощью новейших технологий в вычислениях, охватывающих развёртывание нейронных сетей или, проще говоря, машинное обучение и элементы искусственного интеллекта.

На прошедшей неделе на портале Physical Review Letters вышли сразу три статьи о независимых исследованиях научных команд из США, Франции и Англии, в каждой из которых рассматривался вопрос моделирования открытых квантовых систем с помощью нейронных сетей. В качестве основы всех трёх проектов взята хорошо известная группа численных методов для изучения случайных процессов «Метод Монте-Карло». Как показали эксперименты, реализованный подход даёт возможность моделировать «значительные» по масштабам открытые квантовые системы. Открытость квантовых систем означает, что к массе заданных дискретных параметров (частиц) добавляется плохо предсказуемая масса случайных параметров, с чем обычно не готовы справиться даже самые мощнейшие суперкомпьютеры.

Представленная учёными трёх стран методика квантового моделирования на нейронных сетях поможет глубже разобраться в квантовых процессах. В частности, методика даст возможность изучить такое паразитное явление, как появление шумов в квантовых вычислителях. В конечном итоге квантовое моделирование сравнительно доступными средствами приблизит появление массовых квантовых компьютеров и может привлечь к изучению процессов существенно больше специалистов.

Постоянный URL: http://servernews.ru/990316
05.07.2019 [09:09], Владимир Мироненко

Accenture предложила метод выбора эффективного сочетания квантовых и обычных вычислений

Консалтинговая компания Accenture зарегистрировала в Ведомстве по патентам и товарным знакам США патент U.S. Patent No. 10,275,721, в котором описывается, как и когда необходимо использовать технологию квантовых вычислений для корпоративных приложений.

Это уже второй патент консалтинговой компании в области квантовых вычислений. В нём описывается метод использования машинного обучения для определения, когда лучше всего использовать квантовые или стандартные цифровые вычисления.

Идея, лежащая в основе этого инструмента, заключается в том, чтобы помочь ранним пользователям квантовых вычислений сбалансировать затраты, чтобы получать выгоды от применения квантовой технологии.

«Определение того, когда использовать квантовую технологию — вместо классических вычислений или в тандеме — имеет решающее значение для реализации этого потенциала», — отметил Марк Каррель-Бильярд, старший директор-распорядитель Accenture Labs. На фоне появления квантовых и новых цифровых платформ Accenture заявила, что её запатентованный модуль машинного обучения можно использовать для адаптации к так называемому «вычислительному многообразию».

Предложенный механизм машинного обучения основан на более ранних разработках Accenture, включая зарегистрированный в 2018 году патент, посвящённый определению «механизма квантовой оптимизации из нескольких состояний». Механизм оптимизации предназначен для того, чтобы помочь пользователям определить диапазон решений бизнес-проблемы. Путем запуска нескольких одновременных симуляций можно определить наилучший результат, что позволит принять наилучшее решение.

Постоянный URL: http://servernews.ru/990237
28.06.2019 [17:25], Сергей Юртайкин

Total внедрила самый мощный в мире симулятор квантового компьютера

Французская компания Total, которая недавно запустила в эксплуатацию самый мощный в отрасли суперкомпьютер, сообщила о внедрении ещё одной приметной технологии. Нефтегазовый гигант начинает использовать самый производительный в мире коммерческий симулятор квантового компьютера Atos Quantum Learning Machine, о котором говорилось в репортаже с SC18.

Это решение включает аппаратную платформу и универсальный язык программирования и позволяет исследователям и инженерам разрабатывать и проводить опыты с квантовым программным обеспечением.

Atos Quantum Learning Machine моделирует законы физики, лежащие в основе квантовых технологий, для вычисления точного исполнения квантовой программы с двухзначной точностью.

В случае с Total квантовое моделирование найдёт применение в таких областях, как молекулярная химия и химия материалов, оптимизация энергетических сетей, автопарки и промышленные приборы. В будущем симулятор квантового компьютера планируется использовать в гидромеханике и в сейсмических системах.

«Мы разработаем квантовый подход к различным темам исследований, охватывающим весь наш бизнес, чтобы найти новые пути решения проблем, а также повысить скорость и эффективность работы», — заявила директор по исследованиям и разработкам Total Мари-Ноэль Семерия (Marie-Noëlle Semeria).

Постоянный URL: http://servernews.ru/989928
10.06.2019 [20:00], Сергей Тверье

IonQ бросает вызов Google, IBM и Rigetti в квантовых системах

До сих пор основную шумиху вокруг квантовых вычислений создавали уже состоявшиеся акулы компьютерного бизнеса: производители серверов и микросхем, крупные поставщики облачных услуг. Их усилия в основном были сосредоточены на полупроводниковых и сверхпроводящих технологиях. И вот появился IonQ — стартап, использующий ионные ловушки в квантовых вычислениях. IonQ заявляет, что при таком подходе практически нет необходимости в исправлении квантовых ошибок и что запутывание большого числа кубитов намного проще, чем у конкурентов, а базовая технология является достаточного тривиальной, недорогой и компактной в реализации. И действительно, большая часть квантовой системы IonQ основана на давно известных технологиях, применяемых, например, в атомных часах.

Квантовый чип от IonQ с наложенным изображением ионов

Квантовый чип от IonQ с наложенным изображением ионов

Ловушки для ионов — относительно новая технология в мире квантовых компьютеров, хотя теоретические исследования начались почти четверть века назад. Даже Национальный научный фонд США создал проект по изучению данной технологии всего год назад. Основатель компании является одним из пионеров в области технологий с ловушками для ионов и соавтором известной статьи (2016 год) о данной технологии. На текущий момент сотрудники IonQ используют три 11-кубитные системы. Все кубиты полностью связаны, что позволяет создавать двухкубитовые затворы на любой из пар в составе системы. Правда, сама компания в прошлом году предпочла заявить о мировом рекорде, поставленном на такой сборке, посчитав однокубитовые затворы (79). Доступ к трём этим машинам по-прежнему ограничен и находится в стадии бета-тестирования, но публичный доступ через Интернет, возможно, появится в конце этого года. Инвесторами компании выступают New Enterprise Associates, GV (ранее Google Ventures) и Amazon AWS. 

IonQ хочет как можно скорее добиться коммерческого успеха, которого в квантовых вычислениях до сих пор не достигла ни одна из компаний, поскольку необходимое оборудование и экосистема у всех находятся в основном на стадии разработки. На этой неделе компания рассказала порталу HPCwire о технологиях и планах по развитию IonQ. Интересно, что большая часть разговора была направлена на то, чтобы доказать, что технология ловушек для ионов значительно отличается от подхода IBM, Google и Rigetti Computing — полупроводники + сверхпроводимость — и даже превосходит их. 

В камере сверхвысокого вакуума мы динамически разворачиваем и улавливаем атомные кубиты на кремниевом чипе, используя электромагнитные поля. Это позволяет нашим квантовым ядрам настраивать свою конфигурацию в программном обеспечении и масштабировать для обработки потенциально сотен кубитов без нового оборудования.

IonQ используют вакуумные камеры, где они динамически разворачивают и фиксируют атомные кубиты на кремниевом чипе, используя электромагнитное поле (Изображение: ionq.co)

Сегодня самая большая проблема с квантовыми компьютерами состоит в том, что они «шумят». Кубиты являются крайне чувствительными и неустойчивыми объектами, которые «разваливаются», когда им мешает практически что угодно (тепло, вибрация, рассеянное электромагнитное воздействие и т.д.). Построение систем для устранения возможных помех является важной задачей для систем на основе полупроводниковых сверхпроводящих кубитов. Эти системы требуют сложных подходов для исправления квантовых ошибок и до сих пор в значительной степени остаются достаточно непрактичными. Другая не менее сложная проблема — придумать, как контролируемо запутать большое количество кубитов. Не забывайте, что именно запутанность даёт квантовым вычислениям реальную силу. IonQ утверждает, что технология ловушек для ионов значительно лучше справляется с этими проблемами, чем сверхпроводящие подходы на основе полупроводников. 

IonQ вычисляются с использованием множества идентичных атомов иттербия. Как и в атомных часах иттербия, изоляция отдельных атомов уменьшает ошибку и улучшает стабильность.

Квантовая система IonQ использует множество идентичных ионов иттербия. Как и в атомных часах с иттербием, технология изоляции отдельных ионов уменьшает количество ошибок и улучшает стабильность (Изображение: ionq.co)

В ионных ловушках используются ионизированные молекулы с соответствующей валентной структурой в качестве регистров кубита. IonQ использует ионы Yb+ (иттербия). Ионы — идентичные и предсказуемые в своём поведении — удобны в использовании. Внешние электроны могут быть легко «накачаны» до более высокого энергетического уровня и оставаться в этом состоянии достаточно долго по меркам квантового мира. В зависимости от своего состояния молекула представляет собой ноль, единицу или нечто среднее. Подобные ионы легко генерировать, вставлять в ионную ловушку и удерживать их там в устойчивом состоянии. Взаимодействие с ними осуществляется с помощью внешних лазеров, которые переводят атомы в заданное состояние. В отличие от сверхпроводящих квантовых компьютеров на основе полупроводников, которые, помимо всего прочего, нуждаются к специальных системах охлаждения, системы с ионными ловушками дешевле, их легче создавать и эксплуатировать.

Точные лазеры хранят информацию о наших атомных кубитах, выполняют логические операции и соединяют их вместе в квантовом процессе, называемом запутанностью. Система IonQ без фиксированных проводов может соединять любые два кубита с помощью одной лазерной операции, что повышает точность.

Для считывания состояния кубитов используются точные лазеры, они также выполняют логические операции и соединяют ионы вместе в квантовом процессе, называемом запутанностью (Изображение: ionq.co)

Как утверждают в IonQ: «За цену одной только холодильной установки, даже если не учитывать детали, компоненты и всё остальное (что требуется для сверхпроводящего квантового компьютера), вы можете построить целую систему на основе ионных ловушек, обладающую гораздо большей мощностью и возможностями, при этом она также будет меньше по размеру, и вы сможете увеличивать количество кубитов, не меняя кардинально оборудование». С другой стороны, эксперты отмечают, что ионные ловушки необходимо контролировать с помощью сложной комбинации микроволновых и оптических устройств, что может быть проблематично, когда речь идет о серьёзном масштабировании квантовых компьютеров, использующих данную технологию. 

IonQ планирует удваивать количество своих кубитов примерно каждый год. Текущая архитектура поддерживает простое масштабирование до 32 кубитов, но в теории ёмкость одного модуля можно довести до 100-200 кубитов, а модули объединить оптическими трансиверами. Кроме того, компания активно занята созданием компилятора и оптимизатора для создания квантовых программ. Компания хочет в конечном итоге создать облачный сервис, где на повременной основе будет предоставляться доступ к их квантовым компьютерам. Также IonQ отмечает, что на текущий момент одной из важнейших проблем является отсутствие большого числа специалистов, способных создавать (или хотя бы портировать) программы, оптимизированные для работы на квантовых машинах. Для решения данной проблемы компания планирует предоставлять помощь своим клиентам в виде специализированной технической поддержки, которую назвали Q-tips.

View this post on Instagram

Экспериментальные квантовые чипы #Intel #tanglelake #quantumcomputing #SC18 #3dnewsru #3dnews

A post shared by 3DNews (@3dnews_live) on

Постоянный URL: http://servernews.ru/988832
Система Orphus