Материалы по тегу: ускорители

05.12.2018 [18:18], Геннадий Детинич

Western Digital представила процессор SweRV Core для ускорителей по обработке данных

В какой-то мере компания Western Digital выполнила своё прошлогоднее обещание — выпустить процессор, ориентированный на обработку данных во всём диапазоне: от периферийных устройств до ЦОД. Компания представила процессор SweRV Core на открытой архитектуре (системе команд) RISC-V с поддержкой когерентности кеша, тестовый пакет SweRV Instruction Set Simulator (ISS) для моделирования поведения работы процессоров и протокол OmniXtend для инкапсулирования команд и данных SweRV для передачи фактически по любому физическому уровню с поддержкой Ethernet (так сказать, открытый интерфейс). Всё это, повторим, использует открытые стандарты и, за исключением аппаратной части, уже доступно для загрузки на сервисах GitHub.

Поставки процессоров SweRV Core начнутся в первом квартале 2019 года. Решение будет выпускаться с использованием 28-нм техпроцесса. Кто выпускает, пока неизвестно. Кстати, неизвестно также, кто разработал SweRV Core. Год назад была информация, что в разработке RISC-V-процессоров компании Western Digital помогает компания Esperanto Technologies Дэвида (Дейва) Дитцеля. Сегодня же, когда Western Digital сообщила о спецификациях SweRV Core, разработка стала напоминать модификацию платформы SiFive Freedom E300, которую та готова была подгонять под любые капризы клиента.

Итак, SweRV Core — это 32-разрядный двухконвейерный суперскалярный процессор с упорядоченным исполнением команд. Каждый конвейер имеет 9 уровней, что позволяет загружать и исполнять несколько команд одновременно. Частота решения — до 1,8 ГГц. В бенчмарке CoreMark условное сравнение процессора WD SweRV Core с актуальными архитектурами и решениями (не опирающееся на реальное тестирование) показало, что процессор может набирать значение 4,9 CoreMark/МГц — сравнимо с решениями на архитектурах MIPS и ARM или даже лучше них.

В своих продуктах Western Digital будет использовать SweRV Core для встраиваемых решений, включая контроллеры для флеш-памяти и SSD, а сообществу разработчиков предлагает задействовать SweRV Core для разного рода устройств с прицелом на обработку больших и быстрых данных, данных IoT, для платформ по защите данных, управления в промышленности и в других областях. По мнению Western Digital, процессоры SweRV Core с открытой системой команд и открытыми протоколами идеально подходят для создания специализированных ускорителей для обработки данных с поддержкой когерентности кеша.

Постоянный URL: http://servernews.ru/979190
06.11.2018 [14:10], Геннадий Детинич

Архитектура RISC-V компании Esperanto нашла поддержку у инвесторов

Стартап Дэйва Дитцеля (Dave Ditzel), компания Esperanto Technologies завершила второй раунд сбора инвестиций. Неназванные инвесторы и потенциальные стратегические партнёры Esperanto Technologies вложили в компанию дополнительно $58 млн, увеличив объём инвестиций в неё до $63 млн. Это впечатляющие средства для проекта, о котором пока известно очень мало. Дэйв Дитцель не отрицает, что его новая компания в основном всё ещё находится в режиме «стэлс». Но инвесторы и партнёры в курсе планов Esperanto, поскольку для всех них проводились закрытые презентации.

Дэйв Дитцель на конференции RISC-V Workshop 2017

Дэйв Дитцель на конференции RISC-V Workshop 2017

Авторитет Дитцеля и принадлежащий ему на пару с Дэвидом Паттерсоном (David Patterson) портфель ключевых патентов на архитектуру RISC заставляют верить в успех нового мероприятия. Предыдущий проект Дитцеля — компания Transmeta и разработка центрального процессора с трансляцией x86-совместимых команд — потерпел неудачу. Но сегодня совершенно другая ситуация, и будущий процессор или ускоритель Esperanto Technologies вовсе не обязан и не будет подстраиваться под x86-совместимый код, а значит, Дитцель и его команда могут создать решение, которое окажется ко двору и к месту.

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Напомним, команда Дитцеля, состоящая из сотни с лишним отборных специалистов (куда всё ещё уходят профи из лучших мировых проектов), создаёт ускоритель для искусственного интеллекта и машинного обучения на основе открытого набора команд архитектуры RISC-V. Также решение будет соответствовать требованиям открытой вычислительной платформы (Open Compute Platform, OCP), поддерживать фреймворк Pytorch ML, компилятор Glow ML и Open Neural Network Exchange (ONNX). Первый чип Esperanto должен быть выпущен с использованием 7-нм техпроцесса с более чем тысячью ядер на борту. Только что завершённый успешный сбор второго раунда инвестиций обещает, что чип Esperanto будет выпущен в утверждённые сроки или даже раньше.

Кстати, один из инвесторов Esperanto раскрыл себя ещё в прошлом году. Это компания Western Digital. С помощью разработок Esperanto Technologies производитель жёстких дисков и SSD намерен интегрировать структуры по первичной обработке данных в контроллеры для накопителей. Это породит совершенно новую парадигму в сфере хранения данных, что, впрочем, ложится в общую тенденцию распределённых вычислений.

Постоянный URL: http://servernews.ru/977788
03.11.2018 [15:05], Геннадий Детинич

Microsoft собирается отдать предпочтение FPGA компании Xilinx, а не Intel/Altera

По данным информагентства Bloomberg, которое ссылается на анонимные, но хорошо осведомлённые источники, компания Microsoft собирается заменить поставщика программируемых матриц для серверов Azure. До сих пор в серверы Microsoft в качестве ускорителей устанавливались матрицы компании Altera, которую несколько лет назад поглотила компания Intel. Всего в серверах Microsoft трудится такое количество ПЛИС Intel/Altera, что их суммарная производительность давно превысила пресловутый эксафлопс. Но на этом сотрудничество между Microsoft и Intel рискует либо сократиться, либо вообще закончиться. Если верить источникам, Microsoft собирается перейти на конкурирующие матрицы компании Xilinx.

Причиной для отказа работы с Intel может быть то, что матрицы Altera начинают испытывать трудности с технологическими процессами производства микропроцессорного гиганта. Вернее, они застряли на уровне 14-нм техпроцесса, тогда как матрицы Xilinx начинают покорять 7-нм техпроцессы TSMC. Поглотив Altera, компания Intel оказала ей медвежью услугу, ведь до этого Altera могла выбирать контрактного производителя по своему разумению.

AMD и Xilinx работают над общей вычислительной платформой в пику Intel/Altera

AMD и Xilinx работают над общей вычислительной платформой в пику Intel/Altera

Впрочем, пока, если верить слухам, Microsoft собирается использовать матрицы Xilinx примерно в половине серверов для сервисов Azure. Дальнейшее сотрудничество с Xilinx будет зависеть от того, как ПЛИС компании проявят себя на практике, а проявить они себя должны хорошо. Южнокорейская SK Telecom, например, использует огромные массивы ПЛИС Xilinx для распознавания речи в пакете услуг для голосовых ассистентов.

Следует отметить, что компании Microsoft и Xilinx отказались комментировать слухи о реализации совместных проектов. В Microsoft сказали, что продолжат работать с Intel, а компания Xilinx отметила, что в прошлом она не раз предлагала Microsoft фирменные решения для установки в серверы Azure.

Xilinx Adaptive Computer Accelerator Platform

Xilinx Adaptive Computer Accelerator Platform

Устанавливать ПЛИС в состав серверов компания Microsoft начала в 2010 году в рамках реализации программы «Catapult». Пилотный проект начал работать в 2012 году и был поставлен на коммерческие рельсы в 2015 году одновременно с массивным расширением платформы. Сегодня массив ПЛИС в серверах Microsoft стал самым огромным в мире. Компании Intel было бы плохо потерять этот канал поставок.

При этом также надо понимать, что интеграция ПЛИС в проекты подобные Microsoft Azure во многом зависит от программных инструментов для сборки матриц в рабочие решения. Компания Intel за прошедшие годы подтвердила достаточный или хороший уровень работы фирменных компиляторов с FPGA Altera. Компания Xilinx в последнее время также усилила работу в направлении разработки утилит, облегчающих использование FPGA для тех, кто никогда с ними не сталкивался. В то же время от традиционной низкоуровневой разработки компания не отказывается. Возможно, Microsoft посчитала, что высокоуровневые средства разработки Xilinix лучше таковых у Intel. Что, в свою очередь, повышает привлекательность этих решений для клиентов Azure.

Постоянный URL: http://servernews.ru/977715
10.10.2018 [13:39], Геннадий Детинич

Huawei представила ИИ-процессоры для ЦОД и мобильного назначения

На мероприятии в Китае компания Huawei представила ИИ-процессоры собственной разработки. Ранее Huawei отметилась специализированными ускорителями ИИ и машинного обучения Kirin 980, которые, в частности, нашли применение в смартфоне Mate 20. Теперь же компания представила как решения для ЦОД — чип Ascend 910, так и решение для конечных (мобильных) устройств — Ascend 310. Тем самым вырисовывается целая экосистема, которую Huawei будет развивать самостоятельно и предложит независимым разработчикам.

В производительном сегменте компания будет продвигать процессоры Ascend 910. Это решения для ЦОД (и облаков). В настоящий момент, как заявляют в Huawei, чип Ascend 910 является самым производительным ИИ-процессором в мире. Так, пиковая производительность Ascend 910 в задачах машинного обучения достигает 256 терафлопс для вычислений с двойной точностью. Одно из самых мощный на данный момент актуальных решений в виде ускорителя на базе GPU NVIDUA V100 в аналогичных сценариях обеспечивает лишь 125 терафлопс при сравнительном потреблении. Отметим, чип Huawei 910 производится с использованием 7-нм техпроцесса и потребляет в пике до 350 Вт. Массовое производство новинок намечено на второй квартал будущего года.

Добавим, будущий ускоритель тензорных вычислений Google TPU 3.0 также оказался посрамлён в сценариях использования Huawei 910. Ещё не вышедший на оперативный простор Google TPU 3.0 выдаёт всего 90 терафлопс — едва ли не в три раза меньше, чем Ascend 910.

Для мобильных и малопотребляющих устройств Huawei представила ИИ-чип Ascend 310. При потреблении 8 Вт решение выдаёт 8 терафлопс при вычислениях с половинной точностью. На базе Ascend 310 будет выпускаться широкий спектр устройств от мини-серверов с потреблением до 100 Вт до ИИ-помощников в наушниках с потреблением от 1 мВт. Компания Google для конечных устройств готовит своё решение в виде чипа Edge TPU. Сравнить производительность решений Huawei и Google пока не представляется возможным.

Чипы Huawei Ascend 310 выпускаются с использованием техпроцесса 12 нм FFC. Это уникальная разработка Huawei, которая не потребует лицензирования для сторонних разработчиков. Блоки ИИ на базе Ascend 310 обещают массово появиться в смартфонах, умной электронике и в самоуправляемых автомобилях.

Постоянный URL: http://servernews.ru/976617
06.10.2018 [11:40], Геннадий Детинич

За компьютерную безопасность в чипах BrainChip будут отвечать технологии из Греции

Компания BrainChip, которая недавно отметилась разработкой нейроморфной SoC Akida для ускорения работы спайковых нейросетей, сообщила о приобретении лицензии на технологию, отвечающую за компьютерную безопасность. Лицензия предоставлена греческим Университетом Демокрита во Фракии (Democritus University of Thrace). Сумма сделки не раскрывается. По словам руководства BrainChip, сделка растянута на несколько кварталов и будет почти незаметна на фоне других затрат компании.

Учёные из Университета Демокрита специализируются на компьютерной безопасности на основе анализа данных с помощью спайковых сетей. Разработанная в университете под руководством профессора Лазароса Илиадиса (Lazaros Iliadis) технология позволяет определять вредоносное вмешательство в сетевой трафик с помощью преобразования данных в спайки и дальнейшего анализа спайков с помощью спайковых нейронных сетей. Поскольку компания BrainChip создаёт ускоритель Akida для ускорения расчётов в спайковых сетях, греческие технологии представляются идеальным решением для реализации на платформе BrainChip.

Первые коммерческие ускорители BrainChip ожидаются во второй половине 2019 года. Они обещают покрыть широкий спектр продуктов и устройств от простейших одночиповых решений стоимостью от $10 до $15 до многочиповых серверных PCIe-адаптеров с десятками NSoC на одной плате ускорителя.

Постоянный URL: http://servernews.ru/976430
04.10.2018 [13:02], Геннадий Детинич

Xilinx анонсировала гибридные FPGA/SoC-ускорители для любых задач

Представленная в марте работа компании Xilinx над проектом Everest вылилась на днях в анонс новой архитектуры Versal и продуктов на её основе. Разработка решений ведётся в рамках развития новой гетерогенной платформы компании для ускорителей с поддержкой адаптивных вычислений или ACAP (Adaptive Computer Accelerator Platform). В новых ПЛИС программируемым вентилям отводится всё меньше места, тогда как ядрам ARM, DSP и ИИ-ускорителям на кристаллах выделяются всё возрастающие площади. Это уже не просто FPGA, это фактически однокристальные сборки или SoC с элементами FPGA.

Xilinx

Xilinx

Решения поколения Versal разделены в шесть продуктовых серий или семейств, каждое из которых ориентировано на свою сферу применения. Первыми в 2019 году выйдут 7-нм продукты семейств AI Core и Prime. Продукты AI Core будут использоваться в системах машинного обучения с функцией принятия решений. Продукты Prime займут нишу ускорителей расчётов в центрах по обработке данных. В последующие годы появятся серии AI Edge, AI RF, Premium и HBM, с позиционированием которых можно ознакомится по таблице ниже.

Xilinx

Xilinx

По большому счёту, новые решения Xilinx должны и будут конкурировать с гибридными решениями Intel в виде ускорителей на FPGA-матрицах бывшей компании Altera. Разница только в том, что в паре с FPGA Altera компания Intel продвигает процессоры Xeon, а Xilinx — ядра ARM. Другие составные части платформ обеих компаний — это специализированные ИИ-движки, в чём они примерно равны (у Intel — это решения Mobileye, у Xilinx — свой движок, о котором ниже). Тем самым отличия будут лежать в обслуживающих ядрах, где у ARM в заявленной нише ускорителей есть определённое преимущество. Но это не мешает Xilinx открыто противопоставлять Versal как x86-совместимым процессорам, так и актуальным графическим процессорам.

По словам Xilinx, продукты Versal в области распознавания изображений в 43 раза превосходят процессоры Intel Xeon Platinum и от двух до восьми раз опережают ускоритель NVIDIA Tesla V100, а также в пять раз производительнее ускорителя на обычной FPGA. Более того, в задачах финансового анализа, секвенции генома и в поддержке Elasticsearch продукты Versal опережают процессоры в 89, 90 и в 91 раз.

Xilinx

Xilinx

Чуть подробнее о продуктах семейства AI Core. Помимо двух ядер ARM Cortex-A72 и двух ядер ARM Cortex-R5 они будут нести 256 Кбайт встроенной памяти и свыше 1900 DSP для обслуживания вычислений с плавающей запятой. Абсолютным новшеством станет интеграция в решения новых векторных ускорителей или AI Engines. Таковых будет в чипе от 128 штук до 400 штук и все они будут связаны внутричиповой сетью network-on-chip (NoC) с пропускной способностью в несколько терабит в секунду. Внешние интерфейсы решения будут представлены PCIe Gen4 x8 и x16, CCIX, 32G SerDes и от двух до четырёх встроенных контроллеров памяти DDR4. Флагман семейства AI Core обеспечит производительность в 147 TOPs на нагрузке INT8. Для сравнения, NVIDIA Tesla T4 обеспечивает 130 INT8 TOPs.

Продукты Versal Prime будут лишены ИИ-движков и нацелены на нагрузку общего назначения, такую как обработка изображений медицинского назначения, обслуживание сетей и систем хранения данных, систем управления в авиации и тестовое коммуникационное оборудование. Вместо ИИ-ускорителей Versal Prime получат 3080 DSP и несколько большее число программируемых вентилей.

Xilinx

Xilinx

Ещё одной отличительной особенностью поддержки новых ПЛИС станет ориентация на языки программирования верхних уровней — C, C++ и Python. По мнению Xilinx, это упростит работу с новой платформой.

Постоянный URL: http://servernews.ru/976339
29.09.2018 [14:45], Геннадий Детинич

Представлена нейроморфная SoC Akida компании BrainChip

Много мозгов хороших и разных. Новизна рынка ИИ и машинного обучения стала благоприятной почвой для появления массы стартапов и, что самое ценное, интересных решений. Одной из таких новинок обещает стать разработка австралийской компании BrainChip. Собственно, компания BrainChip впервые заявила о себе примерно год назад, но определённую информацию о нейроморфном однокристальном решении Akida компания открыто начала распространять лишь в этом месяце.

BrainChip

BrainChip

Вкратце уточним, что компания BrainChip была образована в 2013 году. Выше на диаграмме можно увидеть процессы, которые привели к созданию BrainChip и продуктов компании — программно-аппаратных ускорителей для работы со спайковыми нейронными сетями. Спайковые нейронные сети впервые были описаны около 20 лет назад, но практическая эксплуатация разработок началась сравнительно недавно, и BrainChip стала одной из первых, кто это сделал и делает.

BrainChip

BrainChip

В настоящий момент ускоритель BrainChip опирается на реализацию проекта на базе ПЛИС компании Xilinx семейства Kintex. Первые решения на базе однокристальных SoC или NSoC Akida (нейроморфных SoC) обещают выйти в виде образцов только через год — в третьем квартале 2019 года. Пока разработчик даже не сделал выбор в пользу 28-нм или 14-нм техпроцесса.

BrainChip

BrainChip

Поскольку NSoC Akida реализует спайковую нейронную сеть (SNN, Akida — это спайк по-гречески), чип содержит блок преобразования сигналов от датчиков и внешних компьютерных интерфейсов (USB, PCIe, Ethernet и прочего) в массив спайков (пиков), которые затем в виде паттернов размещаются в массиве нейронов на чипе. Сборка содержит 1,2 млн аналогов нейронов и 10 млрд аналогов синапсов. Сеть SNN с обратной положительной обратной связью. Полученные в процессе управляемого или неуправляемого обучения сигнатуры дальше используются для распознавания образов от фрагментов зловредного кода до изображений в системах видеонаблюдения.

BrainChip

BrainChip

На модели CIFAR-10 NSoC Akida распознаёт изображения со скоростью 1100 кадров в секунду с точностью 82 %. При этом решение потребляет менее 1 Вт. Тем самым компания планирует охватить как рынок периферийных устройств с одиночными чипами, так и рынок высокопроизводительных серверных платформ с массивами многочиповых адаптеров.

Постоянный URL: http://servernews.ru/976130
26.09.2018 [12:14], Геннадий Детинич

Intel представила PCIe-ускорители на матрицах Stratix 10 SX

Компания Intel расширила предложение с продуктами ПЛИС для ускорения расчётов на платформах Xeon. На базе анонсированных год назад 14-нм матриц FPGA Stratix 10 SX бывшей компании Altera производитель процессоров анонсировал ускоритель в формфакторе add-on карты с интерфейсом PCI Express 3.0 x16. Новинка вышла в новой категории продуктов PAC или Programmable Acceleration Card (карты программируемого ускорителя).

PAC Stratix 10 SX

PAC Stratix 10 SX

Ранее в данной категории Intel выпускала адаптеры на ПЛИС Arria 10. Но если PAC Arria 10 FPGA были ориентированы на ускорение баз данных и обработку изображений, то PAC Stratix 10 SX — это продукты для обработки «тяжёлых» процессов непосредственно в памяти. Например, задач для ИИ. Для этого на борту PAC Stratix 10 SX предусмотрено четыре слота для памяти DDR4 с поддержкой ECC. Общее адресуемое пространство составляет 32 Гбайт. Непосредственно в матрицу встроены 4 ядра ARM и 2,7 млн программируемых вентилей. Тем самым решение может перепрограммироваться на необходимую нагрузку, поддерживаемую многочисленными IP-разработками партнёров Intel.

PAC Stratix 10 SX

PAC Stratix 10 SX

В целом Intel реализует поддержку PAC Stratix 10 SX так называемым стеком для ускорителей на платформах Xeon (Acceleration Stack for Intel Xeon CPU). Помимо самих ускорителей в виде адаптеров PAC или в другом виде, например, с матрицами, интегрированными непосредственно на flip-chip подложку процессора, в стек входят наборы инструментов, библиотеки и прочие решения, которые помогают создавать и управлять процессами на платформах Xeon с использованием ускорителей на ПЛИС Intel.

Acceleration Stack for Intel Xeon CPU

Acceleration Stack for Intel Xeon CPU

Первой компанией, которая начнёт поставлять на рынок платформы с ускорителями PAC Stratix 10 SX, станет Hewlett Packard Enterprise. По словам представителя HPE, вне зависимости от квалификации разработчиков новые решения обеспечат обязательный эффект от ускорения рабочих нагрузок на широком спектре задач и позволят клиентам компании легче управляться с новыми сложными нагрузками, возникающими в современных центрах по обработке данных.

Анатомия  PAC Stratix 10 SX

Анатомия PAC Stratix 10 SX

Постоянный URL: http://servernews.ru/975960
04.07.2018 [12:38], Геннадий Детинич

Baidu представила фирменные ИИ-ускорители Kunlun

Как и все остальные лидеры рынка информационных технологий, китайский ИТ-гигант Baidu несколько лет назад плотно взялся за разработку платформ с элементами искусственного интеллекта. Для Baidu, как для поискового сервиса, это более чем актуальный вопрос. Успешность в распознавании речи, изображений и смысла задаваемых вопросов — это фактор выживания для коллег и конкурентов Baidu. Последняя начала разработку ИИ-платформ на базе матриц FPGA в 2011 году и к сегодняшнему дню подготовила готовое к массовому внедрению фирменное решение — 14-нм ИИ-ускорители Kunlun (Куньлунь, одна из крупнейших горных систем Азиатского материка).

Baidu

Baidu

Компания сообщает, что подготовлено две версии ускорителя: 818-300 для систем машинного обучения и 818-100 для систем с принятием решений (inference). Тем самым Baidu позволит реализовать платформу как в виде облачных (удалённых) сервисов, так и в конечных устройствах, включая инфраструктуру ЦОД, автомобили с автопилотами и другое.

Для машинного обучения Baidu планирует использовать фреймворк PaddlePaddle (PArallel Distributed Deep LEarning). Она давно положила на него глаз и обеспечила поддержку кодом и инструментами. По мнению Baidu, PaddlePaddle проще для освоения новичками и легко управляется с помощью кода на Python или C++. Тем самым программы для PaddlePaddle могут быть до четырёх раз компактнее, чем в случае аналогичных фреймворков Google (TensorFlow), Amazon (DSSTN) или Microsoft (CNTK).

Производством ускорителей Baidu Kunlun занимается компания Samsung с использованием 14-нм техпроцесса. Реализованный в кремнии ускоритель в 30 раз быстрее аналога на базе FPGA-матрицы. Производительность решения достигает 260 TOPS при потреблении 100 Вт. Интерфейс с памятью обеспечивает скорость обмена до 512 Гбайт/с. К сожалению, других подробностей о разработке нет.

Постоянный URL: http://servernews.ru/972151
11.12.2017 [21:30], Алексей Степин

OpenCAPI набирает силу: кто поддерживает новинку сегодня?

На прошлой неделе к консорциуму OpenCAPI присоединился ещё один игрок — компания Cavium, которая занимается разработкой серверных ARM-процессоров. Решениями компании заинтересовался производитель суперкомпьютеров Atos, а недавно Аргоннская национальная лаборатория изъявила желание развернуть кластер из серверов на базе этих процессоров. Всё вместе это закладывает основу для создания полноценной альтернативы x86-платформе и нынешнему лидеру списка TOP500, которая будет включать и CPU различных архитектур, и универсальную открытую шину. 

Очевидно, что шина PCI Express в текущем виде неспособна обеспечить уровень производительности, необходимый для подключения между собой процессоров и различных ускорителей. Текущая версия далека от идеала, а недавно представленный стандарт PCI-E 4.0 пока что весьма далёк от внедрения. Собственно говоря, пока что его поддерживают только процессоры IBM POWER9. Но они же предлагают и другой, более совершенный, по мнению создателей, стандарт OpenCAPI, или просто CAPI (Coherent Accelerator Processor Interface). Текущая третья версия совместима с NVLink 2.0, а ведь самые быстрые ускорители NVIDIA используют именно эту шину. Нельзя сказать, что стандарт развивался быстро, но в 2017 году он уже имеет весьма солидную армию последователей.


Ускоритель Alpha Data подключён к процессорному разъёму POWER9 посредством кабеля OpenCAPI

Целый ряд имён имеет свои решения для новой платформы. Mellanox располагает «умными» сетевыми адаптерами Innova-2 с поддержкой OpenCAPI, Molex Electronic Solutions демонстрировала на SC 17 прототип флеш-хранилища с пропускной способностью порядка 200 Гбайт/с. Alpha Data уже предлагает свои платы ускорителей на базе ПЛИС Xilinx UltraScale+, подключаемые непосредственно к процессору POWER9 специальным кабелем. О самой Xilinx нечего и говорить — один из крупнейших разработчиков ПЛИС предлагает целый спектр платформ разработчика OpenCAPI. Скоростная шина требует специальных кабелей, и они есть у Amphenol Corporation.

Прототип Zaius/Barreleye G2

Прототип Zaius/Barreleye G2

Такой гигант в мире накопителей как Western Digital внимательно следит за развитием OpenCAPI и занимается исследованиями в этой области, тестируя прототипы CAPI-памяти и ускорителей. Micron возлагает на OpenCAPI огромные надежды в области создания новой технологии энергонезависимой памяти. Компания Rackspace работает совместно с Google над созданием двухсокетных серверов Zaius/Barreleye G2 на базе POWER9. А где POWER9, там и OpenCAPI, а где Google — там и ускорители различного рода. Tektronix предлагает решения, способные полноценно тестировать решения OpenCAPI, работающие на скоростях 25 Гбит/с и выше. Полноценная отладка поддерживается для скорости 32 Гбит/с.

Сила OpenCAPI в его универсальности и единообразии

Сила OpenCAPI в его универсальности и единообразии

Toshiba также заинтересована в новом стандарте. Она уже работает над созданием собственного кремния, использующего OpenCAPI. По словам представителей компании, решения Toshiba вскоре смогут помочь быстро развернуть инфраструктуру на базе CAPI любому желающему и для любого рода задач. Компания Wistron успешно продемонстрировала на том же мероприятии SC 17 дизайны систем на базе процессоров IBM POWER9. Представитель компании считает OpenCAPI действительно универсальным стандартом, отвечающим задачам, которые будут поставлены перед ИТ-инфраструктурой грядущим десятилетием. Inventec также представила своё видение POWER9, но она концентрирует усилия в направлении внедрения нового стандарта питания с напряжением 48 вольт.

Иными словами, список компаний, интересующихся OpenCAPI, вызывает уважение, начиная с самого «голубого гиганта» и NVIDIA. Можно считать, что поезд тронулся, и в мире появилась серьёзная многопроцессорная, многопоточная и универсальная платформа, способная справиться с любым спектром задач.

Постоянный URL: http://servernews.ru/962736
Система Orphus