Материалы по тегу: mellanox

30.01.2019 [23:59], Геннадий Детинич

Неофициально: Intel готова отдать за израильскую Mellanox $6 млрд

Как сообщает израильское подразделение агентства Reuters, компания Intel предложила за акции компании Mellanox $6 млрд. По состоянию на конец среды, это предложение включает премию в размере 35 % к стоимости акций израильского разработчика.

Компания Mellanox разрабатывает платформы и активное сетевое оборудование InfiniBand и Ethernet. Это направление активно поддерживается созданием удалённых и облачных сервисов во всём мире. Mellanox успешна и прилично, по её меркам, зарабатывает на жизнь. Например, в третьем квартале 2018 календарного года Mellanox получила рекордную выручку в объёме $279,2 млн, что на 24 % больше, чем в третьем квартале 2017 года. При этом чистая квартальная прибыль Mellanox за год выросла с $3 млн до $37 млн.

Но на рынке также усиливается тенденция к консолидации. К тому же, если брать в расчёт возможное предложение Intel о покупке Mellanox, микропроцессорный гигант активно развивает серверное направление, ведь мир начинает крутиться вокруг данных. Наконец, если западные партнёры всерьёз намерены подвинуть с мирового рынка активного сетевого оборудования компанию Huawei, то в образовавшуюся брешь можно протолкнуть определённую долю продукции Mellanox.

О продаже Mellanox в руки Intel или Broadcom начали говорить в октябре прошлого года. Компания Intel якобы наняла финансовых консультантов для оценки возможности поглотить Mellanox. В ноябре покупкой Mellanox якобы заинтересовалась компания Xilinx и тоже наняла для анализа сделки финансовых специалистов (банка Barclays). В декабре к процессу «покупки» Mellanox присоединилась компания Microsoft. Ей в этом начали помогать консультанты Goldman Sachs. Что же, вокруг компании поднят достаточный информационный шум, чтобы кто-то из перечисленных выше фигурантов не поскупился на хорошую премию к рыночной стоимости акций Mellanox.

Постоянный URL: http://servernews.ru/982010
21.12.2018 [12:30], Геннадий Детинич

Microsoft изучает вопрос покупки компании Mellanox: всё в дом

К известному производителю активного сетевого оборудования InfiniBand и Ethernet, компании Mellanox, обозначился устойчивый интерес в плане полного поглощения активов. Эту идею год назад начал претворять в жизнь один из крупнейших инвесторов Mellanox фонд Starboard Value LP. В 2017 году фонд приобрёл 10,7 % акций Mellanox и начал создавать фон для подготовки компании к продаже.

Помимо обычной спекуляции на рынке ценных бумаг продажа Mellanox отвечает складывающимся рыночным тенденциям. Это консолидация активов на рынке серверного оборудования. Данные тенденции отвечают «дата-центрическим» процессам в индустрии, и потенциальное поглощение Mellanox вполне ложится в русло процессов.

Ещё в октябре компания Mellanox якобы призвала в помощь финансовых специалистов для оценки предложений о поглощении компаниями Intel и Broadcom. В ноябре появился слух, что компанию Mellanox может поглотить крупнейший производитель ПЛИС компания Xilinx. По данным CNBC, компания Xilinx наняла специалистов банка Barclays для ведения переговоров о покупке активов Mellanox.

На днях с подачи израильского издания TheMarker стало известно, что в поглощении Mellanox заинтересовалась компания Microsoft. Последняя якобы тоже привлекла финансовых специалистов для проведения переговоров с целью поглощения Mellanox. На Microsoft, если верить неофициальным данным, работает команда банка Goldman Sachs. Компания Microsoft для собственных нужд создаёт ЦОД и нуждается в соответствующей инфраструктуре. Активы Mellanox хорошо вписываются в эти потребности.

Консолидация консолидацией, но за последний год Mellanox показала рост финансовых показателей, что будет не последней вишенкой на торте из активов компании. В третьем квартале 2018 календарного года Mellanox добилась рекордной для себя выручки в объёме $279,2 млн и, тем самым, показала годовой рост на 24 %. Чистая квартальная прибыль компании также существенно выросла с $3 млн в третьем квартале 2017 года до $37 млн в третьем квартале 2018 года.

Во сколько может обойтись покупка Mellanox потенциальному покупателю? Из утечек следует, что компания Xilinx предлагала $100 за каждую акцию Mellanox, что вело к сумме на уровне $5 млрд за все активы компании. С учётом повышенного спроса на Mellanox сумма сделки может оказаться выше.

Постоянный URL: http://servernews.ru/980002
09.11.2018 [13:50], Геннадий Детинич

Xilinx ведёт переговоры о поглощении компании Mellanox

Как сообщает телеканал CNBC со ссылкой на анонимные источники, американский разработчик ПЛИС, компания Xilinx находится в состоянии переговоров о поглощении Mellanox.

Компания Mellanox является производителем сетевого оборудования, включая коммутаторы и адаптеры InfiniBand и Ethernet, и представляется лакомой добычей не только для Xilinx, но также для других тяжеловесов из мира процессоров и ускорителей расчётов. Например, если верить слухам, о покупке Mellanox задумались также компании Intel и Broadcom. Её бы даже скорее купила компания Huawei, но кто же позволит?

Для содействия в переговорах о поглощении Mellanox компания Xilinx якобы наняла команду специалистов из банка Barclays. Впрочем, переговоры могут ничем не закончиться. Стороны пока не пришли к какому-либо согласию. Если сделка всё же будет заключена, то сообщат о ней не раньше декабря. Отметим, капитализация Mellanox сегодня составляет около $5 млрд, так что покупка $22-млрд Xilinx обойдётся в сумму не меньше $6–7 млрд.

Отчасти предполагаемую сделку можно объяснить процессами консолидации на рынке полупроводников. Степень интеграции продуктов растёт, и разработчики вынуждены включать в состав многочиповых (многокристальных) решений элементы партнёров и даже конкурентов (вспомним процессор Intel с GPU AMD и памятью HBM). Безусловно, лучше до такого не доводить, и поглощение партнёра или конкурента представляется взвешенным подходом.

Но в целом, как нам представляется, интерес Xilinx к компании Mellanox и её разработкам и продукции объясняется сменой парадигмы для ПЛИС-ориентированных проектов. От темы ускорения отдельных задач и приложений матрицы FPGA переходят к «дата-центрическим» решениям. Они по-прежнему не готовы решать задачи общего назначения (во всяком случае, с одинаковой с x86-процессорами эффективностью). Но новые сферы — это ИИ и машинное обучение — ПЛИС-ориентированные платформы щёлкают как орешки и делают это намного лучше, чем классические вычислительные платформы. На этом поле союз Xilinx и Mellanox сможет сделать очень много полезного.

Постоянный URL: http://servernews.ru/977943
16.11.2017 [19:00], Алексей Степин

77 % новых кластерных систем и суперкомпьютеров используют InfiniBand

Как мы уже неоднократно отмечали, одной из важнейших частей любого суперкомпьютера или кластера является система межузловых соединений. Именно от неё зависит то, насколько эффективно будут распараллеливаться ресурсы, ведь медленная сеть легко может свести на нет все преимущества самых мощных процессоров и ускорителей. Сегодня Ethernet претендует на эту роль весьма активно благодаря развитию новых стандартов и достижению скоростей уровня 200 Гбит/с. Но другая технология, исторически раньше укоренившаяся в суперкомпьютерной отрасли, InfiniBand, похоже, не собирается сдавать позиции.

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Mellanox Innova-2: новейшее достижение компании в области Ethernet

Говорим InfiniBand, подразумеваем Mellanox. Именно эта компания является самым активным разработчиком соответствующих устройств на рынке InfiniBand. Такое название, как ConnectX, знакомо любому, кто когда-либо интересовался тематикой высокоскоростных межсерверных соединений. Компания опубликовала последнюю статистику, согласно которой, 77 % всех суперкомпьютеров, вошедших в список TOP500 последними, в период с июня по ноябрь текущего года, используют именно InfiniBand. Таких систем в шесть раз больше, нежели применяющих сети собственной разработки и в 15 раз больше, нежели платформ, объединённых стандартом Ethernet.

А вот новейшие модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

А вот последние модели адаптеров InfiniBand используют уже новый чипсет ConnectX-6

Всего на долю InfiniBand приходится 60 % всех систем в списке, из этих 60 % две системы входят в пятёрку наиболее производительных суперкомпьютеров в мире. Как считают представители Mellanox, это закономерно, поскольку InfiniBand обладает рядом преимуществ перед Ethernet. Как минимум, данный протокол с самого начала разрабатывался, как предназначенный именно для использования в системах класса HPC, поэтому его создатели сконцентрировались на достижении не только высокой пропускной способности, но и минимизации задержек. Впрочем, Mellanox не отказывается от Ethernet. Напротив, на выставке-конференции SC17 она представила ряд интересных решений, включая новейшие «умные» ускорители на базе связки чипов ConnectX-5 и Xilinx Kintex UltraScale.

Постоянный URL: http://servernews.ru/961639
14.11.2017 [22:47], Алексей Степин

SC17: новинки Mellanox

Компания Mellanox — один из признанных лидеров рынка высокоскоростных сетевых решений. В своё время при упоминании технологии InfiniBand первое имя, которое с ней ассоциировалось, — именно Mellanox. Сейчас InfiniBand по-прежнему используется, но, скорее, является нишевой технологией на фоне повсеместного проникновения Ethernet. Mellanox, однако, уже давно работает и с гибридными решениями типа InfiniBand over IP, а также создает сетевые процессоры, изначально ориентированные на работу с Ethernet. Конференция SC17 посвящена суперкомпьютерам и кластерным системам, а сетевые соединения являются очень важной их частью, поэтому неудивительно, что Mellanox демонстрирует свои новые решения, в частности, серию сетевых адаптеров Innova-2 на базе ПЛИС (FPGA) и платформу для построения мощных коммутаторов класса 200G.

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Размер ПЛИС на борту Innova-2 внушает уважение, как и её характеристики

Серия Innova-2 отличается большой гибкостью благодаря использованию ПЛИС Xilinx Kintex UltraScale. По сути, это не сетевой адаптер, а «заготовка», которая может быть прошита по желанию клиента на выполнение любых требуемых им операций, например, в области криптографии. Сердцем новой серии выступает чип ConnectX-5, а ПЛИС, как уже понятно из описания, работает в роли программируемого ускорителя. По оценкам разработчиков, Innova-2 в шесть раз производительнее аналогичных по возможностям решений других компаний, и при этом стоимость владения соответствующей инфраструктуры ниже в 10 раз. Поддерживают эти сетевые ускорители как Ethernet (вплоть до 100 Гбит/с), так и InfiniBand. Чтобы системная шина не стала узким местом, внедрена поддержка интерфейсов PCI Express 4.0 и OpenCAPI, хотя, разумеется, для раскрытия их потенциала потребуются соответствующие системные платы. Форм-фактор сервера не столь важен — при габаритах HHHL (половинная длина, половинная высота) двухпортовый адаптер Innova-2 без проблем установится практически в любой корпус.

Сетевой адаптер — это одна из конечных точек инфраструктуры. На другой неизбежно находится коммутатор, от которого во многом зависит пропускная способность и эффективность работы сети в целом. Есть у Mellanox что предложить и в этой сфере. Новая серия коммутаторов Quantum поддерживает скорости до 200 Гбит/с на порт и является первой в индустрии, использующей ядро Linux в качестве базовой ОС в комплексе с драйвером Switchdev. Даже младшая модель, Quantum QM8700, может предоставить в распоряжение проектировщика сети 40 портов со скоростью 200 Гбит/с (или вдвое больше портов 100 Гбит/с), а модульные масштабируемые Quantum CS8510 и Quantum CS8500 и вовсе оперируют цифрами 200 и 800 портов класса 200G. Любопытно, что новая связка Linux + Switchdev доступна и для серии Mellanox Spectrum. Но семейство Quantum, по мнению компании, не имеет аналогов: оно в 4 раза дешевле, в 2 раза быстрее и экономичнее, нежели сопоставимые по классу решения конкурентов. Ознакомиться с достижениями Mellanox можно на SC17 в павильоне 653.

Постоянный URL: http://servernews.ru/961511
28.08.2017 [11:34], Алексей Степин

Адаптеры Mellanox нашли применение в ЦОД Alibaba Group

За термином RoCE стоит технология RDMA over Converged Ethernet, позволяющая использовать режим DMA в сетевой инфраструктуре. При этом не используются ресурсы ядра ОС и процессора, что разгружает серверы для выполнения более важных задач вместо обработки сетевого трафика. Одним из лидеров в этой области является компания Mellanox с серией процессоров ConnectX. На сегодняшний день создано уже шестое поколение этих уникальных чипов, которые могут работать и как контроллеры InfiniBand, и как решения Ethernet. Но Alibaba Group решила использовать в своих центрах обработки данных проверенные временем адаптеры на базе чипов ConnectX-4 EN.

Двухпортовый адаптер Mellanox ConnectX-4 EN

Двухпортовый адаптер Mellanox ConnectX-4 EN

Эти процессоры полностью поддерживают Ethernet на скорости 100 Гбит/с, способны работать в режиме SR-IOV и освобождают центральный процессор от всего, что связано с обработкой транспортных сетевых операций. Имеется аппаратный механизм виртуализации и средства ускорения таких видов трафика, как NVGRE, VXLAN и GENEVE. Адаптеры используют интерфейс PCIe x16 3.0 и бывают как одно-, так и двухпортовыми. Они совместимы со всем диапазоном скоростей Ethernet, от 1 до 100 Гбит/с. Некоторые модели ограничены скоростями 40/56 Гбит/с, но во всех случаях используется разъём типа QSFP28. Поддерживается подключение как пассивной меди с защитой от статического электричества, так и активных оптических кабелей.

Один из залов ЦОД Alibaba Group

Один из залов ЦОД Alibaba Group

Не в последнюю очередь технологии Mellanox были выбраны из-за наличия подробнейшего программного сопровождения. Комплект DPDK (Data Path Development Kit) предоставляет простой и удобный фреймворк для организации систем быстрой обработки пакетных данных и позволяет разработчикам быстро создавать действующие прототипы. Активное сотрудничество с крупными китайскими компаниями и центрами обработки данных скажется благотворно как на доходах Mellanox, так и на таких клиентах, как Alibaba Group, которые получают в своё распоряжение быструю и надёжную сетевую инфраструктуру класса 25/100G. В целом также наблюдается тенденция перехода китайских компаний на более скоростные и совершенные сетевые решения.

Постоянный URL: http://servernews.ru/957641
20.02.2017 [14:39], Андрей Крупин

Mail.Ru Group, IBS и Mellanox объединились для создания гиперконвергентной системы на базе СУБД Tarantool

Компании Mail.Ru Group, IBS и Mellanox объявили о сотрудничестве. Партнёры намерены совместными усилиями вывести на рынок гиперконвергентное решение, в основу которого будут положены компоненты вычислительной платформы «СКАЛА-Р», сетевые технологии Mellanox и система управления базами данных Tarantool.

Гиперконвергентные системы, напомним, представляют собой программно-аппаратные комплексы, объединяющие в одном модуле вычислительные ресурсы, хранилища данных и системы виртуализации.

Разрабатываемый Mail.Ru Group, IBS и Mellanox универсальный комплекс позволит российским компаниям и организациям строить гибкие независимые датацентричные архитектуры, в том числе платформы виртуализации данных, системы аналитики больших данных и высокопроизводительные хабы для промышленного Интернета вещей (Industrial Internet of Things, IIoT). Новинка будет интересна как крупным предприятиям, так и организациям сектора государственного управления, заинтересованным в сведении информации о событиях по клиентам, продуктам, услугам, материалам, товарным запасам в единый пул с возможностью алгоритмического доступа ко всему массиву в реальном времени и оперативному внедрению новых алгоритмов. Ожидается, что большим спросом комплекс будет пользоваться в индустриальном секторе, представители которого смогут встраивать решение в АСУТП и SCADA-системы, системы управления зданиями, «умные» сети энергоснабжения.

Особенностью комплекса станет поддержка СУБД Tarantool — собственной разработки Mail.Ru Group, которая используется в компании около девяти лет. В отличие от большинства промышленных систем управления базами данных, предъявляющих высокие технические требования к компьютерным системам, Tarantool можно устанавливать даже на недорогие устройства стоимостью до $50. При этом отечественная СУБД способна обрабатывать до 50 тысяч транзакций в секунду, может собирать информацию с миллионов IIoT-датчиков и поддерживает популярные протоколы для работы с ними. Tarantool успешно внедрена в ряде крупных российских и международных компаний, среди которых ПАО «ВымпелКом», Yota, Badoo, Avito, QIWI и Wallarm.

«Создание решения на базе СУБД Tarantool — ответ на потребность российского рынка в свободных от санкций продуктах для решения задач, связанных с высокопроизводительной обработкой значительных массивов информации, создании централизованных платформ управления данными, внедрении технологий виртуализации данных. Разработка IBS, Mail.Ru Group и Mellanox позволит отечественным компаниям и организациям строить технологически независимые датацентричные архитектуры с предсказуемым результатом в максимально сжатые сроки», — прокомментировал проект Андрей Сунгуров, руководитель IBS Interlab.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/947837
06.02.2017 [13:15], Алексей Степин

Mellanox представила новую сетевую платформу Indigo IDG4400 Flex Network

Компанию Mellanox заслуженно считают лидером в области разработок, связанных с интерфейсом и стандартом InfiniBand, но она занимается и сетевыми решениями в целом, в том числе, и связанными с Ethernet. Сейчас компания анонсировала новую платформу IDG4400 Flex Network, сердцем которой является сетевой процессор Indigo NPS-400. Он способен вести обработку пакетов без потерь на всех уровнях, от L2 до L7 на скоростях до 500 Гбит/с и производить глубокое сканирование пакетов данных (deep packet inspection, DPI) на скорости до 320 Гбит/с при количестве потоков данных, исчисляемых миллионами. По словам компании-разработчика, NPS-400 в 20 раз превосходит все остальные предложения этого класса, имеющиеся сейчас на рынке. Единичная платформа IDG4400 выполнена в стоечном корпусе высотой 1U и работает под управлением специальной версии Linux. Для программирования сетевых функций используется распространённый язык С.

Одна платформа типа IDG4400 способна обслуживать на уровне DPI полный серверный шкаф. К тому же, процессор Indigo может использоваться совместно с системами коммутации, разработанными Mellanox и тем самым обеспечивать создание сред Ethernet с подключениями на скоростях 10, 25, 40, 50 или 100 Гбит/с. При этом гарантируется детерминированная доставка пакетов с нулевыми потерями и обеспечивается масштабируемость в случае необходимости наращивания мощности сетевой экосистемы. Сочетание IDG4400 и Spectrum Ethernet обеспечивает центры обработки данных любой степени сложности готовым, высокопроизводительным и выгодным решением, способным выполнять задачи коммутации и инспекции пакетов на всех уровнях.

Один из примеров использования платформы Indigo IDG4400

Один из примеров использования платформы Indigo IDG4400

В настоящее время задачи сетевой безопасности и прочие сетевые задачи часто строятся на базе дорогостоящих серверов общего назначения и используют общие ресурсы, такие, как процессорное время и оперативная память. Применение платформы Mellanox Indigo IDG4400 Flex Network в сочетании с коммутаторами Spectrum Ethernet позволяет разгрузить серверы от вышеупомянутых задач и высвободить процессорное время и прочие ресурсы. Решение Mellanox является более выгодным в использовании, ведь разгружая серверы, оно снижает и величину затрат на обеспечение функционирования ЦОД. В дополнение к аппаратным решениям, Mellanox предоставляет полный набор программных средств для разработчиков, внедряющих новую сетевую платформу. Входящие в комплект разработчика библиотеки совместимы со стандартом OpenNPU и отлично интегрируются с программным обеспечением с открытым исходным кодом.

Постоянный URL: http://servernews.ru/947097
22.11.2016 [11:50], Алексей Степин

SC16: Mellanox покоряет новые скорости

Компания Mellanox неизвестна большинству рядовых пользователей ПК и ноутбуков, зато её хорошо знает каждый, кто когда-либо экспериментировал с высокими скоростями передачи данных — будь то разработчики суперкомпьютеров, в которых скоростные межузловые каналы передачи данных с низкой задержкой играют роль аналога кровеносной системы человека, или простые энтузиасты, ищущие простое недорогое решение для быстрого соединения ПК с домашним сервером. Ранее название компании ассоциировалось только с интерфейсом InfiniBand, но Mellanox уже давно разрабатывает и выпускает универсальные решения, способные работать и с протоколом Ethernet.

На конференции SC16 компания показала, что по-прежнему идёт в ногу со временем: она представила уже шестое поколение фирменных универсальных контроллеров IB/Ethernet — ConnectX-6, причём, не только сам чип, но и полностью работоспособный двухпортовый адаптер на его основе. Удивительно, но этот крохотный чип в металлическом корпусе одинаково хорошо может работать в режиме InfiniBand 200G HDR, и в режиме Ethernet со скоростью передачи данных 200 Гбит/с, не загружая при этом центральный процессор системы. В сравнении с конкурирующими решениями ConnectX-6 вдвое более производителен и поддерживает такую интересную функцию, как передачу протокола NVMe в средах InfiniBand или Ethernet. Посредством специальных кабелей (например, QSFP на 4 SFP+) к одному хост-адаптеру можно подключить до восьми клиентских с меньшими скоростями передачи данных.

Стоит отметить, что в самом контроллере реализованы передовые наработки в области PCI Express: он может работать как в режиме PCI Express 4.0 x16, так и довольствоваться PCI Express 3.0, но уже с 32 линиями. Ничего удивительного: скорости в районе 200 Гбит/с выходят за пределы возможностей PCIe 3.0 x16. Как и ожидалось, механически конструктив слота PCIe 4.0 не изменился, но экземпляр карты, изображённый на снимках, явно не будет работать в слотах PCIe 3.0. Высокоскоростные сети невозможно представить себе без коммутаторов, которые из простых устройств давно превратились в сложнейшие вычислительные узлы с серьезными процессорами и солидными объёмами оперативной памяти.

Mellanox привезла на конференцию новейший 40-портовый коммутатор Quantum QM8790, рассчитанный на стандарт InfiniBand 200G HDR. В режиме 100 Гбит/с эта новинка может работать, как 80-портовая, поскольку скорости 200 Гбит/с пока ещё только предстоит стать промышленным стандартом. Каждый порт коммутатора обладает пропускной способностью 390 миллионов сообщений в секунду, при этом задержки не превышают 90 наносекунд. Семейство Qantum позволяет строить сети с топологией трёхуровневого толстого дерева (3-level fat-tree) с максимальным количеством 128 тысяч узлов, чего достаточно для любого мыслимого сегодня суперкомпьютера. При этом новые коммутаторы поставляют в реальном времени и телеметрические данные о своём состоянии и состоянии сети в целом.

Как кровеносная система немыслима без сосудов, так и сеть немыслима без кабельной инфраструктуры, причём скорости, предлагаемые Mellanox, выходят далеко за пределы привычной всем «витой пары». Так что компания продемонстрировала ряд активных медных и оптических кабелей класса QSFP, не требующих использования отдельных модулей трансиверов. Но были показаны и сами трансиверы, ведь кабели стандартной длины не всегда подходят для использования в нестандартных ситуациях. В основном, речь идёт о скоростях порядка 100 Гбит/с, но у компании есть решения и для нового стандарта с пропускной способностью 200 Гбит/с. Mellanox в очередной раз доказала, что является лидером в области создания высокоскоростных сетей с низкими задержками.

Постоянный URL: http://servernews.ru/943083
18.10.2016 [12:08], Константин Ходаковский

Крупнейшие игроки серверного рынка представили интерфейс OpenCAPI

Возможно, кто-то помнит, как 10 лет назад AMD представила технологию Torrenza. В её основе лежала идея создания быстрого и согласованного интерфейса между CPU и различными типами ускорителей (через Hyper Transport). Это была одна из первых инициатив в деле продвижения гетерогенных вычислений.

Сегодня уже существует немало практических воплощений концепции гетерогенных вычислений — наиболее популярная предполагает ускорение высокопараллельных расчётов общего назначения при помощи GPU. Есть ускорители шифрования, сжатия, сети, но преимущества таких решений порой нивелируются необходимостью передавать данные центральному процессору и обратно, в результате чего порой куда эффективнее переложить нагрузку на CPU, добавив дополнительные инструкции.

Но сегодня времена меняются: сенсоры Интернета вещей, семантические веб-службы и обычные веб-сайты создают огромные экспоненциально растущие объёмы данных, которые не могут храниться и анализироваться обычным способом. В результате всё активнее применяется машинное обучение и анализ больших данных: всё это требует существенно большего объёма вычислений. Закон Мура в ближайшие годы полностью остановится, так что от новых техпроцессов не приходится ждать принципиальных улучшений. Вычислительные ресурсы обеспечат чипы ASIC (как в случае Google TPU), FPGA (как в проекте Microsoft Catapult) и GPU.

Все подобные ускорители нуждаются в технологии вроде Torrenza, но нового поколения — универсального скоростного и согласованного интерфейса связи с CPU. NVIDIA представила собственную такую технологию NVLink, но рынку нужен открытый стандарт, и IBM собирается поделиться своим интерфейсом CAPI с другими.

Чтобы развить это начинание, Google, AMD, Xilinx, Micron и Mellanox объединили силы с IBM в деле создания новой согласованной высокопроизводительной шины, которая получила имя Open Coherent Accelerator Processor Interface (OpenCAPI). Одна линия интерфейса обеспечивает скорость передачи данных до 25 Гбит/с. Для сравнения: спецификации PCIe 3.0 обеспечивают максимальную скорость на одну линию до 8 Гбит/с.

Уже в 2017 году интерфейс OpenCAPI появится в серверах IBM POWER9, которые, таким образом, будут поддерживать не только скоростной интерфейс для NVIDIA GPU (через NVLink), но также обеспечит более эффективную работу ускорителей Google ASIC и Xilinx FPGA. AMD тоже получит доступ к альтернативе NVLink для связи ускорителей Radeon с серверными процессорами Zen. Micron сможет подключать к CPU более скоростную память. Mellanox сможет сделать то же с сетевыми ускорителями. OpenCAPI также делает чипы FPGA привлекательными для существенно более широкого спектра приложений. Выигрывают все, кроме Intel.

К слову, Dell/EMC присоединилась к альянсу несколько дней назад, а NVIDIA является членом консорциума OpenCAPI на уровне вкладчика (как Xilinx и HP Enterprise). Интерфейс OpenCAPI может оказать существенное влияние на серверный рынок — возможно, это самый крупный анонс в секторе серверов в этом году.

Постоянный URL: http://servernews.ru/941128
Система Orphus