ISC 2016: Oracle представила свою реализацию InfiniBand

 

Шина InfiniBand известна в индустрии больших машин и супервычислений уже достаточно давно — первая реализация под названием InfiniBand SDR появилась и стала применяться ещё в 1999 году. Шина шириной 4х обеспечивала при этом эффективную пропускную способность 8 Гбит/с при схеме кодирования 8/10, что не так уж много, особенно по нынешним меркам, зато время задержки не превышало 5 микросекунд, что очень важно для эффективной организации связи внутри кластерной системы. В последующих поколениях этот показатель был доведен до 0,7 и даже 0,5 микросекунды. Основным именем на рынке InfiniBand считается Mellanox, компания, производящая как сами адаптеры (на базе чипов собственной разработки), так и коммутаторы InfiniBand.

Сетевые адаптеры Oracle: zQSFP+ (слева) и MPO IB 12x

Сетевые адаптеры Oracle: zQSFP+ (слева) и MPO IB 12x. Судя по медным радиаторам — требуют серьёзного охлаждения

Но эту традицию решила прервать компания Oracle, один из крупнейших игроков на рынке больших баз данных. На мероприятие ISC 2016 она привезла примеры своей реализации протокола InfiniBand, ни в чём не уступающие, а в чём-то даже превосходящие уже имеющиеся на рынке решения Mellanox, Intel и QLogic. Были продемонстрированы как сами адаптеры InfiniBand с интерфейсом PCI Express x16 3.0, так и модульные коммутаторы собственной разработки Oracle. Причём речь идёт о современном стандарте EDR, предполагающем скорости 100 и 300 Гбит/с для шин шириной 4х и 12х при кодировании 64/66, минимизирующем накладные расходы на пропускную способность и латентности, не превышающей 0,5 микросекунды. Более производительный стандарт HDR со скоростями 200 и 600 Гбит/с ожидается не ранее 2017 года и о нём пока мало что известно.

Новые коммутаторы Oracle имеют модульную структуру

Новые коммутаторы Oracle имеют модульную структуру и могут сочетать в себе порты разных типов

Как говорит сама Oracle, её инфраструктура InfiniBand идеальна для построена облачной сетевой инфраструктуры практически любых масштабов. При разработке новых решений была учтена популярность виртуальных систем — в топологии Oracle InfiniBand каждый сервер и каждая система хранения данных подключается к виртуализуемой сети передачи данных со скоростью 100 Гбит/с и поддержкой удалённого прямого доступа к памяти (RDMA). Последняя обеспечивает как разгрузку процессоров серверов, так и минимальные задержки в передаче данных. Программно определяемые сетевые сервисы (Software-defined networking, SDN) гарантируют полную межсистемную совместимость. В результате получается быстрая, универсальная и безопасная сеть с огромной пропускной способностью.

Один из вариантов размещения, используются, в основном, порты MPO IB 12x

Один из вариантов размещения и конфигурации коммутатора Oracle InfiniBand, используются, в основном, порты MPO IB 12x

Решения Oracle InfiniBand хороши, прежде всего, тем, что позволяют легко развёртывать лишённые проблем с совместимостью высокоскоростные универсальные сети с полностью программной реализацией всех протоколов и функций I/O, при этом масштабирование таких сетей не составляет особого труда. В терминах Oracle это звучит как «hundreds of thousands servers», то есть речь идёт об объединённых в единое облако сотнях тысячах серверов. При этом как адаптеры, так и коммутаторы уже в кремнии, на аппаратном уровне, поддерживают специфические средства ускорения программного обеспечения Oracle; было бы странно, если бы компания не реализовала такой возможности. И адаптеры, и коммутаторы поддерживают как порты типа zQSFP+ (SFF-8665), так и оптические MPO IB 12x.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Источник:

Постоянный URL: https://servernews.ru/935141
Поделиться:  
Система Orphus