Материалы по тегу: mellanox

08.12.2011 [12:05], SN Team

DSCon объявила о доступности комплексного решения 56Gb FDR InfiniBand

Компания DSCon, официальный дистрибьютор продуктов и решений Mellanox Technologies, объявила о доступности на рынке комплексного решения построения сетей 56Gb FDR InfiniBand, включающего 36-портовые краевые коммутаторы Mellanox SX6025/SX6036, модульный коммутатор класса "Директор" на 648 портов - Mellanox SX6536, адаптеры Mellanox ConnectX-3 VPI для шины PCI Express 3.0 и сопутствующие кабели.

 

 

Коммутаторы Mellanox SX6025/SX6036 (неуправляемая и управляемая модели) форм-фактора 1U предоставляют полностью неблокируемую пропускную способность в 4,032 Тбит/с для высокопроизводительных вычислений и корпоративных ЦОД, с межпортовыми задержками в 165 наносекунд. Решение Mellanox SX6536 форм-фактора 29U, обеспечивает высокую пропускную способность (коммутирующая емкость равна 72,52 Тбит/с) и низкий уровень задержек для корпоративных ЦОД и высокопроизводительных вычислительных сред. Сети, построенные на базе SX6536, могут работать с конвергентным трафиком благодаря сочетанию гарантированной пропускной способности и средств QoS. Устройство предназначено для построения средних или больших кластеров, а также для использования в качестве коммутатора ядра сети для масштабных кластеров.

 

 

Что касается адаптеров Mellanox ConnectX-3, то оные обеспечивают подключения 56 Гбит/с InfiniBand и 10/40 Гбит/с Ethernet, поддержку соединений по виртуальному протоколу VPI и предназначены для серверов с шиной PCI Express 3.0, используемых в корпоративных центрах обработки данных и высокопроизводительных вычислительных площадках.

Источник:

Постоянный URL: http://servernews.ru/595273
06.12.2010 [13:20], Георгий Орлов

Mellanox Technologies сообщила о приобретении компании Voltaire

Mellanox Technologies (MLNX) сообщила о планируемом приобретении компании Voltaire (VOLT), которое позволит объединить силы двух групп специалистов по технологиям высокоскоростных сетей. Mellanox заплатит по 8,75 доллара за акцию, т.е. примерно 218 миллионов долларов по всей сделке. Это большая удача для владельцев акций Voltaire, курс которых теперь наверняка повысится.

 

Mellanox

 

Вот некоторые из комментариев этой сделки, появившихся в известных интернет-таблоидах:

- The Register: Mellanox специализируется на технологиях коммутации InfiniBand, в частности, поставляет чипы, поддерживающие протокол, который Voltaire использует в своих коммутаторах. Mellanox владеет большой долей рынка сетевых адаптеров высокого уровня для сетей InfiniBand и Ethernet. По всей видимости, стимулом для сделки стало желание Mellanox расширить свое присутствие в областях технологий 10-гигабитных (а в будущем также 40- и 100-гигабитных) сетей Ethernet и технологий сетевых шлюзов, предназначенных для сопряжения сетей InfiniBand и Ethernet. Кроме того, Mellanox получает хороший шанс в своей конкурентной борьбе с компанией QLogic, которая производит свои собственные коммутаторы для сетей InfiniBand и оптоволоконных сетей.
- PCWorld: Обе компании отлично известны по своей деятельности в области технологий коммутации как для сетей InfiniBand, так и для сетей Ethernet. Обе компании получают значительную часть своей прибыли, продавая технологии, которые используются поставщиками конечной продукции.
- DailyFinance: Несмотря на сильные технологии компании Voltaire, стоимость ее ценных бумаг была весьма изменчивой. Компания, кроме того, имеет таких мощных конкурентов, как QLogic, Cisco, Juniper Networks и Brocade Communications Systems. Слияние с Mellanox добавит Voltaire веса и стабильности.

Источник:

Постоянный URL: http://servernews.ru/593879
22.11.2010 [15:22], Георгий Орлов

Перспективы технологии InfiniBand

InfiniBand — одна из технологий, используемых суперкомпьютерами для связи между собой. Ещё в июне 2010 года в 48,4% случаях использовался (GigE и 10 GigE), в то время, как InfiniBand (Numalink, SDR, DDR, DDR 4x, и QDR Sun M9/Mellanox/ParTec) примерно в 41%. Но уже в июле этого года InfiniBand опередила Ethernet. Во многом этому способствовала подробная статья издания Chelsio Communications, которая развеяла мифы вокруг технологии InfiniBand и опровергла утверждение, что Ethernet 10 Гбит/с быстрее неё.

 

InfiniBand

 
В конце прошлого месяца компания Oracle сообщила о намерении инвестировать в Mellanox (MLNX), поставщика сквозных соединительных решений. А на прошлой неделе сама Mellanox объявила о присоединении к многостороннему соглашению с Пекинским Вычислительным центром для создания облачной лаборатории. Пекинской Вычислительный центр с помощью технологии InfiniBand предоставит Китайским академическим и коммерческим исследователям легкий и высокоскоростной доступ к высокоэффективному облаку для научных изысканий. Mellanox объявила, что её адаптер ConnectX-2 с поддержкой технологией VPI отныне доступен для использования в решениях высокой плотности типа Dell PowerEdge C6100. ConnectX-2 VPI от Mellanox может задействовать как 40 Гбит/с InfiniBand, так и 10GigE-технологии и подходит для разных нужд.
 
Компания Qlogic (QLGC) на прошлой неделе анонсировала начало сотрудничества с компанией Platform Computing по разработке ключевых компонентов кросс-платформенного ПО для управления кластерным оборудованием, для того, чтобы сделать его более удобными и эффективными для установки и использования. Набор инструментов FastFabric от Qlogic теперь можно устанавливать непосредственно из Platform Cluster Manager. Во вторник Qlogic объявила, что её адаптер QDR InfiniBand(R) серии 7300 установил новый мировой рекорд по скорости передачи  данных без коллизий как между хостами, так и между уровнями кластера. Тесты проводились с использованием стандарта пропускной способности, установленного Университетом штата Огайо.
 
Расположенная в Израиле компания Voltaire (VOLT) предлагает scale-out решения как для InfiniBand, так и для Ethernet технологий. На прошлой неделе Voltaire предоставила финансовый отчет за третий квартал 2010 года и сообщила, что впервые получила прибыль в размере 3,6 млн. долларов. Рон Кеннет (Ronnie Kenneth), председатель и президент Voltaire прокомментировал это так: «в очередной раз наше ПО оказалось главным дифференциатором между Ethernet и InfiniBand, тем самым увеличив нашу конкурентоспособность. Благодаря следованию четкой стратегической линии мы хорошо развились и получили рост потребительского спроса».
 

Самая внушительная сеть InfiniBand располагается в Новом Орлеане, где на следующей неделе будет проведена Конференция по суперкомпьютерам SC10. Специалисты уже приступили к документированию процесса развертывания сети SCinet, которая будет иметь скорость передачи данных в 260 Гбит/с. Сеть будет построена по технологии InfiniBand стандартов Quad Data Rate 40, 80 и 120 Гбит/с.
 
SCinet будет использоваться для DICE-приложений (Data Intensive Computing Environment — среда для сложных вычислительных процессов) компании Avetec, реализующих Research Sandbox (System Area Network Demonstration — архитектура области сетевого представления). Это проект использует географически распределенную высокоскоростную широкополосную сетевую архитектуру. Проект должен продемонстрировать и протестировать инкапсуляцию и шифрование данных, передающихся по сети на базе InfiniBand между HPC-кластерами. По технологии каждая сторона подсоединяется к SC10 с помощью Ethernet и использует расширение Obsidian ES для инкапсуляции трафика InfiniBand вовнутрь десятигигабитного линка.

Источник:

Постоянный URL: http://servernews.ru/593816
Система Orphus