Материалы по тегу: кластер

20.09.2021 [14:15], Сергей Карасёв

Представлено шасси 3U для монтажа модулей NVIDIA Jetson Nano/Xavier NX

Компания Myelectronics.nl анонсировала 19-дюймовое шасси формата 3U, предназначенное для построения кластерных систем на основе вычислительных модулей NVIDIA Jetson Nano или Xavier NX. Решение имеет размеры 135 × 483 × 36 мм и весит приблизительно 640 г. Шасси изготовлено из алюминия и окрашено в чёрный цвет.

Здесь и ниже изображения Myelectronics.nl

Здесь и ниже изображения Myelectronics.nl

Могут монтироваться одноплатные компьютеры NVIDIA Jetson Nano 2GB Developer Kit, NVIDIA Jetson Nano Developer Kit и NVIDIA Jetson Xavier NX Developer Kit. Доступ к вычислительным модулям предоставляется с фронтальной части. Отмечается, что любой из мини-компьютеров может быть извлечён без необходимости демонтажа всего шасси. Более того, при этом даже не придётся отключать от питания другие узлы в составе кластера.

Система на базе новинки может применяться для решения различных задач в области искусственного интеллекта и машинного обучения. Приобрести шасси можно по ориентировочной цене €175 (без НДС).

Постоянный URL: http://servernews.ru/1049419
03.09.2021 [19:29], Сергей Карасёв

Кластер ClusBerry Rack вмещает четыре модуля Raspberry Pi CM4 с «горячей» заменой

Компания Techbase анонсировала весьма любопытную новинку — компактный кластер под названием ClusBerry Rack на основе вычислительных модулей Raspberry Pi Compute Module 4 (Raspberry Pi CM4). Устройство, как ожидается, поступит в продажу позднее в текущем году.

ClusBerry Rack допускает установку четырёх плат Raspberry Pi CM4 с возможностью «горячей» замены. Каждый из таких узлов предоставляет 1GbE-порт (опционально — два), интерфейс HDMI, разъём USB 2.0, последовательный порт и сервисный коннектор Micro-USB.

Здесь и ниже изображения CNX-Software

Здесь и ниже изображения CNX-Software

Система ClusBerry Rack может быть оснащена быстрым твердотельным накопителем M.2 NVMe. Возможности расширения реализованы на базе двух слотов mini PCIe: могут устанавливаться модемы 4G, 5G, NB-IoT, LoRa, ZigBee, Z-Wave, Sigfox, Wireless M-Bus, а также адаптеры Wi-Fi/Bluetooth.

Кластер предназначен для реализации тех или иных сетевых функций. Это может быть, например, маршрутизация трафика или организация хранилища NAS. Опционально может использоваться модуль безопасности TPM 2.0. Для подачи питания допускается применение технологии PoE. Цену новинки разработчик пока не называет.

Постоянный URL: http://servernews.ru/1048291
02.09.2021 [20:28], Андрей Галадей

С выходом Linux 5.15 скорость загрузки ядра на мейнфреймах и сверхкрупных кластерах IBM вырастет шестикратно

Ресурс Phoronix обратил внимание на любопытный патч для ядра Linux 5.15, который исправляет проблему длительной загрузки Linux на больших мейнфреймах и сверхкрупных кластерах на базе оборудования IBM. На это уходило порядка 30 минут и больше. Теперь такие системы будут загружаться примерно за 5 минут. Правда, без учёта инициализации самого железа, которая в данном случае сама по себе может длиться десятки минут.

Изменения в ядре включают в себя улучшения производительности Kernfs для функций, используемых, в частности, sysfs. Суть в том, что такие системы оснащены сотнями процессоров и десятками терабайт RAM, а память обрабатывается блоками по 256 Мбайт. Из-за этого ранее нужно было очень долго ждать, пока ядро «прожует» всю память. Причём для этого даже требовалось принудительно увеличивать время тайм-аута.

fool.com

После выхода обновления Linux 5.15 операции, которые ранее выполнялись последовательно, будут делаться параллельно + были произведены оптимизации кеширования этих процессов. Всё это позволит увеличить скорость загрузки системы примерно в 6 раз. А поскольку подобные системы обычно используются для выполнения бизнес-критичных задач, для которых даже одна лишняя минута простоя обходится в круглую сумму, ускорение будет совсем нелишним.

Постоянный URL: http://servernews.ru/1048179
26.08.2021 [19:14], Сергей Карасёв

Плата Turing Pi V2 поможет сформировать кластер из Raspberry Pi CM4 и NVIDIA Jetson

Анонсирована плата Turing Pi V2, предназначенная для построения вычислительных кластеров, ориентированных на периферийные платформы, в том числе для систем машинного обучения и пр. В настоящее время завершена разработка дизайна новинки, а её фактические продажи планируется организовать в первом квартале следующего года.

Решение выполнено в формате Mini-ITX с размерами 170 × 170 мм. Предусмотрены четыре слота SO-DIMM, в которые могут устанавливаться вычислительные модули Raspberry Pi CM4 (через адаптер) и NVIDIA Jetson Nano/TX2 NX/Xavier NX. К примеру, при использовании модулей Jetson Xavier NX общее количество вычислительных ядер может достигать 24.

Здесь и ниже изображения разработчиков

Здесь и ниже изображения разработчиков

Системная плата оборудована двумя разъёмами Mini PCIe и двумя портами SATA 3.0, к которым могут быть подключены накопители. Есть также два 1GbE-порта RJ45. Среди доступных интерфейсов упомянуты четыре порта USB 3.0, 40-контактная колодка GPIO и порт HDMI для вывода изображения.

Допускается подключение различных внешних модулей связи, в частности, 5G, LoRaWAN и Zigbee. Плата имеет собственный управляемый коммутатор с поддержкой VLAN, а также независимый BMC для удалённого управления, загрузки образов ОС и OTA-обновлений. Точную дату начала продаж и ориентировочную стоимость Turing Pi V2 разработчики обещают раскрыть в течение ближайших недель.

Постоянный URL: http://servernews.ru/1047640
07.08.2021 [21:52], Алексей Степин

Uptime Lab CM4 Blade добавляет Raspberry Pi поддержку NVMe и TPM 2.0

Число проектов на базе Raspberry Pi не поддаётся исчислению — настолько популярны эти маленькие, экономичные, но достаточно производительные микрокомпьютеры. У них есть свои недостатки, например, отсутствие «родной» поддержки NVMe-накопителей, но многие разработчики аппаратного обеспечения предлагают какие-либо решения для устранения недочётов «Малины».

Помимо обычных DIY-проектов, Raspberry Pi нередко используется для построения недорогих кластерных систем. Конечно, пропускная способность сети ограничена 1 Гбит/с, но более важный недостаток — отсутствие поддержки SSD «из коробки». Использование карт памяти или USB-накопителей не всегда слишком удачно: такие решения не отличается производительностью, да и изнашивается при активном обращении достаточно быстро.

Uptime Lab CM4. Фото: Jeff Geerling

Uptime Lab CM4. Фото: Jeff Geerling

Но новая плата Uptime Lab CM4 Blade позволяет обойти ограничения. Благодаря поддержке компактного Compute Module 4 «малиновые» кластеры можно сделать ещё более компактными. В разработке уже находится корпус высотой 1U, способный вместить 16 таких «лезвий», дающих в сумме 64 ядра ARMv8, до 128 Гбайт оперативной памяти LPDDR4-3200 (при использовании версий с 8 Гбайт ОЗУ) и более 16 Тбайт дискового пространства.

Новинка весьма функциональна. Установленный на неё Raspberry Pi Compute Module 4 получает следующие возможности:

  • Разъём M.2 с поддержкой NVMe;
  • Модуль TPM 2.0;
  • Контроллер Gigabit Ethernet с поддержкой PoE+;
  • Разъём для подключения вентилятора с поддержкой ШИМ;
  • Порты HDMI, USB 2.0 и USB-C;
  • Поддержа прошивки eMMC;
  • Слот microSD (только для модулей CM4 Lite);
  • Разъёмы UART и GPIO, поддерживаются модули RTC и Zymkey 4i;
  • Индикаторы ID системы и активности NVMe-накопителя.
Прототип 1U-кластера на базе Compute Module 4. Фото: Jeff Geerling

Прототип 1U-кластера на базе Compute Module 4. Фото: Jeff Geerling

Естественно, рекордов от NVMe-накопителя ожидать не стоит из-за использования единственной линии PCI Express 2.0. Примерная производительность, по данным Jeff Geerling, при чтении составит около 400-415 Мбайт/с, что, однако, на порядок быстрее показателей встроенной eMMC, предел для которой находится в районе 45 Мбайт/с.

В качестве модуля TPM 2.0 используется чип Infineon SLM9670, он совместим с Embedded Linux TPM Toolbox 2. Поддержки secure boot пока нет, так как модуль пока ещё не обучен общаться с загрузчиком Raspberry Pi.

Постоянный URL: http://servernews.ru/1046196
19.07.2021 [17:48], Владимир Агапов

Энтузиаст создал экономичный 1U-сервер на базе Raspberry Pi 4

С тех пор как Raspberry Pi впервые появился в 2012 г. как проект для обучения школьников азам компьютерной техники, многое изменилось: были проданы миллионы устройств, появлялись новые модели, сформировалось сообщество энтузиастов. А с появлением 2-го поколения Raspberry Pi на чипах с процессорными ядрами ARM v8, система оказалась способна справляться и с серверными нагрузками, управлением Интернетом вещей (IoT), хостингом сайтов и другими более сложными задачами.

В частности, недавно появился проект 1U-сервера (стоимостью примерно $800) для размещения у поставщиков услуг колокации, предъявляющих достаточно жёсткие требования по энергопотреблению устройств (не более 120 В и 1 А), но зато предоставляющих услуги размещения сервера за плату от $30/мес. Этим и объясняется выбор плат Raspberry Pi, ведь они отличаются достаточно низким энергопотреблением.

Patrick Chauncey

Patrick Chauncey

Автор проекта, Патрик Чонси (Patrick Chauncey), сконструировал прототип сервера (точнее говоря, мини-кластера) с 16 Гбайт ОЗУ LPDDR4-3200, сетевым интерфейсом 1 GbE и SSD общей ёмкостью 1,2 Тбайт. В 1U-корпусе Supermicro CSE-512L-200B смонтированы 5 плат Raspberry Pi 4 (4 ядра Cortex-A72 1,5 ГГц) в кейсах Geekworm Armor Case, 5 SSD (Kingston A400 240G M.2), 5 боксов UGREEN M.2 для подключения SSD через USB 3.1 и неуправляемый 8-портовый коммутатор NETGEAR GS308.

Для аварийного хранения в случает отказа SSD, платы Raspberry Pi снабжены SD-картами на 32 Гбайт. Также применены переходные платы и релейные модули для коммутации питания, ШИМ-контроллер для вентилятора (Noctua NA-FC1) и монитор энергопотребления (Kill A Watt P4400). Программная часть основана на Raspbian Lite. Суммарная нагрузка при питании от сети 120 В составляет 0,018 А на холостом ходу и 0,035 А в рабочем режиме. С учётом системы охлаждения максимальная нагрузка не превышает 0,4 А (48 Вт).

Patrick Chauncey

Patrick Chauncey

Разработчик сравнивает получившийся сервер с другими решениями. Так, доступ к инстансам AWS T2.medium (2 vCPU@2,5 ГГц, 4 Гбайт ОЗУ) стоит $38/мес., то есть для 20-процессорного виртуального сервера стоимость составит $380/мес. Физический 12-ядерный сервер Dell R710 с двумя Intel Xeon E5649 (2,53 ГГц), 64 Гбайт ОЗУ и 16-Тбайт накопителем обойдётся в $668, будет потреблять до 160 Вт и займёт 2U. 1U-система HoneyComb LX2, имеющая 16-ядерный Arm-процессор LX2160A (2,2 ГГц), 64 Гбайт ОЗУ и 16 Тбайт накопитель, потребляет 40 Вт и стоит $1350.

Помимо базовой комплектации на сайте проекта перечислены и варианты решений на основе других плат, стоечных корпусов и боксов для плат, SSD и дополнительных опций, например POE. Автор также планирует пересмотреть кабельное хозяйство, перейдя на плоские провода и добавив плавкие предохранители, чтобы снизить опасность повреждения при коротком замыкании.

Patrick Chauncey

Patrick Chauncey

Существуют и другие реализации идеи применения Raspberry Pi в дата-центрах или для периферийных вычислений. Например, команда Techbase предлагает ClusBerry 9500-CM4 для индустриального применения, российский облачный провайдер Selectel предоставляет доступ к Raspberry Pi по цене VDS, а команда ресурса ServeTheHome выяснила, сколько Raspberry Pi нужно для того чтобы построить кластер, сопоставимый по вычислительной мощности со «взрослыми» Arm-серверами.

Постоянный URL: http://servernews.ru/1044591
30.06.2021 [14:51], Сергей Карасёв

Вычислительный кластер «Сколтеха» взял на вооружение серверы Lenovo ThinkSystem SD530

Группа Lenovo ISG (Lenovo Infrastructure Solutions Group), подразделение компании Lenovo, сообщила о том, что серверы ThinkSystem SD530 стали основой вычислительного кластера Сколковского института науки и технологий («Сколтех»). Специализированная 60-узловая система спроектирована для реализации нового метода компьютерного предсказания кристаллических структур USPEX.

Технология USPEX была разработана в Лаборатории компьютерного дизайна материалов под руководством профессора Артема Оганова. Метод USPEX позволяет предсказывать структуры кристаллов, а также низкоразмерных материалов, в том числе наночастиц, полимеров, поверхностей, межзёренных границ и 2D-кристаллов.

Здесь и ниже изображения Lenovo

Здесь и ниже изображения Lenovo

«Для выполнения этих задач требовался нестандартный суперкомпьютерный центр, который позволяет решать большое число распараллеливаемых задач. На каждую структуру требуется 4–5 стадий расчетов. Каждый расчёт — это примерно 8 тыс. задач. А каждый из 25–30 пользователей системы проводит десятки таких расчётов ежемесячно», — говорится в сообщении.

Специфика выполняемых операций требовала наличия большого количества ядер для обработки коротких задач. Кроме того, не последнюю роль играла стоимость оборудования. В результате выбор пал на серверы Lenovo ThinkSystem SD530.

Система ThinkSystem SD530 использует шасси 2U с возможностью установки четырёх узлов. Каждый из них может содержать два процессора Intel Xeon Scalable серии Platinum и шесть накопителей. Поддерживается память Intel Optane PMem. Говорится о совместимости с платформой LiCO, которая облегчает управление рабочими нагрузками и ресурсами кластера, связанными с высокопроизводительными вычислениями и искусственным интеллектом.

Постоянный URL: http://servernews.ru/1043203
19.01.2021 [20:55], Юрий Поздеев

Dell EMC представила новые узлы СХД PowerStore для создания метрокластера

Мы уже писали о новой линейке СХД среднего уровня – Dell EMC PowerStore. А недавно Dell Technologies расширила эту серию массивов новым узлом для синхронной/асинхронной репликации и построения метрокластера. Над названием долго думать не стали и назвали новый узел Metro. Для чего был создан этот узел и почему на него нужно обратить внимание?

За последний год многие организации перевели своих сотрудников на удаленную работу, что привело к переносу многих рабочих нагрузок с локальных рабочих станций пользователей на серверную инфраструктуру. Цена перебоев в работе и вынужденных простоев возросла многократно, и именно для повышения отказоустойчивости систем и был создан новый узел Dell EMC PowerStore Metro. Для создания отказоустойчивого метрокластера в портфеле Dell EMC уже есть решение Enterprise уровня – VPLEX, однако оно подходит не всем, прежде всего из-за своей высокой цены.

Основные преимущества Dell EMC PowerStore Metro:

  • Гранулярность на уровне тома/LUN — это позволяет реплицировать определенные тома, обеспечивая непрерывную работу выбранных пользователем приложений, снижая совокупную стоимость владения и повышая гибкость управления рабочими нагрузками;
  • Добавление групп согласованности (консистентности) без прерывания доступа к данным — позволяет обеспечить нулевое время простоя и гибкость управления без нарушения репликации;
  • Поддержка нескольких платформ — репликация возможна между различными типами массивов Dell EMC (Unity и PowerStore);
  • Никакого дополнительного ПО на хостах — репликация автономна и не требует установки дополнительного ПО или перезагрузки хоста;
  • Репликация не оказывает влияния на производительность СХД — нет потери производительности и накладных расходов на репликацию данных;
  • Несколько видов репликации — асинхронная, синхронная и метрокластер;
  • Компактный форм-фактор — новый узел Metro имеет высоту 1U (кластер состоит из двух таких узлов), при этом обеспечивается высокая производительность, поддержка Fibre Channel 32 Гбит/с и единое управление;

Новый узел будет доступен в ближайшее время.

Постоянный URL: http://servernews.ru/1030487
18.01.2021 [16:44], Сергей Карасёв

ClusBerry 9500-CM4 — индустриальный кластер из восьми Raspberry Pi CM4

Команда Techbase готовит к выпуску аппаратную платформу ClusBerry 9500-CM4 — кластер промышленного класса на основе одноплатных компьютеров Raspberry Pi Compute Module 4 (CM4). Особенностью решения является возможность монтажа на DIN-рейку.

Коротко напомним конфигурацию Raspberry Pi Compute Module 4. Это процессор Broadcom BCM2711 с четырьмя ядрами Cortex-A72, работающими на частоте до 1,5 ГГц. Объём оперативной памяти может составлять 1, 2, 4 или 8 Гбайт, вместимость флеш-чипа eMMC — 8, 16 или 32 Гбайт. Плата имеет размеры 55 × 40 мм.

Кластер ClusBerry 9500-CM4 может объединять до восьми модулей. При этом конфигурация может гибко настраиваться в зависимости от потребностей клиента и выполняемых задач.

Доступны различные узлы. В их число входят контроллер ввода/вывода, а также коммуникационный шлюз с адаптером Ethernet и различными средствами беспроводной связи (LTE-cat.M1, 4G, 5G, LoRa, ZigBee, Z-Wave, Wireless M-Bus).

Кроме того, могут быть добавлены файловый сервер с возможностью подключения двух твердотельных накопителей с интерфейсом SATA, концентратор USB 3.0, маршрутизатор с поддержкой 2.5GbE и пр.

В настоящее время Techbase создаёт прототипы кластеров. Сведений об ориентировочной стоимости решений нет. 

Постоянный URL: http://servernews.ru/1030350
29.12.2020 [12:46], Владимир Мироненко

Lambda Echelon — GPU-кластер под ключ для задач машинного обучения

Компания Lambda разработала GPU-кластер Echelon для ИИ-задач. Он включает в себя вычислительные ресурсы, хранилище, сеть, питание и поддержку, необходимые для решения крупномасштабных задач глубокого обучения.

Echelon использует стоечную архитектуру, которая хорошо масштабируется: от кластера с одной стойкой на 40 графических процессоров до кластера с тысячами графических процессоров в центре обработки данных.

Клиентам Lambda уже знакомы узлы в составе Echelon. Это серверы Lambda Hyperplane и Lambda Blade GPU. Вычислительные узлы Echelon были разработаны с учётом возможности использования InfiniBand HDR 200 Гбит/с или 100 Гбит/с Ethernet. Высокая скорость обмена данными позволяет выполнять широкомасштабное обучение языковых моделей и свёрточных нейронных сетей.

Кластер Echelon, разработанный для крупномасштабного распределённого обучения, может иметь до четырёх различных сетей:

  • 200-Гбит/с фабрики HDR InfiniBand с RDMA для вычислительны узлов и хранилища.
  • Внутрення сеть 100 Гбит/с.
  • Сеть для управления узлами 1 Гбит/с.

Выше показана сетевая топология для кластера с одной стойкой с 40 графическими процессорами NVIDIA A100.

Постоянный URL: http://servernews.ru/1028955
Система Orphus