Материалы по тегу: hardware

06.07.2020 [09:33], Юрий Поздеев

Pure потеснила IBM в тройке лидеров All-Flash СХД

Pure Storage обогнала IBM по доходам за первый квартал по объемам продаж All-Flash СХД. Dell EMC занимает первое место, на втором месте NetApp, а IBM опустилась на четвертое место, за ней следуют HPE, Hitachi Vantara и Huawei. Такова расстановка сил на рынке согласно данным аналитической компании Gartner.

Данные по объемам продаж за первый квартал еще не определяют тенденцию на год, однако это «тревожный звоночек» для IBM, которая весь прошлый год шла почти на равных с Pure Storage. Потребуется еще пара кварталов, чтобы понять — является ли это тенденцией к смене производителей в тройке лидеров, или же это просто неудачный квартал для IBM.

Диаграмма аналитика Wells Fargo Аарона Райкерса (Aaron Rakers) с данными от Gartner представлена ниже:

На диаграмме представлены доли рынка для всех производителей All-Flash СХД, а также общая доля рынка All-Flash за период с 1 квартала 2013 года по 1 квартал 2020 года.

По All-Flash получены следующие данные:

  • Dell EMC — доля рынка 34,8% (объём продаж 766 млн долларов), 33,7% год назад;
  • NetApp — 19,3% (425 млн долларов), 26,7% год назад;
  • Pure Storage — 12,7% (279,7 млн долларов), 10,1% год назад;
  • HPE — 8,4% (185 млн долларов), 10% год назад;
  • Другие вендоры — 24,8% (546 млн долларов), в числе которых IBM, Hitachi Vantara, Huawei, Fujitsu и другие.

Общая выручка All-Flash СХД достигла 44,9% от всего объема рынка СХД, в прошлом году она составляла 46,8%. В 2020 году объемы продаж СХД упали на 8%, при этом в сегменте All-Flash падение составило 12%, а гибридные СХД потеряли всего 5,1% продаж. Связано это прежде всего с ценой СХД, ведь несмотря на развитие SSD, они все еще дороже, чем жесткие диски.

Будем следить за развитием тенденций на рынке СХД, пока картина вырисовывается не очень радостная, ведь год от года продажи All-Flash систем росли, и многие аналитики предрекали скорую смерть СХД на базе жестких дисков, однако мы видим, что этого не происходит.

Постоянный URL: http://servernews.ru/1014956
03.07.2020 [12:22], Юрий Поздеев

Компактная дисковая полка от AIC вмещает 78 дисков 3,5”

Дисковые полки 4U с верхней установкой дисков становятся все более популярными в плотных решениях для хранения данных, ведь такой способ установки дисков позволяет добиться гораздо более высокой плотности, чем стандартное горизонтальное расположение. Однако, у любой медали две стороны, и в данном случае это нередкое увеличение длины дисковой полки.

Сейчас на рынке уже существуют шасси с возможностью установки в 4U более 100 дисков форм-фактора 3,5”, при этом они имеют длину более 1000 мм, что затрудняет их установку в стандартные стойки. Модель AIC JBOD J4075-01 имеет длину всего 810 мм, при этом она имеет 78 отсеков для дисков 3,5”, что делает ее одной из самых компактных и удобных для монтажа дисковых полок.

AIC совместно с Toshiba протестировали дисковую полку J4075-01, полностью заполненную дисками ёмкостью 16 Тбайт (модель MG08SCA16TE), что даёт в сумме 1248 Тбайт. С отчетом из тестовой лаборатории вы можете ознакомиться по ссылке, мы озвучим лишь некоторые данные:

Первое, на что хотелось бы обратить внимание — это рабочая температура, которая во время тестов не поднималась выше 33 градусов, что свидетельствует о том, что полка отлично продувается и проблем с охлаждением у нее не будет. Второе — достигнутые показатели IOPS 12000 при записи и 19500 при чтении. Это хороший результат для емких медленных дисков.

Подобная система подойдет для видеонаблюдения, файловых архивов и других задач, требующих размещать большой объем данных, не занимая при этом много места в стойке.

Постоянный URL: http://servernews.ru/1014823
02.07.2020 [20:16], Алексей Степин

Суперкомпьютер в испанской церкви открыл двери виртуального музея HPC

Крупные ЦОД и места установки суперкомпьютеров не лишены своего шарма. Как правило, такие помещения выглядят футуристически и минималистично, хотя корпуса строек и украшают различными изображениями. Но бывают исключения.

К таким исключениям относится испанская система MareNostrum, расположенная в Барселоне и принадлежащая Барселонскому суперкомпьютерному центру. Уникальность её в том, что суперкомпьютер этот смонтирован в старинном помещении часовни Torre Girona. Теперь полюбоваться на него и ряд других систем может любой желающий.

Суперкомпьютеры человечество строит уже достаточно давно и многие из них на сегодня представляют собой музейную, историческую ценность. MareNostrum, на сегодняшний день работающий в четвёртой своей версии, пока нельзя назвать экспонатом — это функционирующая система, состоящая из 3456 узлов Lenovo ThinkSystem SD530, в каждом из которых установлено по два 24-ядерных процессора Xeon Platinum.

На ноябрь 2019 года MareNostrum 4 занимал 30 место в рейтинге Top500 с развиваемой мощностью 13,7 Пфлопс и объёмом хранения данных 14 Пбайт. Но уникальной систему делают не её характеристики, а место расположения — это действительно бывшая часовня, принадлежащая Политехническому университету Каталонии.

Пожалуй, можно назвать такое сочетание своеобразным храмом, посвященным научно-техническому прогрессу. А теперь взглянуть на суперкомпьютер может любой желающий. И не только в реальном мире: Барселонский суперкомпьютерный центр подготовил и виртуальную экспозицию, в которой MareNostrum 4 является главным, но не единственным экспонатом.

В одном из боковых коридоров часовни установлены несколько других HPC-систем, представляющих собой ценность с точки зрения истории суперкомпьютеров. Это части машин MareNostrum 1/2/3, первый тестовый HPC-кластер Tibidabo на базе ARM-процессоров (2011 год), BSCSMP на базе Silicon Graphics Altix 4700 и ряд других экспонатов, часть из которых построена на уже практически забытых ныне архитектурах вроде DEC Alpha.

Экспозиция представляет собой интерес для всех ценителей истории техники, в частности — техники вычислительной. Информация о ней была опубликована в Twitter, а посетить её виртуально можно, воспользовавшись соответствующей ссылкой. Поддерживается использование VR-шлемов.

Постоянный URL: http://servernews.ru/1014801
02.07.2020 [19:21], Владимир Мироненко

Бывшую базу для подводных лодок превратили в современный дата-центр

Компания Interxion, входящая в состав американского оператора дата-центров Digital Realty, объявила о запуске первой фазы MRS3, своего третьего центра обработки данных в Марселе. Новый ЦОД находится на бывшей базе для немецких подводных лодок времен Второй мировой войны, известной как Martha (Марта) и заброшенной на протяжении десятилетий.

Её стены из армированного железобетона толщиной до 5,5 метров и высотой 12 м не боятся взрыва 10-тонной бомбы. В уникальном в архитектурном отношении здании площадью 7100 м2 размещён ЦОД мощностью 16,5 МВт. За первой фазой ЦОД, размещённой на площади около 2300 м2, последуют ещё две очереди, запланированные к запуску в течение 2021 года. ЦОД последнего поколения MRS3 расположен рядом с ЦОД MRS2, что позволит извлечь преимущества от плотной сети по всему кампусу.

MRS3 и последующие центры обработки данных в этой местности будут охлаждаться водой с температурой 15 °C, которая поступает из бывших рудников Гардана в течение всего года. Отводимое тепло будет использоваться для отопления домов и офисов в новых районах Марселя.

Battlefieldsww2.com

Battlefieldsww2.com

Марсельский регион имеет прямой доступ к 14 подводным кабелям, соединяющим 4,5 млрд пользователей облачных и цифровых сервисов в Европе, Африке, на Ближнем Востоке и в Азии, а в ближайшие пять лет здесь планируется проложить еще 5–10 кабелей.

Это не первый случай использования объектов военного назначения для организации ЦОД. В прошлом году в Германии закрыли нелегальный дата-центр, размещённый в бывшем бункере НАТО. Такие операторы как Cavern Technologies, Iron Mountain, Pionen, DEAC, Lefdal используют каменоломни, шахты или бывшие бункеры для размещения защищённых ЦОД. Кроме того, операторы всё чаще присматриваются к заброшенной недвижимости в городах, в том числе подземной.

Постоянный URL: http://servernews.ru/1014793
02.07.2020 [14:58], Владимир Мироненко

Амстердам возобновляет строительство дата-центров

Мораторий на строительство дата-центров, объявленный Амстердамом год назад, подходит к концу, и город готовится к началу нового бума, ограничив вместе с тем, площадь для новых ЦОД и энергетические ресурсы.

Власти Амстердама выдвинули предложения по строительству ЦОД в конкретных кластерах и в рамках установленных показателей мощности и площади. Эти предложения были разработаны после обсуждения с Ассоциацией центров обработки данных Нидерландов (DDA). Их будут обсуждать в городском совете после летних отпусков. После этого, как ожидается, будет возобновлено строительство ЦОД.

Год назад власти Амстердама и Харлеммермера объявили, что новые ЦОД не будут утверждены до 2020 года, поскольку потребности сектора в электроэнергии и площадях «вышли из-под контроля». Сектор ЦОД в Амстердаме в течение предыдущих семи лет рос на 10–15 % в год, наряду с Франкфуртом, Лондоном и Парижем, представляющими вместе рынок FLAP, которому прочат рекордный год, несмотрая на пандемию.

Городские советы были обеспокоены тем, что у них не было механизма для контроля этого роста, о чём было заявлено в 2019 году: «ЦОД стали жизненно необходимыми объектами почти для всех жителей, предприятий и учреждений, но они также занимают много места и, в связи с высоким энергопотреблением, создают большую нагрузку на электросети».

В результате встреч DDA с муниципалитетами появился план, который обеспечит намеченный рост в данном секторе на следующие десять лет. Харлеммермер и Амстердам выделили по четыре специальных кампуса для центров обработки данных, а также установили ограничения по потребляемой мощности.

Харлеммермер спрогнозировал среднегодовой прирост установленной мощности в 70 МВА, и установил для сектора максимальный уровень потребления мощности в 750 МВА до 2030 года. Между тем Амстердам ожидает среднегодовой прирост установленной мощности в 67 МВА при общей доступности 670 МВА до 2030 года.

Чтобы получить одобрение, ЦОД должны иметь коэффициент эффективности использования энергии (PUE) не выше 1,2 и придерживаться природоохранных мер при строительстве.

Постоянный URL: http://servernews.ru/1014724
02.07.2020 [12:16], Владимир Мироненко

Delta представила новую серию модульных дата-центров SmartNode

Delta Electronics запустила новое модульное решение класса «всё-в-одном» SmartNode для инфраструктуры ЦОД, которое предлагает гибкие системы питания и охлаждения, обеспечивает быстрое развёртывание и масштабируемую ёмкость для универсального внедрения. Решение будет предлагаться в Европе, на Ближнем Востоке и в Африке (EMEA).

Модульные ЦОД SmartNode доступны в пяти вариантах мощности в диапазоне от 33 до 90 кВт. Дополнительные возможности SmartNode включают надёжную энергосистему с высокой нагрузкой на телекоммуникационную стойку (1420 кг на стойку) и управление охлаждением.

По мере того, как телекоммуникационные компании наращивают инфраструктуру 5G и Интернета вещей, операторам требуется всё более высокая скорость передачи данных, большая пропускная способность с меньшими задержками. Операторы связи, предприятия, проектировщики ЦОД, поставщики услуг размещения и облачные сервисы смогут использовать эту новую инфраструктуру ЦОД уровня Tier II (опционально Tier III) для быстрого масштабирования периферийных вычислительных мощностей и обеспечения инфраструктуры, необходимой для Интернета вещей, а также приложений с низкой задержкой.

Delta сообщила, что новая серия продуктов создана для того, чтобы обеспечить малые и средние предприятия сервисами «нового поколения» в таких областях, как виртуальная реальность, дополненная реальность и автономные транспортные средства. «В этом интенсивном ИТ-мире с интенсивным трафиком данных периферийный ЦОД выступает в качестве точки кеширования и агрегации данных между пользователями и более крупными объектами для снижения чрезмерной нагрузки», — отметила Delta в пресс-релизе.

Благодаря пяти стандартным конфигурациям (33, 35, 50, 70 и 90 кВт) для быстрого выбора на основе требований заказчика все подсистемы, такие как модульные ИБП, системы распределения питания, охлаждения, DCIM и другие, являются высокоинтегрированными и надёжными. Дополнительные функции SmartNode включают следующее:

  • Надёжная система питания: интегрированное в ИБП решение по распределению электроэнергии позволяет сэкономить ценное пространство ЦОД и снизить совокупную стоимость его владения.
  • ИТ-стойка с высокой нагрузкой: прочная модульная структура позволяет заказчикам заполнять целые стойки ИТ-оборудованием и использовать полную нагрузку (1420 кг на стойку).
  • Оптимальное управление охлаждением: стандартный диапазон рабочих температур окружающей среды составляет от –15 ℃ до + 48 ℃, и до + 39 ℃ без снижения номинальных значений.
  • Улучшенная внешняя защита: внешние блоки окружены сетчатым каркасом для защиты во время транспортировки и от вандализма на местах.
  • Высокая надёжность: прочная конструкция с пределом огнестойкости EI 60 позволяют использовать систему в широком диапазоне условий окружающей среды.
  • Усовершенствованное решение DCIM (Data Center Infrastructure Management): Delta InfraSuite Manager также доступен в качестве опции для новых сборных ЦОД, что позволяет операторам автоматизировать задачи управления ЦОД и оптимизировать их.
Постоянный URL: http://servernews.ru/1014722
02.07.2020 [12:09], Юрий Поздеев

OEM NetApp от Fujitsu: новые массивы в линейке ETERNUS

В прошлом Fujitsu уже продавала СХД NetApp, однако это была обычная перепродажа готового решения, теперь же речь идет об OEM-решении. Посмотрим, на что это повлияло и что изменится для потребителя.

Fujitsu обновляет линейку своих СХД моделями AB, AX, HB и HX. Позиционирование массивов следующее:

  • AX и HX предназначены для больших гиперконвергентных систем и файловых серверов;
  • AB и HB для критически важных данных и HPC.

Ниже представлен весь модельный ряд СХД Fujitsu ETERNUS, который теперь расширился за счет OEM-массивов от NetApp:

С названиями все просто: AB (2100, 5100, 6100) и AX (1100 и 2100) — это All-Flash массивы, а HB (1100, 1200, 2100, 2200, 2300, 5100 и 5200) и HX (2100 и 2200) — гибридные модели. Все массивы моделей AX и HX масштабируются до 24 контроллерных пар (12 СХД), что позволяет не только увеличивать емкость хранения, но и повышать производительность за счет параллельной работы контроллеров.

Что же дает OEM-вариант от Fujitsu? Первое на что нужно обратить внимание — это единая поддержка и дополнительные условия для клиентов, единые для всей линейки массивов ETERNUS. Единая поддержка обеспечивает одинаковый уровень сервиса, единое окно обращения и упрощение учета инцидентов при работе с массивами. Еще одним преимуществом от такого тесного сотрудничества является интеграция массивов NetApp в экосистему Fujitsu, где существует множество дополнительного ПО и сервисов для технических специалистов. Всё это, во всяком случае, можно ожидать от новой серии.

Fujitsu планирует начать поставку комбинированных решений из серверов Fujitsu и массивов NetApp к концу 2020 года. Данные решения станут частью концепции гибридного облака, которую продвигает Fujitsu, с использованием единой операционной системой от NetApp для массивов и облачных служб. Будет наблюдать за развитием сотрудничества Fujitsu и NetApp, надеемся, что подобная синергия даст клиентам гораздо больше преимуществ при выборе СХД под свои потребности.

Постоянный URL: http://servernews.ru/1014742
01.07.2020 [20:50], Алексей Степин

IBM открыла ядро своих POWER-процессоров для суперкомпьютеров BlueGene/Q

Господству x86, пожалуй, куда больше угрожает семейство архитектур ARM, нежели POWER, однако в рамках проекта OpenPOWER экосистему можно назвать живой, тем более что среди активных вкладчиков есть европейская лаборатория открытых компьютерных архитектур. Архитектура POWER по решению IBM стала открытой ещё в августе прошлого года и сейчас плоды этого решения начинают появляться.

На проходящем сейчас саммите Linux Foundation Open Source было анонсировано новое открытое процессорное ядро A2I, базирующееся на этой архитектуре. Новая разработка предназначена для заказных и встраиваемых систем-на-чипе (SoC) сравнительно небольшой мощности.

A2I не поддерживает внеочередного исполнения инструкций, но мультипоточность в нём реализована, а главный упор сделан на увеличение пропускной способности по всем каналам передачи данных, что немаловажно для активно растущего сегмента периферийных вычислений.

В основу дизайна A2I легло ядро Edge-of-Network под названием PowerEN, которое использовалось в процессорах общего назначения POWER-A2 в составе HPC-систем и суперкомпьютеров серии IBM BlueGene/Q. Что удивительно, данное ядро не поддерживает спекулятивное исполнение команд, то есть оно не подвержено уязвимостям класса Spectre/Meltdown.

Сам дизайн A2I является модульным, что позволяет создавать оптимизированные под конкретную задачу SoC. Процессор может быть дополнен «вспомогательным исполнительным блоком» (Auxiliary Execution Unit), тесно связанным с основным ядром. Набор инструкций соответствует спецификациям PowerISA v2.06 в 64-битном варианте.

Порядок байт в системах Big Endian и Little Endian

Порядок байт в системах Big Endian и Little Endian

Изначально ядро данной серии разрабатывалось под 45-нм техпроцесс, но даже тогда оно имело площадь всего 2,9 мм2 и при частоте 2,3 ГГц укладывалось в теплопакет менее 1 Ватта; ожидается, что применение современных 7-нм производственных норм позволит довести эти показатели до 0,17 мм2 и 0,5 Ватта при частоте 4,2 ГГц. Четырёхъядерный чип с поддержкой SMT4 может уложиться в 2 Ватта.

Предусмотрены кеши инструкций и данных объёмом 16 Кбайт каждый, объём кешей других уровней, по-видимому, оставлен на усмотрение разработчика. Имеется встроенный MMU, способный адресовать до 4 Тбайт физической памяти. Процессор может работать в обоих режимах endian: big и little. Ядро A2I стало полностью открытым, и вся информация о нём содержится в соответствующем репозитории GitHub.

При этом надо понимать, что открыто только ядро, а не процессор POWER-A2 целиком. Последний состоял из 18 ядер, одно из которых было служебным, а ещё одно — запасным. L1-кеш был представлен SRAM, а L2 состоял из eDRAM. Помимо обычных ядер в нём имелись отдельные акселераторы для работы с XML, шифрования, компресии и обработки регулярных выражений, а также 4 канала 10GbE. По отзывам тех лет, процессор был невероятно сложным, но, как показала практика, в конечном итоге достаточно эффективным.

Постоянный URL: http://servernews.ru/1014711
01.07.2020 [14:08], Алексей Степин

Intel опубликовала первые сведения о новых инструкциях AMX

Изначально процессоры x86 были довольно простыми устройствами. Постепенно они обросли дополнительными наборами инструкций, начиная с MMX и заканчивая AVX-512. Но на AVX-512 прогресс не остановился, и x86 продолжает развиваться, что вполне логично на фоне активного наступления других архитектур. На днях Intel опубликовала сведения о наборе инструкций AMX, который будет реализован в Xeon Scalable следующего поколения.

Набор AMX (Advanced Matrix Extension) продолжает традицию снабжать современные процессоры инструкциями, облегчающими процесс вычислений для специфичных задач. Особенно для тех, что связаны с машинным интеллектом и обучением нейросетей. Первым таким набором Intel стали расширения AVX-512 VNNI (DL Boost), дебютировавшие в семействе Cascade Lake и предназначенные для векторных вычислений в формате INT8.

В Xeon Scalable Cooper Lake они получили поддержку формата bfloat16, также востребованного в системах машинного обучения, что позволило использовать CPU и для обучений нейросетей, а не только исполнения как прежде. Третьим же расширением в рамках инициативы Intel DL Boost станет AMX (Advanced Matrix Extension) — оно появится в четвёртом поколении процессоров Xeon Scalable Sapphire Rapids.

Также AMX можно назвать первым крупным расширенным набором команд со времён внедрения AVX-512. Оба варианта DL Boost строились на базе AVX-512, в то время как AMX является отдельным, независимым набором расширений. В целом, архитектура x86 затронута не будет, как это было и с AVX/AVX2, но процессоры получат новый регистровый файл с восемью тензорными регистрами («тайлами») максимальным размером в шестнадцать 64-байт строк (1 Кбайт на регистр, 8 Кбайт на файл).

Инструкции AMX будут синхронизированы с операциями load/store; использовать их можно будет одновременно с любым другим кодом, включая AVX2 и AVX-512. Также в AMX реализована новая концепция «ускорителей» (accelerators), которые и будут работать с вышеупомянутыми «тайлами». Сами «тайлы» заданы не жёстко и их можно конфигурировать через специальный регистр управления — задавать число строк и количество байт в строке для оптимального использования того или иного алгоритма.

В настоящее время набор AMX включает в себя всего 12 новых инструкций. Условно их можно разделить на три категории: инструкции конфигурирования, управление «тайлами» и работы с «тайлами». Стоит отметить, что «тайлы» могут использовать скалярное произведение (dot-product) векторов в форматах INT8 и BF16, реализованных ранее в Cascade Lake и Cooper Lake. Пока в спецификациях описан лишь один «ускоритель» — перемножение матриц «тайлов» (TMUL), однако это лишь начало.

Сейчас кристаллы с поддержкой AMX уже имеются лабораториях Intel. Компания сообщила о том, что «кремний» Sapphire Rapids успешно запущен и тестируется. Ожидать появления новых процессоров следует в 2021 году. А что касается AMX, то компания уже опубликовала подробную документацию на новые расширения. Скачать её можно с сайта Intel. Нужные сведения описаны в третьей главе документа и выделены зелёным цветом.

Постоянный URL: http://servernews.ru/1014687
30.06.2020 [23:59], Алексей Степин

Новый GPU-сервер ASUS ESC4000A-E10 поддерживает ускорители NVIDIA A100

Гетерогенные вычисления применяются в современном мире очень активно несмотря на то, что программировать такие системы достаточно сложно. Не столь давно NVIDIA представила новую архитектуру Ampere и ускорители A100 на её основе.

Компания ASUS одной из первых освоила новинку и уже предлагает новый сервер высокопроизводительных вычислений ESC4000A-E10, изначально рассчитанный на использование именно NVIDIA A100. Эта HPC-система подходит для широкого круга задач, от виртуализации до комплексов машинного интеллекта.

Сервер ESC4000A-E10 выполнен в стоечном корпусе высотой 2U, центральную часть занимает узкая системная плата с одним процессорным разъёмом AMD SP3, окружённым восемью слотами DDR4 DIMM (до 2 Тбайт на систему). Ускорители в форм-факторе PCI Express устанавливаются с обеих сторон платы с помощью райзеров. Их количество может быть различным: в случае с полноразмерными A100 поддерживается установка четырёх плат, но однослотовых плат расширения можно установить целых восемь.

Для наиболее полного раскрытия потенциала новой системы ASUS взяла за основу для ESC4000A-E10 процессоры AMD EPYC второго поколения, благо в этой серии имеются и модели с 64 ядрами, например, EPYC 7702P, 7742 или 7H12. Поддерживаются все теплопакеты до 280 Ватт включительно. Столь мощный процессор и набор ускорителей A100 вкупе могут выделять около 1300 Ватт тепла (280+250×4), что требует мощной системы охлаждения. За продувку ESC4000A-E10 отвечает семь высокопроизводительных вентиляторов, все они установлены в специальных корзинах и могут заменяться «на горячую», что упрощает обслуживание системы и снижает время её простоя.

Также в ESC4000A-E10 предусмотрены отдельные слоты PCIe x8, они служат для установки контроллера RAID или высокоскоростного сетевого адаптера в форм-факторе OCP 3.0. Изначально сетевые возможности ESC4000A-E10 достаточно скромны и представлены двумя портами Gigabit Ethernet и выделенным портом Ethernet для удалённого управления. За последнее отвечает популярный базовый контроллер Aspeed AST2500, имеющий также отдельный VGA-выход для локальной настройки сервера. За счёт фирменного модуля KVM-over-IP ASMB9-iKVM и программного обеспечения ASUS Control Center сервер очень удобен в настройке и эксплуатации.

В общей сложности ESC4000A-E10 располагает 11 слотами PCI Express 4.0, что делает его весьма гибким в конфигурировании и позволяет использовать наиболее скоростные на сегодняшний момент платы расширения, будь то вычислительные ускорители или сетевые адаптеры класса 200 или 400G без ущерба для производительности. В передней части сервера имеется восемь стандартных дисковых корзин «горячей замены», совместимых с накопителями формата 2,5″/3,5″, причём четыре из восьми мест могут занимать накопители с интерфейсом NVMe. За питание отвечает пара блоков «горячей замены» мощностью 1600 Ватт каждый. Они имеют сертификацию 80 Plus Platinum.

Почему тем, кто ищет новый вычислительный сервер, стоит обратить внимание именно на ASUS ESC4000A-E10? Во-первых, повторимся, из-за его универсальности, ведь он поддерживает не только ускорители A100, но может комплектоваться и платами Tesla T4 или графическими картами Quadro, причём конфигурация может быть и смешанной, в зависимости от задач, которые ставит заказчик. Имеется сертификация NGC-Ready, подтверждающая полноценную возможность запуска NGC-контейнеров на уровне «чистого железа» (bare metal).

Во-вторых, серверы ASUS славятся своей повышенной энергоэффективностью, и это подтверждено их рейтингом в тестах SPECpower. За счёт технологии Thermal Radar 2.0 управление системами охлаждения сервера выполняется более гибко, вентиляторы всегда работают на минимально достаточной скорости. Это может давать 36% экономию энергии, затрачиваемой на охлаждение в сравнении с менее интеллектуальными решениями.

Технология ASUS Power Balancer следит за энергопотреблением процессоров и управляет им в реальном времени, а для того, чтобы справляться с пиковыми нагрузками, ASUS внедрила технологию Performance Boost. Последняя использует несколько подходов одновременно, от автоматического удержания режима турбо на всех ядрах до тонкого тюнинга, позволяющего безопасно выйти за пределы формальных значений TDP. Иными словами, платформа полностью соответствует девизу компании «В поисках невероятного» — в ней реализованы все средства достижения максимальной производительности при минимально возможных энергозатратах. 

Среди упомянутых в анонсе задач, для которых подходит ESC4000A-E10, упомянута виртуализация — и вовсе не зря. Процессоры NVIDIA A100 интересны тем, что могут работать как в обычном режиме, так и разделяться на несколько (до семи) полностью изолированных и функционирующих независимо друг от друга блоков. Это даёт 28 разделов на полностью укомплектованную систему с четырьмя A100, а значит, она может полноценно обслужить столько же рабочих мест с графическим окружением и поддержкой 3D-ускорения.

Сам процессор A100 изначально создавался NVIDIA с прицелом на мир HPC. Архитектура Ampere вышла удачной настолько, что разработчики говорят о 40-кратном превосходстве над V100 в задачах обучения нейросетей. Поддерживаются все форматы вычислений, от INT4 до традиционного FP64, в последнем случае производительность достигает почти 10 Тфлопс, но при этом A100 благодаря использованию 7-нм техпроцесса имеет теплопакет всего 250 ватт против 400 у предшественника.

Производительность комплексов на базе A100 выше в версии с NVLink за счёт более эффективной системы межсоединений, но такие системы не обладают универсальностью ASUS ESC4000A-E10, в который можно устанавливать любые PCIe-совместимые ускорители. Потери невелики, сама NVIDIA указывает на 90% эффективности от NVLink-варианта A100 в формате SXM4. Потеря не слишком большая и легко окупающаяся за счет универсальности платформы ESC4000A-E10.

Компания ASUS присутствует на рынке серверного оборудования давно и её решения успели завоевать ряд наград, как качественные, надёжные и при этом экономичные системы. Все эти преимущества унаследовал и созданный в рамках партнёрской программы NVIDIA сервер ASUS ESC4000A-E10, став системой компактной, экономичной и универсальной, но вместе с тем, весьма производительной и полностью отвечающей современной концепции высокопроизводительных вычислений.

Новые системы ASUS ESC4000A-E10 уже доступны для приобретения по всему миру, в том числе, и на территории Российской Федерации. Более подробную информацию, в том числе, о стоимости новинки, можно получить в региональном представительстве ASUS.

Постоянный URL: http://servernews.ru/1014591
Система Orphus