Материалы по тегу: hardware

28.10.2021 [02:10], Владимир Мироненко

AWS представила инстансы EC2 DL1 с ИИ-ускорителями Habana Gaudi от Intel

AWS объявила — надо сказать, с существенной задержкой — об общедоступности инстансов Amazon EC2 DL1, предназначенных для задачи глубокого обучения. Инстансы DL1 используют ИИ-ускорители Gaudi от Habana Labs, которые, как утверждает Amazon, обеспечивает до 40 % более высокую производительность на единицу стоимости при обучения ИИ-моделей по сравнению с актуальными инстансами на базе GPU.

С помощью DL1 клиенты смогут быстрее и с меньшими затратами обучать крупные ИИ-модели для таких сценариев использования, как обработка естественного языка, обнаружение и классификация объектов, обнаружение мошенничества, механизмы рекомендаций и персонализации, интеллектуальная обработка документов, бизнес-прогнозирование и т.д. Новинки доступны как инстансы по требованию, по модели Savings Plans, а также как зарезервированные или спотовые инстансы.

DL1 имеют восемь ускорителей Gaudi с суммарным объёмом HBM-памяти 256 Гбайт, 768 Гбайт RAM, 96 vCPU (Intel Xeon Cascade Lake), 4 Тбайт локального хранилища NVMe и сетевое подключение 400 Гбит/с. Между собой ускорители объединены прямым RDMA-подключением 100 Гбит/с. Новинки поддерживаются в Amazon EKS/ECS и SageMaker. В настоящее время DL1 доступны в облачных регионах us-east (Северная Вирджиния) и us-west (Орегон), где стоимость dl1.24xlarge при почасовой оплате составляет $13,1/час.

Постоянный URL: http://servernews.ru/1052369
28.10.2021 [00:43], Игорь Осколков

Европейские Arm-процессоры SiPearl Rhea получат поддержку ускорителей Intel Ponte Vechhio

SiPearl, ответственная за разработку CPU для европейских суперкомпьютеров, и Intel объявили о сотрудничестве, которое позволит ускорить создание экзафлопсных систем в Евросоюзе путём объединения в рамках одной системы процессоров Rhea и ускорителей Ponte Vecchio. А для работы с такими гетерогенными HPC-узлами будет использоваться открытый унифицированный программный стек oneAPI, переносим и оптимизацией которого планирует заняться SiPearl.

Фактически это предварительный анонс первых систем c Ponte Vecchio не только без CPU Intel (как у злопополучной Aurora, которой компания прочит уже 2 Эфлопс), но и без x86-64 вообще — SiPearl Rhea является HPC-процессором на базе Arm. Согласно последним данным, этот 6-нм чип получит 64 ядра Neoverse V1 (Zeus), блоки RISC-V и HBM-память в единой 2.5D-упаковке. Он также получит контроллер PCIe 5.0 — ускоритель Intel Xe будет подключаться к процессору посредством CXL, о чём прямо говорится в сообщении компаний. Впрочем, до создания реальных систем пока далеко. Выпуск Rhea намечен только на конец 2022 года, а производиться он будет на мощностях TSMC.

Но гораздо интереснее, будет ли связка Rhea + Ponte Vecchio считаться достаточно «европейской» для целей импортозамещения. Впрочем, для программы EuroHPC она сгодится. SiPearl уже является участником ряда проектов Евросоюза по повышению независимости от зарубежных технологий, включая и инициативу European Processor Initiative (EPI). В сентябре этот проект получил первые тестовые образцы EPAC1.0, ещё одного европейского чипа для HPC-систем, но уже на базе RISC-V и 22-нм техпроцесса GlobalFoundries.

Постоянный URL: http://servernews.ru/1052376
27.10.2021 [18:22], Игорь Осколков

«Гаоди Рус» представила первую инженерную плату для серверных процессоров Baikal-S

Российская компания «Гаоди Рус» (DANNIE Group) разработала первую инженерную плату для российских же серверных Arm-процессоров Baikal-S (BE-S1000). Материнская плата, ориентированная на разработчиков, произведена «РУТЕК». Именно она будет использоваться для первой партии тестовых чипов Baikal-S.

16-нм процессоры Baikal-S имеют 48 ядер Arm Cortex-A75 с частотой до 2,2 ГГц, TDP 120 Вт, поддержку шести каналов памяти DDR4-3200 ECC (до 128 Гбайт на канал) и 80 линий PCIe 4.0, а также позволяет объединить в одной системе до четырёх CPU. Процессор имеет BGA-упаковку с габаритами 58 × 75,5 мм.

Поскольку инженерная плата предназначена для отладки и разработки, она имеет весьма «свободную» компоновку. На плате имеется аж 14 разъёмов PCIe различной конфигурации, но фактически выведено только пять интерфейсов PCIe. Всё это нужно для проверки совместимости в разных режимах работы. Также выведены Ethernet (2 порта RJ-45) и USB. Ожидаемо есть и ряд низкоуровневых интерфейсов: UART, JTAG, GPIO, I2C/SMBus2.

Плата оснащена 12-ю DIMM-слотами для оперативной памяти (2DPC), собственным управляющим контроллером (на базе STM32), а также светодиодной индикацией режимов работы платы и состояния доменов питания. Питается новинка от стандартного ATX-блока. По словам создателей, «на сегодняшний день это уникальный продукт на российском рынке электроники».

Постоянный URL: http://servernews.ru/1052346
27.10.2021 [10:10], Владимир Мироненко

EK Water Blocks выпустила водоблоки для NVIDIA RTX A6000 и A100

Словенская компания EK Water Blocks представила водоблоки для ускорителей корпоративного класса NVIDIA RTX A6000 и NVIDIA A100. Новые водоблоки полного покрытия имеют никелированное медное основание, обработанное на станке с ЧПУ, и верхнюю часть из нержавеющей стали, изготовленную с использованием лазера. Новинки позволят снизить уровень шума и повысить эффективность охлаждения мощных ускорителей, а также позволят создать более компактные и производительные рабочие станции.

Водоблок EK-Pro GPU WB RTX A6000 полного покрытия напрямую отводит тепло от графического процессора, VRAM и VRM с распределением потока охлаждающей жидкости непосредственно над их поверхностью. Для водоблока использовался дизайн Open Split-Flow, характеризующийся низким сопротивлением гидравлического потока, благодаря чему его можно использовать с менее мощными или низкоскоростными помпами, не теряя в производительности.

Конструкция обеспечивает равномерное распределения потока с минимальными потерями и оптимальную производительность даже при использовании в сценариях с обратным потоком воды. Основание блока изготовлено на станке с ЧПУ из никелированной меди, а верхняя часть вырезана лазером из нержавеющей стали промышленного класса. Герметичность обеспечивается высококачественными уплотнительными кольцами из EPDM.

Латунные фитинги (G ¼”) устанавливаются на торце, что упрощает процедуру сборки СЖО и позволяет использовать водоблок даже в ограниченном пространстве. Идущая в комплекте крепёжная планка не только украшает видеокарту, но и повышает общую жёсткость конструкции, обеспечивая при этом дополнительное охлаждение зоны VRM с обратной печатной платы.

EK-Pro GPU WB A100 имеет все те же преимущества, что и модель для A6000. Это водоблокок полного покрытия с конструкцией Open Split-Flow, основанием из никелированной меди и верхней крышкой из «нержавейки», латунными фитингами G ¼” и EPDM-уплотнителями. Создатели отдельно подчёркивают, что I/O-планка является единым целым с верхней крышкой, что важно для сохранения прочности всеё конструкции и надёжности крепления.

Производство водоблоков EK Water Blocks расположено в Словении, заказать их можно на официальном сайте EK Webshop. Цена новинок — €259,90. В комплекте поставляются все необходимые для сборки и установки компоненты.

Постоянный URL: http://servernews.ru/1052244
27.10.2021 [01:44], Игорь Осколков

Похоже, у Китая уже есть сразу два экзафлопсных суперкомпьютера — больше таких систем нет ни у кого, даже у США

То, чего многие ждали и опасались, похоже, случилось. Издание The Next Platform получило от доверенного источника первое подтверждение циркулировавших несколько месяцев слухов о том, что Китай успешно преодолел экзафлопсный барьер. Причём сделал это ещё весной этого года и на двух независимых суперкомпьютерах с чипами собственной разработки, но публиковать результаты в TOP500 не стал.

Если появятся и другие подтверждения, что, как ожидается, случится в середине ноября, то это будет означать проигрыш США в HPC-гонке, поскольку завершение ввода в эксплуатацию Frontier — первой в США и, как изначально предполагалось, в мире системы экзафлопсного класса — запланировано только на следующий год. Ожидается, что её пиковая производительность составит 1,5 Эфлопс, а устоявшаяся — 1,3 Эфлопс.

О планах по созданию экзафлопсных систем Китай официально объявил в 2019 году. Тогда было анонсировано сразу три проекта: Национальный университет оборонных технологий (National University of Defense Technology, NUDT) должен был развивать системы Sunway, Национальный исследовательский центр параллельной вычислительной техники (National Research Center of Parallel Computer, NRCPC) ответственен за доработку платформ Tianhe, а Sugon планировала задействовать процессоры Hygon (клон первого поколения AMD EPYC) и ускорители собственной разработки, но, вероятно, в этом деле не очень преуспела.

Точные конфигурации обоих суперкомпьютеров доподлинно неизвестны, поскольку на этот раз Китай решил не хвастаться достигнутыми результатами. Тем не менее, кое-какие сведения всё же есть. Наследник TaihuLight под кодовым именем Oceanlite на базе нового поколения чипов Sunway (ShenWei) имеет минимум 42 млн ядер и пиковую производительность 1,3 Эфлопс в HPL. Устоявшуася производительность составляет 1,05 Эфлопс, а в FP16-вычислениях — 4,4 Эфлопс. Предполагается, что чипы Oceanlite по сравнению с ShenWei 26010 имеют вдвое больше вычислительных блоков на единицу площади, да и число самих чипов также выросло в два раза. При этом энергопотребление суперкомпьютера составляет 35 МВт.

Прототип Tianhe-3. Фото: Xinhua

Прототип Tianhe-3. Фото: Xinhua

Вторая система, условно называемая Tiahne-3, также имеет пиковую производительность 1,3 Эфлопс, но данных о потребляемой мощности нет. Зато об её чипах известно чуть больше — за их разработку отвечает Phytium, росту которой в своё время помог запрет на поставку Intel Xeon для китайских суперкомпьютеров. В активе компании есть собственные 7-нм Arm-процессоры FeiTeng и ускорители (DSP) серии Matrix. Похоже, компания успела получить нужные объёмы чипов до того, как TSMC прекратила их выпуск под давлением США.

Постоянный URL: http://servernews.ru/1052267
26.10.2021 [22:45], Игорь Осколков

Получена первая партия российских серверных Arm-процессоров Baikal-S: 48 ядер, 6 каналов DDR4-3200 и 80 линий PCIe 4.0

Компания «Байкал Электроникс» сообщила о получении первой партии инженерных образцов серверных Arm-процессоров Baikal-S объёмом 400 шт. Следующую партию компания ожидает получить в первом квартале следующего года, а первые массовые поставки (партия более 10 тыс. шт.) должны начаться до конца третьего квартала. Инженерные платы для разработчиков, созданы «Гаоди рус» (Dannie Group) и выпущены компанией «Рутек».

Baikal-S, изготавливаемый по 16-нм техпроцессу на TSMC, имеет 48 ядер Arm Cortex-A75 на базе достаточно свежей 64-бит архитектуры ARMv8.2-A, которая была анонсирована в 2017 году. Частота составляет до 2,2 ГГц, а уровень TDP равен 120 Вт. Заявленный диапазон рабочих температур простирается от 0 до +70 °C. Производительность в HPL составляет 385 Гфлопс, а рейтинг в SPEC CPU2006 INT — до 600. Ориентировочная цена одного процессора ожидается на уровне $3 тыс.

L1-кеш имеет объём по 64 Кбайт для данных и инструкций, а L2 — 512 Кбайт на ядро. Любопытно, что в дополнение к L3-кешу (по 2 Мбайт на кластер) есть ещё и L4-кеш на 32 Мбайт. Контроллер памяти имеет шесть каналов DDR4-3200 ECC и обслуживает до 128 Гбайт на канал (суммарно 768 Гбайт на сокет). Кроме того, каждый процессор имеет 80 линий PCIe 4.0, из которых 48 линий делятся тремя интерфейсами CCIX x16. Также есть пара 1GbE-интерфейсов.

Источник: CNews

Источник: CNews

При этом новинка поддерживает аппаратную виртуализацию, Arm TrustZone и позволяет создавать четырёхсокетные платформы. Всё это делает её привлекательным решением не только для традиционных серверов и СХД, но и для и HCI- и HPC-систем. С экосистемой ПО проблемы вряд ли будут. Во-первых, для «малого» Байкал-М уже сейчас есть отечественные ОС и другие продукты. Во-вторых, серверные платформы Arm в мире развивают сразу несколько игроков, да и сама Arm стимулирует процесс разработки и портирования ПО. Кроме того, «Байкал Электроникс» имеет тесные связи с ГК Astra Linux.

Постоянный URL: http://servernews.ru/1052259
26.10.2021 [17:18], Сергей Карасёв

Платформа для разработчиков ADLINK AVA Developer Platform выполнена на чипе Ampere Altra

ADLINK анонсировала платформу AVA Developer Platform, ориентированную на разработчиков приложений под архитектуру Arm. В основу решения положен вычислительный модуль COM-HPC с процессором Ampere Altra: 32 ядра, 3,3 ГГц, TDP 60 Вт. Платформа располагает 32 Гбайт оперативной памяти DDR4 и NVMe SSD M.2 вместимостью 128 Гбайт. Есть дополнительный разъём M.2 и два порта SATA для подключения устройств хранения данных.

В оснащение входит карта расширения Intel Quad X710 10GbE LAN с четырьмя портами 10GbE. Кроме того, выведены ещё один разъём 1GbE и есть выделенный сетевой порт управления. В тыльной части находятся гнёзда RJ45 для сетевых кабелей, четыре порта USB 3.0 и два порта USB 2.0, аналоговый интерфейс D-Sub для вывода изображения, а также последовательный порт.

Платформа оборудована блоком питания мощностью 750 Вт. На верхнюю панель выведены два порта USB 3.0, а также комбинированное 3,5-мм гнездо для наушников/микрофона. Система имеет сертификацию Arm SystemReady, что упрощает установку совместимых Linux-дистрибутивов. Приобрести станцию можно по ориентировочной цене $5450.

Постоянный URL: http://servernews.ru/1052215
26.10.2021 [15:55], Руслан Авдеев

Минобрнауки пересмотрит принципы развития российской суперкомпьютерной инфраструктуры

В ближайшие месяцы Министерство науки и высшего образования России намерено пересмотреть концепцию развития суперкомпьютерной инфраструктуры в стране. До конца года в министерстве определят и структуру сети отечественных суперкомпьютеров.

Как сообщил журналистам ТАСС начальник отдела прикладной вычислительной инфраструктуры департамента цифрового развития министерства Александр Матюнин, к середине ноября специальная рабочая группа проведёт оценки необходимых вычислительных мощностей и типов востребованных в будущем высокопроизводительных вычислений (HPC) в науке, образовании и промышленности. А в декабре она намерена пересмотреть прогнозы развития суперкомпьютерных и грид-технологий на срок до 2031 года.

Дополнительно представители министерства доработают и концепцию развития суперкомпьютерной инфраструктуры в стране. Ожидается, что к окончанию заданного периода в России будет функционировать на проектной мощности сеть суперкомпьютерных центров, благодаря которым учёные и учреждения высшего образования получат доступ к высокопроизводительным вычислениям современного уровня.

По словам представителей министерства оценка развития инфраструктуры будет проводиться на годы вперёд: будет переработана Концепция развития суперкомпьютерной инфраструктуры в соответствии с поставленными целями, на десять лет вперёд определены модель и структура сети суперкомпьютеров, а также этапы и параметры роста производительности оборудования.

Ранее президент РАН Александр Сергеев сообщил, что страна более, чем в 100 раз отстаёт по производительности суперкомпьютеров от «ведущего мирового уровня». В последнем списке TOP500 самых быстрых суперкомпьютеров в мире есть всего три российских машины: Кристофари (Сбер, 61 место), Ломоносов-2 (МГУ, 199 место) и MTS GROM (#CloudMTS, 240 место).

Постоянный URL: http://servernews.ru/1052214
26.10.2021 [14:46], Сергей Карасёв

ИИ для лайков и рекламы: Facebook потратит до $34 млрд на обновление дата-центров и прочей инфраструктуры

Facebook обнародовала отчёт о результатах деятельности в третьем квартале текущего финансового года. По ключевым показателям зафиксирован значительный рост в годовом исчислении. Так, выручка за трёхмесячный период составила приблизительно $29,01 млрд., что более чем на треть (на 35 %) превосходит результат годичной давности ($21,47 млрд), а чистая прибыль составила $9,19 млрд. И компания уже знает, на что потратит эти деньги.

Капитальные расходы по итогам текущего года по скорректированным расчётам составят около $19 млрд. Однако в следующем году они резко вырастут — компания планирует потратить от $29 до $34 млрд. Как и у большинства других гиперскейлеров, основная часть затрат приходится на инфраструктуру. Компания прямо говорит об инвестициях в центры обработки данных, серверные платформы, сетевую инфраструктуру и офисные помещения.

Изображение: pixabay.com

Изображение: pixabay.com

Резкий рост расходов обусловлен желанием Facebook активно развивать средства искусственного интеллекта и машинного обучения. С их помощью компания надеется повысить эффективность ранжирования и рекомендательной системы, в том числе в лентах и видео, но не только — Facebook задействует новые системы и для повышения эффективности и релевантности рекламы.

Какие именно аппаратные решения будут использоваться, компания не раскрывает. Но аналитики предполагают, что от обновления серверного парка выиграют в первую очередь Intel и NVIDIA. Первая, вероятно, будет дополнительно поставлять IPU, а вторая — ускорители. Выгоду получат и производители NAND и DRAM, а также поставщики электрооборудования.

Постоянный URL: http://servernews.ru/1052198
26.10.2021 [13:31], Алексей Степин

Гиперконвергентная платформа HPE SimpliVity: простота, единство, универсальность

Классические принципы построения ЦОД постепенно отходят в прошлое, как не обеспечивающие оптимального соотношения затрат к получаемой эффективности. На смену им идут гиперконвергентные и даже компонуемые среды — унифицированные, удобные в управлении и экономичные в плане финансовых затрат.

Решение HPE SimpliVity позволит легко развернуть гиперконвергентную платформу корпоративного класса, обеспечивая при этом надёжность, отказоустойчивость и безопасность. А единая интеллектуальная среда управления снизит затраты на обслуживание такой платформы.

Сегодня различные предприятия и компании стремятся ускорить обработку данных или выпуск приложений, поскольку законы конкурентной гонки неумолимы: каждый день задержки может означать серьёзные убытки или обернуться недополученной прибылью. В этих условиях серьёзную проблему представляют периферийные отделы, базирующиеся на классических принципах построения ИТ-инфраструктуры.

Устаревшее и разрозненное оборудование, отсутствие места для размещения новых мощностей плюс растущий не по дням, а по часам трафик с периферии, с которым старая инфраструктура уже не справляется. А если добавить к этому растущие расходы на облачные услуги, картина складывается довольно безрадостная. Но компания HPE предлагает решение этих проблем с помощью гиперконвергентной платформы HPE SimpliVity.

HPE SimpliVity являет собой унифицированную программно-аппаратную платформу, в основе которой лежат зарекомендовавшие себя серверы HPE ProLiant. Так, в качестве основного узла SimpliVity 380 используется сервер HPE ProLiant DL380 Gen10. При этом доступны не только относительно крупные конфигурации SimpliVity, но и совсем небольшие, состоящие буквально из одного-двух узлов, что отлично подойдёт для удалённых офисов и филиалов, а также для малого бизнеса. По сути, данная платформа специально оптимизирована для использования на периферии, поскольку весьма проста в управлении и весьма экономична в отношении расходуемых ресурсов, в том числе дисковых.

При этом система легко масштабируется. До 16 узлов в одном кластере и 96 узлов в режиме федерации. Сами узлы могут иметь различные конфигурации и нести на борту 1 или 2 процессора Xeon Scalable и до 3 Тбайт оперативной памяти. Подсистема хранения данных имеет ещё больше опций — как all-flash, так и гибридные варианты на базе SSD с HDD. Доступны варианты XS, S, M, L и XL.

SimpliVity 380

SimpliVity 380

Но выбор заказчика не ограничен процессорами Intel Xeon. Новый узел HPE SimpliVity 325 построен на базе сервера HPE ProLiant DL325 и процессоров AMD EPYC. При этом он поддерживает процессоры вплоть до 64-ядерных, до 2 Тбайт памяти и до 6 накопителей SSD объёмом 1,92 Тбайт.

SimpliVity 325

SimpliVity 325

HPE SimpliVity имеет встроенную систему резервного копирования виртуальных машин. По данным HPE, восстановление виртуальной машины объёмом 1 Тбайт занимает менее 60 с, а общий уровень затрат на организацию системы резервного копирования может быть снижен почти на 70%. За счёт дедупликации и компрессии достигается высокая эффективность использования дискового пространства — до 90% экономии пространства для хранения данных в сравнении с классическими системами. Это рекордный показатель.

Управление виртуальными машинами осуществляется на основе политик, а интегрированные средства обеспечения отказоустойчивости и резервного копирования защитят данные от повреждения или атак злоумышленников. В случае сбоя обеспечивается быстрое восстановление данных из резервных копий, что минимизирует время простоя инфраструктуры, а значит, и потенциальные убытки.

Пример сводки InfoSight. Система заметила рост времени отклика, предполагает перегрузку ЦП дисковыми операциями и выдает рекомендации

За мониторинг ресурсов кластера HPE SimpliVity отвечает среда HPE InfoSight. Она предоставляет подробнейшие отчеты об использовании ресурсов, и благодаря продвинутой предиктивной аналитике может прогнозировать будущие потребности в таких ресурсах, а также предупредит о возможных проблемах с безопасностью и о вероятных аппаратных неполадках, таких, как выход из строя дисковых накопителей.

Продиагностировать состояние инфраструктуры SimpliVity можно даже с обычного планшета

Продиагностировать состояние инфраструктуры SimpliVity можно даже с обычного планшета

Простая и удобная панель отображает состояние «здоровья» каждого узла SimpliVity. Просто взглянув на неё, можно узнать, какие факторы в данный момент ограничивают производительность системы и получить список рекомендаций по исправлению ситуации — например, подключить дополнительный узел, который снимет часть нагрузки с перегруженного участка или заменить дисковые контроллеры на более производительные. Преимущества такого подхода очевидны и за предиктивной аналитикой будущее, но HPE SimpliVity позволяет реализовать это будущее уже сейчас.

Мониторинг кластера HPE SimpliVity с помощью InfoSight

Примеров внедрения SimpliVity уже немало: так, известно, что сегодня гонки Формулы-1 означают не только скорость болидов и мастерство пилотов, но и весьма сложную ИТ-инфраструктуру. Команда Aston Martin Red Bull Racing столкнулась с тем, что существующие решения уже не удовлетворяют её запросам — они просто не справляются с возросшим потоком данных (один болид за пару дней гонок генерирует около 400 Гбайт данных), а использование 500 различных виртуальных машин на разрозненном оборудовании представляло собой прекрасный пример неконтролируемого разрастания инфраструктуры.

В результате принятого решения о переходе на гиперконвергентную систему HPE SimpliVity команде удалось вдвое сократить время на обработку данных каждой гонки, а при считывании данных с каждого болида — с 9 до 2 минут, что критично в таком спорте, где счёт уже на доли секунд.

Опрос, проведённый CRN, принёс HPE SimpliVity статус «продукт года» в 2019 году, и эта награда платформой вполне заслужена. Сегодня SimpliVity стала ещё более гибкой, но при этом не утратила всех преимуществ единой гиперконвергентной среды, способной максимально упростить затраты на обслуживание ИТ-инфраструктуры. Она обеспечивает оркестрацию тысяч виртуальных машин без простоя на резервное копирование и восстановление, при этом оставаясь предельно простой в управлении. А новые средства машинной аналитики позволяют предсказать и предотвратить большую часть возможных проблем, и не только их, но и избежать лишних затрат на срочную модернизацию системы, ведь её необходимость можно спрогнозировать и спланировать заранее.

HPE по праву гордится статусом наиболее полной гарантии в отрасли и называет SimpliVity единственным современным гиперконвергентным решением, сочетающим в себе производительность нужного уровня с безопасностью, отказоустойчивостью и совместимостью с современной «облачной экономикой», которое подойдёт любому бизнесу, в том числе, и достаточно крупному, имеющему дело с тысячами виртуальных машин и рабочих мест. При этом масштабы на простоту работы с HPE SimpliVity практически не влияют — политики управления и резервирования развёртываются менее, чем за минуту.

В HPE SimpliVity простота соседствует с серьёзными масштабами

В HPE SimpliVity простота соседствует с серьёзными масштабами

Компания OCS, официальный авторизованный дистрибьютор решений HPE в России, предлагает опробовать HPE SimpliVity и HPE InfoSight в действии и поможет проработать проект ЦОД именно под нужды заказчика. Профессионалы с огромным опытом работы создадут и подготовят к внедрению проект любой сложности, и при этом не придётся прибегать к услугам сторонних компаний.

Оформить заказ тестового оборудования можно здесь, это позволит убедиться в эффективности HPE SimpliVity до принятия решения о покупке оборудования. OCS имеет представительства во всех регионах России (всего 26 городов) и позволяет заказать всё оборудование в одном месте, что упростит и удешевит развёртывание будущей ИТ-инфраструктуры заказчика. Возможно предоставление дополнительных услуг и специальных кредитных условий.

Постоянный URL: http://servernews.ru/1049854
Система Orphus