Материалы по тегу: погружное охлаждение

19.02.2021 [16:11], Сергей Карасёв

Эльбрусы подружат с российскими погружными СЖО Liquid Cube

«Инпро Технолоджис» и «НОРСИ-ТРАНС» объявили о совместном проекте по созданию отечественного решения на основе процессоров «Эльбрус» для использования в программно-аппаратных комплексах с непосредственным жидкостным охлаждением (НЖО).

«Инпро Технолоджис» является разработчиком вычислительно-коммуникационных комплексов Liquid Cube. Такие решения оборудованы инновационной системой прямого иммерсионного (погружного) жидкостного охлаждения без фазового перехода, обеспечивающей термостабильный режим работы электронных компонентов.

Liquid Cube позволяет компактно разместить оборудование ёмкостью от 16U с удельной мощностью до 2 кВт на юнит. PUE системы достигает 1,05, а уровень шума не превышает 35 дБ. Такое решение, по словам создателей, позволяет снизить расходы на эксплутацию более чем на 30%, а также продлить срок службы оборудования.

В рамках совместного проекта с «НОРСИ-ТРАНС» планируется создать полностью импортонезависимое решение, объединяющее преимущества Liquid Cube и отечественных серверных решений. Партнёры уже приступили к разработке типовых элементов ИТ-инфраструктуры на базе платформы «Эльбрус» для применения в составе комплексов Liquid Cube.

«Комплексы на основе решений "Инпро Технолоджис" практически бесшумны, не подвержены негативному воздействию таких внешних факторов, как пыль, влажность и статическое электричество, и их можно развёртывать в кратчайшие сроки в помещении любого типа», — говорится в совместном заявлении компаний.

Постоянный URL: http://servernews.ru/1033036
06.01.2021 [21:54], Алексей Степин

Крупные дата-центры присматриваются к погружному охлаждению

Традиционно серверные помещения в ЦОД используют воздушную схему охлаждения: в серверах имеются свои вентиляторы, а между стойками организуются «горячие» и «холодные» коридоры. Но мощности растут, вместе с ними растёт тепловыделение процессоров и ускорителей. Именно поэтому, в свете появления новых серверных процессоров Intel и AMD, а также ускорителей NVIDIA A100 и AMD MI100, владельцы крупных ЦОД стали активнее присматриваться к более прогрессивным методам охлаждения — жидкостным.

Теплоноситель кипит, но совершенно безопасен

Теплоноситель кипит, но совершенно безопасен

Проблема не является надуманной: воздушные системы охлаждения в ЦОД с традиционной компоновкой уже работают на пределе своих возможностей, а новые поколения чипов обещают дальнейший рост тепловыделения. Так, процессоры Intel Ice Lake, которые сменят поколение Cooper Lake, будут иметь теплопакет в районе 250-300 ватт против прежних 150-250 ватт.

Третье поколение серверных процессоров AMD EPYC под кодовым названием Milan обещает прирост производительности около 15-20%, но следует ожидать и роста тепловыделения. Уже сейчас EPYC 7763 может выделять до 280 ватт. А ускоритель NVIDIA A100 легко выдаст и все 400 ватт. И именно поэтому крупные ЦОД смотрят в сторону альтернативных способов охлаждения.

Жидкостное охлаждение серверов может быть реализовано по-разному, но один из самых простых и эффективных способов — использование погружных ванн, наполненных высокомолекулярным электрически нейтральным теплоносителем. Такие жидкости, к примеру, выпускает компания 3M под марками Novec и Fluorinert. По заверениям производителя, эти жидкости не токсичны, не пожароопасны и нейтральны к любым материалам, но при этом обладают нужными для реализации высокопроизводительных СЖО тепловыми характеристиками.

Гигантский китайский концерн Alibaba уже использует погружные системы охлаждения для своих серверов, хотя и не во всех ЦОД. Google планирует ускорить работы по этой технологии, а Microsoft и Facebook пока находятся на тестовой стадии (proof of concept), но также планируют начать внедрение погружных систем охлаждения в своих ЦОД в этом году — сообщает Digitimes. Впрочем, это далеко не первые эксперименты. Та же Facebook занималась ими ещё в 2012 году.

Погружная двухфазная СЖО GIGABYTE, вид спереди

Погружная двухфазная СЖО GIGABYTE, вид спереди

Такие системы отличаются простотой: по сути, серверы в открытом виде просто помещаются в ванну с жидкостью (не считая систем второй фазы, передающих тепло основным кондиционерам ЦОД); при этом в первичном контуре не требуется никаких водоблоков, дополнительных помп, шлангов и разветвителей, а значит, процесс обслуживания упрощается. Погружная система является самой дешёвой в реализации среди серверных СЖО, что для крупных ЦОД выливается в экономию существенных сумм. Этим и объясняется интерес крупных ИТ-компаний к такого рода системам охлаждения. 2021 год обещает стать годом «купания» серверов.

Постоянный URL: http://servernews.ru/1029418
13.11.2020 [14:57], Сергей Карасёв

Иммерсионные СЖО и роботы-техники в дата-центре Alibaba Cloud

Китайский гигант Alibaba рассказал о некоторых особенностях функционирования своей масштабной облачной платформы, которая поддерживает работу всевозможных сервисов электронной коммерции, а также предоставляет вычислительные ресурсы сторонним заказчикам.

Речь идёт о площадке Alibaba Cloud. Она входит в четвёрку ведущих мировых облачных провайдеров вместе с Amazon Web Services (AWS), Microsoft Azure и Google Cloud. По итогам третьего квартала текущего года доля Alibaba Cloud в общем объёме глобального рынка облачных услуг составила 6 % в денежном выражении.

Платформе Alibaba Cloud приходится справляться с огромными нагрузками. К примеру, на недавней распродаже в «День холостяков», который в Китай отмечался 11.11, количество сделок в пике достигло 583 тысяч в секунду. Россияне потратили на площадке 19,3  млрд рублей, из них 4 млрд — в первый же час распродажи.

Источник: Alibaba Cloud

Для обеспечения надёжности в таких условиях Alibaba ищет, разрабатывает и тестирует специальные технические решения. К примеру, Alibaba Cloud использует роботов-техников для замены проблемных накопителей. Такие машины самостоятельно находят и извлекают сбоящие жёсткие диски из стоек и устанавливают на их место новые.

Источник: Alibaba Cloud

Кроме того, в одном из ЦОД компании внедрена иммерсионная система охлаждения: часть оборудования погружена в непроводящую жидкость, что обеспечивает эффективный отвод тепла и высокую плотность размещения компонентов. Говорится, что такой подход на 70% более энергоэффективнее традиционных, а показатель PUE приближется к максимально возможному значению 1.0.

Постоянный URL: http://servernews.ru/1025313
02.11.2020 [23:11], Игорь Осколков

Submer MicroPod: микро-ЦОД с погружным охлаждением

Компания Submer, разработчик иммерсионных систем охлаждения для дата-центров, представила MicroPod — компактное решение всё-в-одном, которое объединяет в одном шасси ванну для теплоносителя и оборудования (6U, глубина до 600 мм) и теплообменник. MicroPod способен отвести до 5кВт тепла под прямыми солнечными лучами или до 6,6 кВт при установке в помещении.

Диапазон рабочих температур MicroPod: от +5° до +40°C. Максимальное потребление не превышает 3,95 кВт. Питается устройство от сети 380-400 В или 203-230 В. Также доступны различные опции резервного питания от батарей, способные обеспечить до 40 минут автономной работы.

Габариты устройства составляют 130 × 65 × 90 см. Масса в снаряжённом состоянии, то есть с серверами и фирменным теплоносителем SmartCoolant (96 л), составляет примерно 340 кг. Нетрудно догадаться, что с такими габаритами и занимаемой площадью (0,845 м2) Submer MicroPod в первую очередь ориентирован на развёртывание микро-ЦОД для периферийных вычислений.

Компания утверждает, что её решение совместимо с любым IT-оборудованием, и благодаря иммерсионному охлаждению интенсивность его отказов на 60% меньше, а срок жизни на 30% больше в сравнении с традиционными системами. При этом оно позволяет сэкономить 25-40% на совокупной стоимости владения и до 95% — непосредственно на охлаждении.

Постоянный URL: http://servernews.ru/1024415
19.05.2020 [01:19], Алексей Степин

Asperitas пересматривает подход к погружному охлаждению и осваивает европейские ЦОД

Жидкостное охлаждение давно не является чем-то новым для дата-центров, хотя и массовым его назваться нельзя. В данной сфере конкурируют между собой две концепции: «классическая» и погружная. Компания Asperitas, дебютировавшая на ISC 2017 с необычной системой охлаждения с неким вазелиновым маслом в качестве теплоносителя, считает, что за погружной конструкцией будущее.

Теперь компания предлагает новые, доступные решения для ЦОД высокой плотности.

В анонсе, опубликованном Asperitas, говорится, что индустрия претерпевает существенные изменения: новые поколения процессоров и ускорителей генерируют всё больше тепла и потребляют всё больше энергии, затрачиваемой и на охлаждение. На первое место выходят вопросы стоимости и энергетической эффективности.

Новая погружная система Asperitas Immersed Computing должна обеспечить снижение стоимости установки и эксплуатации на величину от 30% до 45%. При этом она на 80% компактнее систем аналогичной мощности и потребляет вдвое меньше энергии. К тому же она обеспечивает до 99% повторного использования выделенного серверами тепла, поскольку даёт на выходе пригодную для ряда целей горячую воду с температурой 55 градусов Цельсия.

В новой серии Immersed Computing представлено две разновидности СЖО ёмкостью 450 и 550 литров — для серверов шириной 15″ (AIC24-15) и 21″ (AIC24-21) соответственно. Новинки рассчитаны на установку 24 1U-серверов, что и отражено в номере модели.

В данных системах охлаждения Asperitas обеспечена повышенная надёжность за счёт отказа от каких-либо насосов — циркуляция жидкости в погружной ванне обеспечивается естественной конвекцией теплоносителя. Такая система практически не требует серьёзного техобслуживания, но при этом является модульной и легкорасширяемой.

Asperitas считает себя лидером погружного охлаждения для платформ Open Compute Project (OCP) и её системы изначально спроектированы с учётом распространённых стандартов, принятых OEM-производителями и системными интеграторами.

Конструкция типового сервера в новых системах очень проста — в шасси нет каких-либо активных элементов и предусмотрены окна для циркуляции теплоносителя. Asperitas Immersed Computing, по сути, состоит из ванны с жидкостью-теплоносителем, креплений для серверов, самих серверов и системы мониторинга. Благодаря своей компактности, новые комплексы Asperitas отлично подходят для небольших ЦОД и мест первичной обработки данных.

18 мая Asperitas заключила соглашение с maincubes, европейским оператором ЦОД. Компании планируют предлагать клиентам maincubes размещение вычислительных мощностей в дата-центре Amsterdam AMS01, охлаждать которые будут новые погружные комплексы Asperitas. Данный ЦОД известен тем, что в нём располагается важная европейская часть проекта OCP, Open Compute Project Experience Center.

Клиентам AMS01, таким как коммерческие компании, провайдеры облачных услуг и телеком-операторы, будет предложен полный комплект услуг на базе новой технологии охлаждения Asperitas. Как отмечено в анонсе, данная разработка особенно хорошо подходит для сценариев с высокоплотным размещением вычислительных мощностей.

В отличие от большинства погружных систем, использующих высокомолекулярные теплоносители 3M, Asperitas применяет разработанную совместно с Shell жидкость Immersion Cooling Fluid S5 X. Новый теплоноситель был создан с учётом повышенной плотности компонентов и наряду с хорошими термодинамическими характеристиками характеризуется великолепной текучестью. Этими технологиями заинтересовалась также Dell Technologies, недавно объявившая о начале ОЕМ-партнерства с Asperitas.

Постоянный URL: http://servernews.ru/1011245
10.12.2019 [16:44], Алексей Степин

Schneider Electric, Avnet и Iceotope выпустили новую систему с гибридным жидкостным охлаждением

Компания Schneider Electric заключила союз с Avnet и Iceotope с целью разработки систем для рынка машинного обучения, использующих жидкостное охлаждение. На конференции Gartner IT они анонсируют уже готовое решение, способное вместить 14 серверов с ускорителями ИИ.

Новый комплекс весьма интересен с технической точки зрения: он использует гибридный подход к охлаждению, но за словом «гибридный» в данном случае кроется не «водо-воздушный», как обычно. Речь идёт о совмещении классических систем жидкостного охлаждения с замкнутым контуром и погружных (immersive).

Поддон с установленным сервером

Поддон с установленным сервером

Каждый вычислительный сервер в шасси высотой 1U размещается в специальном герметичном поддоне Iceotope. По сути, он наполовину погружён в охлаждающую жидкость, хотя имеется и принудительная подача теплоносителя к водоблокам центральных процессоров и модулям вычислительных ускорителей. Протечки за пределами поддона исключены.

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

К сожалению, анонс не очень информативен, но на приведённых снимках видно, что каждый гибридный модуль охлаждения с сервером внутри занимает 2U, а всего в стойку помещается 14 таких модулей. На передние панели модулей герметично выведены разъёмы Ethernet, USB и VGA. В верхней части расположена пара коммутаторов ‒ управляющий и главный сетевой.

Передняя часть поддона

Передняя часть поддона

Разработчики говорят о более высокой эффективности охлаждения и практически полной бесшумности, но конкретных цифр, к сожалению, пока не приводят.

Постоянный URL: http://servernews.ru/999446
25.11.2019 [16:29], Андрей Созинов

SC19: TMGcore OTTO — автономный роботизированный микро-ЦОД с иммерсионной СЖО

Компания TMGcore представила в рамках прошедшей конференции SC19 свою весьма необычную систему OTTO.

Новинка является модульной платформой для создания автономных ЦОД, которая характеризуется высокой плотностью размещения аппаратного обеспечения, использует двухфазную иммерсионную систему жидкостного охлаждения, а также обладает роботизированной системой замены серверов.

Версия OTTO на 600 кВт

Версия OTTO на 600 кВт

Первое, что отмечает производитель в системе OTTO — это высокая плотность размещения аппаратного обеспечения. Система состоит из довольно компактных серверов, которые размещены в резервуаре с охлаждающей жидкость. Собственно, использование двухфазной иммерсионной системы жидкостного охлаждения и позволяет размещать «железо» с максимальной плотностью.

Версия OTTO на 60 кВт

Версия OTTO на 60 кВт

Всего OTTO будет доступна в трёх вариантах, рассчитанных на 60, 120 и 600 кВт. Системы состоят из одного или нескольких резервуаров для размещения серверов. Один такой резервуар имеет 12 слотов высотой 1U, в десяти из которых располагаются сервера, а ещё в двух — блоки питания. Также каждый резервуар снабжён шиной питания с рабочей мощностью 60 кВт. Отметим, что площадь, занимаемая самой большой 600-кВт системой OTTO составляет всего 14,9 м2.

В состав системы OTTO могут входить как эталонные серверы HydroBlades от самой TMGcore, так и решения от других производителей, прошедшие сертификацию «OTTO Ready». В последнем случае серверы должны использовать корпуса и компоновку, которые позволяют использовать их в иммерсионной системе охлаждения. Например, таким сервером является Dell EMC PowerEdge C4140.

В рамках конференции SC19 был продемонстрирован и фирменный сервер OTTOblade G1611. При высоте всего 1U он включает два процессора Intel Xeon Scalable, до 16 графических процессоров NVIDIA V100, до 1,5 Тбайт оперативной памяти и два 10- или 100-гигабитных интерфейса Ethernet либо одиночный InfiniBand 100G. Такой сервер обладает производительность в 2000 Тфлопс при вычислениях на тензорных ядрах.

Мощность описанной абзацем выше машины составляет 6 кВт, то есть в системе OTTO может работать от 10 до 100 таких машин. И охладить столь компактную и мощную систему способна только двухфазная погружная система жидкостного охлаждения. Он состоит из резервуара, заполненного охлаждающей жидкостью от 3M и Solvay, и теплообменника для конденсации испарившейся жидкости.

Для замены неисправных серверов система OTTO оснащена роботизированной рукой, которая способна производить замены в полностью автоматическом режиме. В корпусе OTTO имеется специальный отсек с резервными серверами, а также отсек для неисправных систем. Такой подход позволяет производить замену серверов без остановки всей системы, и позволяет избежать контакта человека с СЖО во время работы.

Изначально TMGcore специализировалась на системах для майнинга с иммерсионным охлаждением, а после перенесла свои разработки на обычные системы. Поэтому, в частности, описанный выше OTTOblade G1611 с натяжкой можно отнести к HPC-решениям, так как у него довольно слабый интерконнект, не слишком хорошо подходящий для решения классических задач. Впрочем, если рассматривать OTTO как именно автономный или пограничный (edge) микро-ЦОД, то решение имеет право на жизнь.

Постоянный URL: http://servernews.ru/998356
04.10.2019 [08:03], Владимир Мироненко

Schneider Electric с Iceotope будут разрабатывать иммерсионные СЖО для ЦОД

Schneider Electric объявила в четверг о заключении соглашения о сотрудничестве с Avnet и Iceotope с целью совместной разработки инновационных решений для иммерсионного жидкостного охлаждения для центров обработки данных (ЦОД).

Объявленное партнёрство объединяет трех крупных игроков: Avnet — в сфере сервисов по интеграции технологий, Iceotope — в разработке иммерсионных технологий охлаждения и Schneider Electric — в создании инфраструктурных решений для ЦОД.

«Приложения, требующие значительных вычислительных ресурсов, такие как искусственный интеллект и Интернет вещей, требуют более высокой производительности чипов. Наш количественный анализ методов жидкостного охлаждения свидетельствуют о его значительных преимуществах для рынка, — заявил Кевин Браун, технический директор и старший вице-президент по инновациям Secure Power, Schneider Electric. — Это партнёрство является следующим шагом в разработке решений, и мы рады сотрудничеству с Avnet и Iceotope».

У Schneider Electric уже имеется опыт сотрудничества с Iceotope в области исследований и разработок жидкостного охлаждения. Iceotope получила в 2014 году инвестиции в размере $10 млн в ходе раунда финансирования серии А во главе с Aster Capital. Эта сделка также способствовала установлению партнёрских отношений между Schneider Electric и Iceotope.

Партнёры говорят о том, что иммерсионное жидкостное охлаждение обеспечивает экономию капиталовложений и эксплуатационных расходов. 

Согласно предварительным расчётам Schneider Electric, решение с иммерсионным охлаждением с полным погружением в жидкость шасси по сравнению с традиционным решением с воздушным охлаждением требует на 15 % меньше капвложений и обеспечивает как минимум 10 % экономии электроэнергии, что приводит к экономии совокупной стоимости владения (TCO) на 20 лет в размере более 11 %.

Постоянный URL: http://servernews.ru/995069
26.09.2019 [23:23], Сергей Юртайкин

Серверы HPE получат иммерсионные СЖО GRC

Производитель иммерсионных СЖО для ЦОД GRC, ранее известный как Green Revolution Cooling, и корпорация Hewlett Packard Enterprise (HPE) объявили о сотрудничестве, в рамках которого технология GRC ICEraQ будет интегрирована с серверами HPE. Клиенты смогу получить комплексное, гибко настраивамое решение. 

Как отметили в GRC, совместное предложение компаний позволит заказчикам легко интегрировать оборудование HPE высокой плотности в любой существующий дата-центр без дополнительных затрат времени и расходов на изменение инфраструктуры ЦОД.

Владельцы серверов HPE с системами иммерсионного охлаждения GRC могут развёртывать оборудование с тепловой нагрузкой 2000 Вт на один юнит. Благодаря этому можно создавать вычислительные зоны высокой плотности практически без тепловых ограничений, которые есть у ЦОДов с воздушным охлаждением, сообщил архитектор GRC Брендон Мур (Brandon Moore).

HPE стала очередным OEM-партнёром GRC. Ранее было начато сотрудничество, например, с Supermicro.

Постоянный URL: http://servernews.ru/994720
16.11.2017 [08:51], Иван Грудцын

SC17: серверы Gigabyte, включая «подводный»

В экспозиции Gigabyte на выставке SC17 основное внимание было уделено серверам компании. Ассортимент систем для ресурсоёмких вычислений у Gigabyte Technology весьма широк, что и было продемонстрировано на стенде Colorado Convention Center.

Одним из прототипов оказался DO60-MR0 — универсальный корпус размером 735,7 × 600 × 1067 мм для серверных узлов, накопителей, блоков питания и элементов сетевой инфраструктуры. При проектировании корпуса был использован стандарт OU (Open U), обеспечивающий гибкость в размещении комплектующих. В число совместимых с DO60-MR0 серверных узлов вошли TO22-C20 и TO22-C21 на базе процессоров Intel Xeon Scalable (Skylake-SP), GPU-ориентированные T180-G23 и T180-G20 (до четырёх графических ускорителей в каждом), а также сетевое хранилище на 45 жёстких дисков T280-S3S.

Представленный на стенде Gigabyte двухузловой 2U-сервер H231-G20 на основе материнских плат MH61-HD3 с чипсетом C621 поддерживает процессоры Xeon Platinum, Gold, Silver и Bronze в конструктиве LGA3647 (всего четыре разъёма), установку двух двухслотовых графических адаптеров, 32 модулей оперативной памяти RDIMM/LRDIMM DDR4-2133/2400/2666 и 24 накопителей типоразмера 2,5 дюйма (20 × SATA/SAS, 4 × U.2). Источников питания в составе H231-G20 два — оба номиналом 2,2 кВт, с сертификатом 80 PLUS Platinum и внушительными 178,1 А по линии +12 В. Из остальных характеристик обращает на себя внимание наличие четырёх контроллеров Intel X550-AT2 (10-Гбит Ethernet). В комплект поставки включены четыре процессорных кулера, монтажный набор и модуль VROC. В упаковке сервер весит около 30 кг.

О соседнем продукте Gigabyte H261-N80 также известно немало, и, как и H231-G20, в продажу он пока не поступил. Данный сервер состоит из четырёх узлов, аналогичных тем, что используются в вышеописанной модели. Соответственно, почти все детали присутствуют в двойном количестве. Исключение составляют посадочные места для SAS/SATA и U.2-накопителей, которых в сумме по-прежнему 24, и блоки питания. Согласно спецификации H261-N80, уровень TDP каждого из восьми устанавливаемых процессоров Intel Xeon Scalable не должен превышать 165 Вт. Сервер занимает не так уж много пространства (820 × 440 × 87 мм) и весит 35 кг с комплектными аксессуарами.

Упоминаний о продукте H281-PE0 мы в Сети не обнаружили, и вполне возможно, что на SC17 он дебютировал впервые. Перед нами 2U-сервер, состоящий из четырёх узлов, как и H261-N80. У данной модели в сумме восемь разъёмов LGA3647, 96 слотов для оперативной памяти RDIMM/LRDIMM DDR4 (в полтора раза больше, чем у H261-N80), восемь 2,5-дюймовых отсеков для HDD/SSD, такое же количество каналов 10-Гбит Ethernet и целых шестнадцать разъёмов PCI Express 3.0 x16 для графических ускорителей.

Из трио серверов Gigabyte H231-G20/H261-N80/H281-PE0 последний почти наверняка будет дороже остальных. Системы могут решать совершенно разные задачи и комплектоваться исходя из потребностей конкретного заказчика. Впрочем, соотношение количества разъёмов для процессоров и ускорителей на базе GPU говорит о том, что перед нами точно не подобие AI-сервера NVIDIA DGX-1, где роль CPU вторична.

Серверные системы R181-340 и G291-280 рассчитаны на заказчиков с ограниченным бюджетом, исчисляющимся тысячами долларов, а не десятками тысяч. Бюджетный (кавычки по вкусу) 1U-сервер Gigabyte R181-340 на матплате MR91-FS0 с чипсетом C621 позволяет устанавливать два процессора Skylake-SP в 3647-контактные разъёмы и такое же количество графических ускорителей (с помощью адаптера можно добавить ещё две карты). Тепловыделение CPU допускается на уровне 205 Вт. Шестиканальный контроллер памяти Xeon Scalable сообщается с 24 слотами для оперативной памяти RDIMM/LRDIMM DDR4-2133/2400/2666. Для SATA/SAS-накопителей предусмотрены четыре 3,5-дюймовых отсека, также совместимые с 2,5-дюймовыми HDD/SSD. Сетевые возможности R181-340 представлены тремя портами Gigabit Ethernet, один из которых выделен для удалённого управления ресурсами системы. Питание сервера обеспечивается двумя 1200-Вт источниками с сертификатом 80 PLUS Platinum.

Gigabyte G291-280 предлагает более широкие возможности. Пространства в нём, в рамках форм-фактора 2U, значительно больше. Тайваньский производитель подчёркивает, что данная система прошла процедуру валидации NVIDIA и рекомендуется в качестве платформы для HPC-ускорителей Tesla — для них предусмотрены восемь разъёмов PCI Express 3.0 x16. Ещё два таких же слота можно занять другими, более компактными (HHHL) картами расширения. Основой G291-280 служит материнская плата MG51-G21 с двумя разъёмами LGA3647 для процессоров Xeon Scalable с TDP вплоть до 205 Вт. На PCB распаяны 24 разъёма RDIMM/LRDIMM DDR4, совместимых с ёмкими (до 64 Гбайт) модулями памяти, порты для подключения восьми 2,5-дюймовых жёстких дисков или твердотельных накопителей, два 10-Гбит Ethernet-контроллера и другие узлы. Мощность дуэта серверных блоков питания составляет 2200 Вт.

Всеобщее внимание привлекла система на основе матплаты MW51-HP0 с погружным охлаждением комплектующих. Для отвода тепла с поверхности процессора Intel семейства Xeon W (LGA2066) и пяти карт расширения оказалось достаточно жидкости 3M Novec. Циклически переходя из жидкого в парообразное состояние и наоборот, она позволяет экономить до 97 % электроэнергии, затрачиваемой на воздушное охлаждение аналогичного сервера. Это далеко не первая демонстрация возможностей 3M Novec и, вероятнее всего, предельная температура жидкости не превышает 60–65 °C, а компоненты системы не прогреваются под нагрузкой выше 80–85 °C.

Постоянный URL: http://servernews.ru/961545
Система Orphus