Материалы по тегу: охлаждение

21.09.2020 [21:21], Владимир Мироненко

Новый экологически дружественный облачный регион Microsoft появится в Аризоне в 2021 году

Компания Microsoft объявила о планах по запуску в Аризоне нового региона центров обработки данных, разработанного с учётом экологических требований и норм. Он станет третьим облачным регионом компании на западе США. Предполагается, что конструкция и функционирование новых ЦОД будут способствовать экологической безопасности объектов компании в Аризоне.

Компания сообщила о намерении получить в Аризоне золотой сертификат Leadership in Energy and Environmental Design (LEED), соответствие стандартам которого позволит дополнительно сохранить природные ресурсы, включая энергию и воду, сократить количество отходов и обеспечить здоровую среду обитания человека. Компания также заявила о стремлении к безотходной работе в новом регионе, что означает, что как минимум 90 % отходов не попадёт на свалки за счет сокращения объёмов, повторного использования и переработки.

Новый регион станет первым шагом в поддержке положительного водного баланса корпорации — к 2030 году Microsoft планирует отдавать большей чистой воды, чем потребляет сама. Не секрет, что для охлаждения современных дата-центров требуется очень много воды. Например, Google предпочитает скрывать данные об объёмах потребляемой воды даже от местных властей, так что инициатива Microsoft по более экономному расходованию и восстановлению воды в засушливой Аризоне видится позитивной идеей.

В дальнейшем корпорация планирует расширить такую практику и на другие проблемные в этом отношении регионы. Кроме того, корпорация планирует стать углеродно-нейтральной и уже наращивает использование энергии из возобновляемых источников, включая солнечные электростанции, расположенные в том числе в той же Аризоне.

Новый регион ЦОД будет предоставлять услуги облачных сервисов корпоративного уровня, построенные на доверительной основе. Для удовлетворения потребности клиентов в обеспечении высокой доступности и отказоустойчивости своих приложений, новый регион также будет включать зоны доступности, предоставляющие физическое местоположение ЦОД с независимым питанием, сетью и охлаждением для обеспечения их дополнительной устойчивости к сбоям.

Партнёр Microsoft по строительству Nox Innovations помогает строить эти экологически дружественные ЦОД с помощью Microsoft HoloLens 2, Microsoft Dynamics 365 Remote Assist и решения смешанной реальности VisualLive для визуализации данных информационного моделирования зданий (BIM) в виде голограмм и наложения трёхмерных изображений объектов в контексте физической среды.

Постоянный URL: http://servernews.ru/1021160
27.07.2020 [15:50], Сергей Карасёв

Dynatron представила серверный кулер K668 для чипов Intel LGA115x/1200

Производитель серверных систем охлаждения Dynatron анонсировал кулер небольшой высоты K668, предназначенный для использования с процессорами Intel LGA115x/1200. Новинка способна справляться с охлаждением чипов, чьё максимальное значение рассеиваемой тепловой энергии (показатель TDP) достигает 165 Вт.

Высота решения составляет 68 мм. Благодаря этому кулер может использоваться в серверах форм-фактора 2U и более, а также в рабочих станциях. Конструкция включает медный радиатор с тепловыми трубками и вентилятор диаметром 60 мм.

В зависимости от нагрузки скорость вращения вентилятора составляет от 1700 до 8500 оборотов в минуту, оно регулируется посредством ШИМ. Поток воздуха достигает 1,4 м3 в минуту (49,32 CFM), воздушное давление — 21,5 мм водяного столба. Максимальный уровень шума вентилятора достигает 58,2 дБа.

Общие габариты устройства составляют 81 × 80 × 68 мм, масса — приблизительно 700 граммов. В конструкции вентилятора применяется двойной шарикоподшипник. Заявленный срок службы — до 50 000 часов. При полной нагрузке  кулер потребляет 9,6 Вт.

Информации об ориентировочной цене кулера Dynatron K668 на данный момент, к сожалению, нет. 

Постоянный URL: http://servernews.ru/1016723
19.05.2020 [01:19], Алексей Степин

Asperitas пересматривает подход к погружному охлаждению и осваивает европейские ЦОД

Жидкостное охлаждение давно не является чем-то новым для дата-центров, хотя и массовым его назваться нельзя. В данной сфере конкурируют между собой две концепции: «классическая» и погружная. Компания Asperitas, дебютировавшая на ISC 2017 с необычной системой охлаждения с неким вазелиновым маслом в качестве теплоносителя, считает, что за погружной конструкцией будущее.

Теперь компания предлагает новые, доступные решения для ЦОД высокой плотности.

В анонсе, опубликованном Asperitas, говорится, что индустрия претерпевает существенные изменения: новые поколения процессоров и ускорителей генерируют всё больше тепла и потребляют всё больше энергии, затрачиваемой и на охлаждение. На первое место выходят вопросы стоимости и энергетической эффективности.

Новая погружная система Asperitas Immersed Computing должна обеспечить снижение стоимости установки и эксплуатации на величину от 30% до 45%. При этом она на 80% компактнее систем аналогичной мощности и потребляет вдвое меньше энергии. К тому же она обеспечивает до 99% повторного использования выделенного серверами тепла, поскольку даёт на выходе пригодную для ряда целей горячую воду с температурой 55 градусов Цельсия.

В новой серии Immersed Computing представлено две разновидности СЖО ёмкостью 450 и 550 литров — для серверов шириной 15″ (AIC24-15) и 21″ (AIC24-21) соответственно. Новинки рассчитаны на установку 24 1U-серверов, что и отражено в номере модели.

В данных системах охлаждения Asperitas обеспечена повышенная надёжность за счёт отказа от каких-либо насосов — циркуляция жидкости в погружной ванне обеспечивается естественной конвекцией теплоносителя. Такая система практически не требует серьёзного техобслуживания, но при этом является модульной и легкорасширяемой.

Asperitas считает себя лидером погружного охлаждения для платформ Open Compute Project (OCP) и её системы изначально спроектированы с учётом распространённых стандартов, принятых OEM-производителями и системными интеграторами.

Конструкция типового сервера в новых системах очень проста — в шасси нет каких-либо активных элементов и предусмотрены окна для циркуляции теплоносителя. Asperitas Immersed Computing, по сути, состоит из ванны с жидкостью-теплоносителем, креплений для серверов, самих серверов и системы мониторинга. Благодаря своей компактности, новые комплексы Asperitas отлично подходят для небольших ЦОД и мест первичной обработки данных.

18 мая Asperitas заключила соглашение с maincubes, европейским оператором ЦОД. Компании планируют предлагать клиентам maincubes размещение вычислительных мощностей в дата-центре Amsterdam AMS01, охлаждать которые будут новые погружные комплексы Asperitas. Данный ЦОД известен тем, что в нём располагается важная европейская часть проекта OCP, Open Compute Project Experience Center.

Клиентам AMS01, таким как коммерческие компании, провайдеры облачных услуг и телеком-операторы, будет предложен полный комплект услуг на базе новой технологии охлаждения Asperitas. Как отмечено в анонсе, данная разработка особенно хорошо подходит для сценариев с высокоплотным размещением вычислительных мощностей.

В отличие от большинства погружных систем, использующих высокомолекулярные теплоносители 3M, Asperitas применяет разработанную совместно с Shell жидкость Immersion Cooling Fluid S5 X. Новый теплоноситель был создан с учётом повышенной плотности компонентов и наряду с хорошими термодинамическими характеристиками характеризуется великолепной текучестью. Этими технологиями заинтересовалась также Dell Technologies, недавно объявившая о начале ОЕМ-партнерства с Asperitas.

Постоянный URL: http://servernews.ru/1011245
28.04.2020 [19:54], Рамис Мубаракшин

AFCOM: плотность вычислительных мощностей в ЦОД резко выросла

Представители ассоциации специалистов по управлению дата-центрами AFCOM объявили об увеличении средней потребляемой мощности каждой стойки корпоративных дата-центров — за последние три года этот показатель вырос почти на целый киловатт (кВт). 

Компаниям необходимо искать способы решения сопутствующих проблем с охлаждением оборудования.

Если в 2018 и 2019 годах на стойку приходилось в среднем 7,2 и 7,3 кВт соответственно, то к 2020 году этот показатель составил уже 8,2 кВт. Ассоциация провела опрос, в котором 68% опрошенных компаний подтвердили увеличение потребляемой мощности, а 26% респондентов сообщили о «значительном увеличении». Эти показатели близки к данным 451 Research, которая прогнозирует повышение мощности до 11 кВт на стойку и более в течение 2020 года.

По словам автора отчета AFCOM Билла Клеймана (Bill Kleyman), в повышении потребляемой мощности нет ничего удивительного. Это явный признак того, что компании устанавливают в стойки все больше оборудования, которое с годами становится все компактнее — плотность размещения растёт. 

На данный момент все больше мощности требует работа приложений искусственного интеллекта. По данным 451 Research, одна стойка для обслуживания задач ИИ может содержать в себе до 30 компонентов и потреблять в среднем от 20 до 40 кВт.

Нынешние системы охлаждения едва ли могут справиться с выделяемым теплом, поэтому компаниям необходимо искать новые решения, так как большинство компаний всё ещё используют традиционное, воздушное охлаждение. Лишь небольшая часть поставщиков услуг задействовали жидкостное охлаждение, но в будущем их количество должно возрасти. А все потому, что плотность и потребляемая энергия будут повышаться и переход на более эффективные методы охлаждения неминуем. 

За последние 10 лет было развернуто много стоек с гораздо меньшей средними плотностью и мощностью. Так как производители серверного оборудования выпускают все более компактные продукты, в скором времени многие компании наверняка заменят их стойками с большой плотностью. Однако, по расчетам инженера по инфраструктуре Microsoft Марка Монро (Mark Monroe), на это может уйти еще десяток лет.

Постоянный URL: http://servernews.ru/1009636
17.04.2020 [14:38], Геннадий Детинич

Na-Ion аккумуляторы и необычное охлаждение: в США приступили к испытаниям нетрадиционных серверных решений

В феврале прошлого года в ЦОД провайдера H5 Data Centers запустили опытную систему охлаждения серверов, разработанную компанией Forced Physics. Сегодня в этот проект добавлено не менее интересное новшество ― система резервного питания на основе натриево-ионных аккумуляторов.

Тем самым H5 Data Centers реализовала уникальный пилотный проект на базе действующего ЦОД, что даст ценный опыт.

Система охлаждения JouleForce компании Forced Physics интересна сама по себе. Это сквозной короб-радиатор с V-образными крошечными алюминиевыми пластинами внутри. Воздух через короб прогоняют внешние вентиляторы, забирая (и фильтруя) его из окружающего межстоечного пространства. Горячий воздух на выходе коробов из стойки собирается и выводится за пределы машинного зала.

Горячие компоненты крепятся непосредственно к радиатору, а сам он способен отводить до 1200 Вт тепла. Никаких движущихся частей в СО нет, если не считать внешних вентиляторов, что является плюсом. Из очевидных минусов — такая система плохо совместима со стандартным оборудованием, но и сам производитель ориентируется на OCP-решения.

В целом, подход  JouleForceобещает упростить систему охлаждения серверами, поскольку заявляется, что для охлаждения стоек не нужен подвод специально кондиционированного воздуха. Также разработчик утверждает, что его система работает эффективнее, чем жидкостное охлаждение, а коэффициент PUE может достигать значения 1,02 или ниже в любом климате, что звучит уж слишком хорошо.

Опытная установка в ЦОД H5 Data Centers с охлаждением компании Forced Physics представлена 32-кВт OCP-стойками в стандартном 20-футовом (6-метровом) контейнере ISO. В таком формате и в сочетании с новыми элементами питания данное решение может оказаться привлекательным для периферийных вычислений и мобильных ЦОД. 

С недавнего времени система резервного питания данной установки опирается на натриево-ионные аккумуляторы BlueTray4000 компании Natron Energy. Это элементы питания на таких химических соединениях, как гексацианоферраты или, конкретно, на пигменте, известном под названием берлинская лазурь. Комплект батарей Natron BlueTray4000 обеспечивает питание постоянным током напряжением 48 В.

Natron BlueTray4000

Natron BlueTray4000

Натриево-ионные аккумуляторы обещают повышенную надёжность и безопасность эксплуатации вкупе с достаточно низкой себестоимостью, если их сравнивать с литиево-ионными аккумуляторами, которые тоже пока всё ещё редки в ЦОД. К тому же, натрия на Земле более чем достаточно. Это один из самых распространённых элементов на нашей планете. От результатов испытания новых аккумуляторов на реальных нагрузках будет зависеть то, насколько новые технологии готовы к массовому внедрению.

Постоянный URL: http://servernews.ru/1008723
12.03.2020 [18:36], Алексей Степин

Schneider Electric представила стоечную систему охлаждения для микро-ЦОД

Мини- и микро-ЦОД становятся всё более популярными в свете роста привлекательности периферийных вычислений. Но любые достаточно мощные вычислительные системы требуют и достаточно серьёзного охлаждения.

Компания Schneider Electric представила первую в своём роде систему поддержания микроклимата ЦОД, выполненную в обычном стоечном формате и способную отвести и рассеять до 3,5 киловатт тепла.

Сердцем новинки является кондиционер, который действительно компактен, его высота составляет всего 5U (218 миллиметров). При стандартной 19-дюймовой ширине глубина платформы равна 752 миллиметра, вес не превышает 26 килограммов. Охлажденный воздух система направляет вверх, поэтому монтируется в самом низу стойки. Производительность составляет 193,5 литра в секунду (примерно 410 CFM). Забор нагретого воздуха осуществляется сзади.

Система довольно шумная, издаёт 62,5 дБА, но микро-ЦОД обычно не предполагают постоянного наличия персонала в рабочей зоне. В системе предусмотрена фильтрация воздуха и его осушение; фильтры моющиеся и легко обслуживаемые. Система может стартовать на полную мощность менее чем через три минуты после включения, режимом работы можно управлять гибко в пределах 0,5 ‒ 3,5 киловатт. Предусмотрена интеграция в EcoStruxure, а значит, поддерживается удалённый мониторинг параметров.

Устройство модуля, монтируемого в стойку

Устройство модуля, монтируемого в стойку

Для управления компрессорами использован привод, позвляющий точно поддерживать температуру в диапазоне от 16 до 30 градусов. Шаг регулировки составляет 2 градуса. В комплект поставки входит внутренний стоечный модуль и наружный блок кондиционирования. Последний может поставляться как уже заправленным, так и пустым, с возможностью использования хладагента по выбору заказчика. По умолчанию используется состав R410A.

Постоянный URL: http://servernews.ru/1005801
17.02.2020 [12:12], Владимир Романченко

Интеллектуальная система гибридного охлаждения Huawei NetCol8000-E для крупных дата-центров

Системы кондиционирования Huawei FusionCol, к числу которых относится и рассматриваемая NetCol8000-E, предназначены для создания систем охлаждения с применением технологии непрямого охлаждения (непрямого фрикулинга) средних и крупных дата-центров.

Применяемая в данном решении система управления Huawei iCooling на базе технологии ИИ вкупе с интеллектуальными режимами энергосбережения и расхода воды позволяет оптимизировать использование электроэнергии и значительно увеличить время работы системы в режиме свободного охлаждения.

Система кондиционирования Huawei NetCol8000-C

Система кондиционирования Huawei NetCol8000-E

NetCol8000-E обеспечивает точное соответствие нагрузки и управления подачей воздуха в реальном времени, что снижает энергопотребление всего ЦОДа. Все компоненты NetCol8000-E, включая встроенный контур Direct Expansion (DX) для непрерывного охлаждения и корпус-контейнер, изготавливаются на заводе Huawei, что гарантирует быструю доставку и монтаж системы. Простая и надежная система охлаждения FusionCol позволяет создать экологичный дата-центр при значительном снижении расходов на энергию.

Решения FusionCol основаны на многолетнем опыте компании и широко применяются в Китае как один из компонентов модульных быстровозводимых дата-центров Huawei Enterprise Business Group, собираемых из стандартных контейнеров. Huawei также продвигает эти решения как элемент экосистемы для построения крупных ЦОДов. В настоящее время компания поставляет решения FusionCol с хладопроизводительностью 220 кВт.

Недавно Huawei расширила географию поставок систем охлаждения FusionCol за пределы Китая, и сегодня решения серии NetCol8000-E производительностью 220 кВт уже доступны российским заказчикам.

Системы FusionCol позиционируются компанией как альтернатива традиционным HVAC-системам (Heating, Ventilation, & Air Conditioning) охлаждения ЦОДов для решения четырех ключевых проблем: высокого энергопотребления, длительного времени развертывания, низкого уровня автоматизации и сложности обслуживания в процессе эксплуатации.

Примерный расчет энергоэффективности ЦОДа на 1500 стоек для широты Пекина

Примерный расчет энергоэффективности ЦОДа на 1500 стоек для широты Пекина

Системы FusionCol обеспечивают лучшую эффективность за счет оптимизации коэффициента эффективности использования энергии (PUE) до 1,20 — на уровне Platinum по классификации Green Grid, что даёт тем самым экономию расходов на электропитание систем охлаждения ЦОДа до 60%.

Интеллектуальное управление Fusion-iCooling с применением алгоритмов ИИ по мере сбора информации и на основании её анализа представляет интеллектуальные рекомендации по применению водосберегающих и энергоэффективных режимов работы.

Коррекция режима работы производится в реальном времени с учетом изменения нагрузки ЦОДа, с точной регулировкой подачи воздуха. Такой подход позволяет увеличить суммарное время охлаждения в естественном режиме с оптимальным использованием ресурсов, и в итоге уменьшить частичный коэффициент PUE (pPUE) на 0,01 по сравнению с традиционными системами кондиционирования (Air Handling Units, AHU).

Дополнительный эффект от внедрения системы FusionCol также обеспечивается за счет экономии пространства, выделяемого под системы охлаждения ЦОД. Так, при расчёте условного дата-центра на 1500 стоек с потреблением энергии порядка 8 кВт на стойку и типовой загрузкой на уровне 30%-50%, можно сэкономить по сравнению с традиционными AHU до 38% площади при уличной установке FusionCol и до 20% площади при установке системы внутри помещения ЦОДа.

Теплообменная схема системы базируется на двух контурах: воздушном теплообменнике из алюминиевой фольги с эпоксидным покрытием, и теплообменнике косвенного испарения, обеспечивающем перекрестную теплоотдачу без непосредственного контакта потоков внутреннего нагретого воздуха и внешней подачи воздуха.

Гибридная система охлаждения Huawei FusionCol

Гибридная система охлаждения Huawei FusionCol

Подача охлажденного воздуха и вывод нагретого воздуха производятся с помощью теплоизолированных воздуховодов. Их распределение по машинному залу дата-центра производится по традиционной схеме с изолированными коридорами, однако вполне допустимы любые эффективные схемы распределения воздуха.

Система распыления нетребовательна к качеству воды (уровень фильтрации как минимум 89 мкм, pH в пределах от 6,5 до 8, жесткость менее 100 мг/л). Использование металлических сопел и небольшое число блоков распыления гарантирует низкий расход воды. Применение вентиляторов с электронным управлением и плавной регулировкой в пределах 30-100% нагрузки также позволяет снизить энергопотребление минимум на 20%.

Режимы работы Huawei FusionCol

Режимы работы Huawei FusionCol

Системы Huawei FusionCol совмещают все необходимые режимы работы и используют принцип непрямого охлаждения. В режиме фрикулинга задействован воздушный теплообменник без промежуточного теплоносителя, но и без непосредственной подачи «уличного воздуха», с плавной регулировкой вентиляторами и воздушными заслонками. Режим фрикулинга запускается при наружной температуре ниже +16°С.

При повышении уличной температуры до +19°С, система переходит в режим непрямого охлаждения — когда вода распыляется на теплообменник и по мере испарения отводит тепло. При росте уличной температуры выше +19°С включается гибридный режим с фреоновым холодильным контуром. В отличие от традиционного кондиционера, в этом режиме воздух по мере возможности охлаждается фрикулингом, и уже после этого холодильным контуром.

Для реалий российской средней полосы, с учетом локальных показателей влажности, система FusionCol будет работать с включенным фреоновым контуром в среднем на протяжении месяца-двух в течение года. Все остальное время FusionCol будет работать в гибридном режиме или в режиме фрикулинга.

Спецификации системы кондиционирования Huawei FusionCol NetCol8000-E

Спецификации системы кондиционирования Huawei FusionCol NetCol8000-E

Все компоненты систем FusionCol собираются и предварительно тестируются непосредственно на заводе-изготовителе. Именно поэтому на сборку и запуск системы требуется не более одного месяца. После размещения заказа требуется не более четырёх месяцев на поставку и монтаж. Таким образом, сокращение затрат рабочего времени на установку FusionCol достигает более 50% по сравнению с монтажом традиционных чиллерных систем охлаждения.

Простота внедрения систем FusionCol реализована за счет их модульной (контейнерной) конструкции, что удобно для установки внутри и вне помещения дата-центра — в ряд, стойкой или даже на крыше при достаточно прочной конструкции здания.  

Техобслуживание систем FusionCol несложное и занимает немного времени. Благодаря разделению шины силового питания и слаботочных цепей, обслуживание основного блока управления и вспомогательных модулей занимает не более одной минуты.

Обслуживание компрессора, подключенного с применением технологии RotaLock, обходится без применения сварочных работ, что экономит до 80% времени на техобслуживании. Наличие независимого кабеля для контроля работы вентиляторов гарантирует оперативное обслуживание в течение 5 минут.

Системы FusionCol оснащаются уникальным алгоритмом самодиагностики, который обеспечивает оперативное устранение мелких ошибок и решение вопросов со сложными неисправностями в течение 15 минут, что значительно быстрее чем 7 часов, отводящихся на ремонт традиционных систем охлаждения.

Интегрированные возможности позволяют собирать данные о неисправностях в один клик. Для этого система оснащена 7-дюймовым цветным сенсорным экраном с поддержкой отображения информации о 32 блоках, работающих в группе, памятью на 500 ошибок. Мониторинг системы сбоев поддерживает резервное копирование, циклический и каскадный режим отображения, и другие функции. Журнал событий может хранить 30-дневную историю со всеми кривыми изменения температуры и влажности.

Благодаря тому, что вентиляторы, насосы и теплообменное ядро системы FusionCol выполнены по модульной схеме избыточной конструкции N + 1, неисправность или частичный отказ одного модуля никоим образом не отражается на работоспособности всей системы. Цепи питания вентиляторов и компрессоров имеют независимый друг от друга дизайн и резервирование для дополнительной надежности коммутации.

Постоянный URL: http://servernews.ru/1000295
10.12.2019 [16:44], Алексей Степин

Schneider Electric, Avnet и Iceotope выпустили новую систему с гибридным жидкостным охлаждением

Компания Schneider Electric заключила союз с Avnet и Iceotope с целью разработки систем для рынка машинного обучения, использующих жидкостное охлаждение. На конференции Gartner IT они анонсируют уже готовое решение, способное вместить 14 серверов с ускорителями ИИ.

Новый комплекс весьма интересен с технической точки зрения: он использует гибридный подход к охлаждению, но за словом «гибридный» в данном случае кроется не «водо-воздушный», как обычно. Речь идёт о совмещении классических систем жидкостного охлаждения с замкнутым контуром и погружных (immersive).

Поддон с установленным сервером

Поддон с установленным сервером

Каждый вычислительный сервер в шасси высотой 1U размещается в специальном герметичном поддоне Iceotope. По сути, он наполовину погружён в охлаждающую жидкость, хотя имеется и принудительная подача теплоносителя к водоблокам центральных процессоров и модулям вычислительных ускорителей. Протечки за пределами поддона исключены.

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

К сожалению, анонс не очень информативен, но на приведённых снимках видно, что каждый гибридный модуль охлаждения с сервером внутри занимает 2U, а всего в стойку помещается 14 таких модулей. На передние панели модулей герметично выведены разъёмы Ethernet, USB и VGA. В верхней части расположена пара коммутаторов ‒ управляющий и главный сетевой.

Передняя часть поддона

Передняя часть поддона

Разработчики говорят о более высокой эффективности охлаждения и практически полной бесшумности, но конкретных цифр, к сожалению, пока не приводят.

Постоянный URL: http://servernews.ru/999446
28.11.2019 [21:12], Алексей Степин

Microsoft получила патент на автономный герметичный ЦОД, заполненный газом под давлением

Проблема охлаждения ЦОД стоит остро ‒ недаром постоянно рождаются новые технологии, призванные справиться с отводами мегаватт тепловой энергии. Активно внедряется жидкостное охлаждение, в том числе, защищённое от протечек. Некоторые компании предлагают даже полностью автоматизированные иммерсионные системы.

Microsoft также внесла свой вклад в решение данной проблемы. Компания недавно запатентовала так называемые ЦОД «высокого давления».

Если верить опубликованному патенту за номером US10426062, новый метод позволяет улучшить охлаждение уже существующей инфраструктуры без установки дополнительных дорогостоящих компонентов.

Сравнение эффективности газов-теплоносителей при разных давлениях

Сравнение эффективности газов-теплоносителей при разных давлениях

Суть идеи Microsoft достаточно проста ‒ помещение ЦОД делается герметичным и наполняется газовой смесью под высоким давлением. Повышенное давление означает повышенную плотность, которая влияет на теплоёмкость. В патентной заявке указаны значения от 2 до 5 атмосфер.

Гексафторид серы в пять раз тяжелее воздуха

Рассмотрена эффективность применения различных газов помимо традиционного воздуха. При давлении 2 атмосферы эффективность воздуха составляет 1,4 от обычной. Переход на углекислый газ позволяет поднять этот показатель до 1,8. А для гексафторида серы (элегаз) этот показатель равен 6,9 — и это при четверти мощности, затрачиваемой вентиляторами систем охлаждения.

Project Natick: перед помещением оборудования в контейнер

Project Natick: перед помещением оборудования в контейнер

Несмотря на наличие фтора в формуле, гексафторид серы является весьма инертным и безопасным для оборудования соединением. При обычных температурах он не реагирует с водой и кислородом, а также с любыми компонентами, которые могут встретиться в серверном оборудовании.

Вещество проверенное, оно давно используется в электротехнике ‒ например, в высоковольтных разрывателях для предотвращения образования дуги. Применяется элегаз и в газовых системах пожаротушения.

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Патент Microsoft не углубляется в проблему возможной утечки газа-теплоносителя, однако в нём описана система управления, автоматически отслеживающая давление и состав газа в герметичной серверной. Предусмотрены средства управления и безопасности обслуживающего персонала ‒ элегаз не токсичен для человека, но для дыхания он всё-таки не годится.

В результате для обслуживания такого ЦОД его атмосферу придётся откачивать и заменять обычным воздухом на всё время нахождения персонала в помещении.

Project Natick: контейнер собран и готов к установке на морское дно

Project Natick: контейнер собран и готов к установке на морское дно

Судя по всему, «газонаполненные ЦОД высокого давления» предназначены для сценариев с минимальным участием человека или там, где такое участие вообще исключено. Так, Project Natick предполагает размещение центров хранения и обработки данных на морском дне. Прототип такой «морской серверной» уже был протестирован в течение 105 дней. Рабочий вариант предусматривает 40-футовый (12,2 метра) цилиндрический контейнер с оборудованием, способный проработать без обслуживания 5 лет.

В таких системах применение гексафторида серы действительно может быть оправданным, но в случае с наземными ЦОД пока неясно, перевесит ли повышенная эффективность охлаждения целый ряд неудобств, связанных с необходимостью поддержания герметичности и обеспечения безопасности персонала.

Постоянный URL: http://servernews.ru/998673
25.11.2019 [16:29], Андрей Созинов

SC19: TMGcore OTTO — автономный роботизированный микро-ЦОД с иммерсионной СЖО

Компания TMGcore представила в рамках прошедшей конференции SC19 свою весьма необычную систему OTTO.

Новинка является модульной платформой для создания автономных ЦОД, которая характеризуется высокой плотностью размещения аппаратного обеспечения, использует двухфазную иммерсионную систему жидкостного охлаждения, а также обладает роботизированной системой замены серверов.

Версия OTTO на 600 кВт

Версия OTTO на 600 кВт

Первое, что отмечает производитель в системе OTTO — это высокая плотность размещения аппаратного обеспечения. Система состоит из довольно компактных серверов, которые размещены в резервуаре с охлаждающей жидкость. Собственно, использование двухфазной иммерсионной системы жидкостного охлаждения и позволяет размещать «железо» с максимальной плотностью.

Версия OTTO на 60 кВт

Версия OTTO на 60 кВт

Всего OTTO будет доступна в трёх вариантах, рассчитанных на 60, 120 и 600 кВт. Системы состоят из одного или нескольких резервуаров для размещения серверов. Один такой резервуар имеет 12 слотов высотой 1U, в десяти из которых располагаются сервера, а ещё в двух — блоки питания. Также каждый резервуар снабжён шиной питания с рабочей мощностью 60 кВт. Отметим, что площадь, занимаемая самой большой 600-кВт системой OTTO составляет всего 14,9 м2.

В состав системы OTTO могут входить как эталонные серверы HydroBlades от самой TMGcore, так и решения от других производителей, прошедшие сертификацию «OTTO Ready». В последнем случае серверы должны использовать корпуса и компоновку, которые позволяют использовать их в иммерсионной системе охлаждения. Например, таким сервером является Dell EMC PowerEdge C4140.

В рамках конференции SC19 был продемонстрирован и фирменный сервер OTTOblade G1611. При высоте всего 1U он включает два процессора Intel Xeon Scalable, до 16 графических процессоров NVIDIA V100, до 1,5 Тбайт оперативной памяти и два 10- или 100-гигабитных интерфейса Ethernet либо одиночный InfiniBand 100G. Такой сервер обладает производительность в 2000 Тфлопс при вычислениях на тензорных ядрах.

Мощность описанной абзацем выше машины составляет 6 кВт, то есть в системе OTTO может работать от 10 до 100 таких машин. И охладить столь компактную и мощную систему способна только двухфазная погружная система жидкостного охлаждения. Он состоит из резервуара, заполненного охлаждающей жидкостью от 3M и Solvay, и теплообменника для конденсации испарившейся жидкости.

Для замены неисправных серверов система OTTO оснащена роботизированной рукой, которая способна производить замены в полностью автоматическом режиме. В корпусе OTTO имеется специальный отсек с резервными серверами, а также отсек для неисправных систем. Такой подход позволяет производить замену серверов без остановки всей системы, и позволяет избежать контакта человека с СЖО во время работы.

Изначально TMGcore специализировалась на системах для майнинга с иммерсионным охлаждением, а после перенесла свои разработки на обычные системы. Поэтому, в частности, описанный выше OTTOblade G1611 с натяжкой можно отнести к HPC-решениям, так как у него довольно слабый интерконнект, не слишком хорошо подходящий для решения классических задач. Впрочем, если рассматривать OTTO как именно автономный или пограничный (edge) микро-ЦОД, то решение имеет право на жизнь.

Постоянный URL: http://servernews.ru/998356
Система Orphus