Материалы по тегу: сжо

17.01.2020 [22:12], Геннадий Детинич

Asetek начнёт продавать «мусорное» тепло от ЦОД городской теплосети Ольборга

Датская компания Asetek, известный производитель СЖО для ПК, серверов и ЦОД, помимо всего прочего занимается и проблемами утилизации «мусорного» тепла при охлаждении ЦОД.

Вскоре Asetek начнёт эксперимент по продаже излишков тепла централизованной теплосети города в Дании, что, как утверждается, станет первым в мире доступным решением подобного рода.

На этой неделе компания Asetek сообщила, что с 3 февраля она начнёт продавать тепло городской теплосети города Ольборга. Теплоноситель будет подаваться с небольшого центра по обработке данных, принадлежащего Asetek. Необычность проекта заключается в том, что компания реализовала его без необходимости использования дорогостоящих тепловых насосов.

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Например, похожий проект компании Facebook потребовал 135 млн крон инвестиций (около $20 млн) на закупку тепловых насосов для нагрева воды от ЦОД Facebook в городе Оденсе для нагрева отработанной воды с 25–30 °C до 60 °C, необходимых для подачи в городскую теплосеть. Такой подход сложно назвать доступным. ЦОД Яндекса в городе Мянтсяля (Финляндия) также использует станции донагрева воды перед отдачей во внешнюю сеть. 

Небольшой ЦОД Asetek в Ольборге сразу будет подавать разогретый до примерно 60 °C носитель прямо в теплосеть города. Также для соединения магистрали теплоотвода ЦОД и теплоцентрали города не потребовалось сложных строительно-монтажных работ: только неглубокая траншея и теплоизолированные трубы.

Протстые работы по подключению к городской теплоцентрали (Asetek)

Простые работы по подключению к городской теплоцентрали (Asetek)

По уверениям Asetek, данный проект готов к переносу на более мощные ЦОД. Для Дании это больное место. Эта страна находится на переднем крае борьбы с углеродным следом, но массовое возведение ЦОД на её территории крупнейшими мировыми ИТ-гигантами портит всю картину. К 2030 году прогнозируется, что 17 % электроэнергии в Дании будут потреблять центры по обработке данных. Утилизировать выработанное этими ЦОД тепло стало вызовом для правительства этой страны.

По подсчётам Asetek, разработанная компанией система прямой передачи тепла от ЦОД в городские теплосети позволит на 25 % снизить потребление энергии и будет на 70–80 % использовать выработанное ЦОД тепло. Если кто-то думает, что это лишнее, достаточно сказать, что углеродный след от ЦОД уже превышает углеродный след от авиаперевозок во всём мире. Отдельный привет девочке-экоактивистке, которая не летает самолётами, но использует Facebook и Инстаграм.

Постоянный URL: http://servernews.ru/1001701
15.01.2020 [11:44], Алексей Степин

GIGABYTE и Incooling разработают серверы с СЖО на основе фазового перехода

Вычислительная плотность в ЦОД растёт и продолжит расти в обозримом будущем. Вместе с ней растёт и уровень тепловыделения. Производители серверов и разработчики ЦОД всё чаще приходят к выводу о необходимости использования более эффективных методов охлаждения.

Одним из наиболее доступных является переход на использование жидкостного охлаждения. В этой сфере решил попробовать себя известный производитель аппаратных компонентов, компания GIGABYTE.

Источник вдохновения нового проекта: трековые детекторы LHC с фазовой системой охлаждения

Источник вдохновения нового проекта: трековые детекторы LHC с фазовой системой охлаждения

GIGABYTE объявила о начале сотрудничества с разработчиком и производителем технологий жидкостного охлаждения, компанией Incooling. Целью совместной деятельности является разработка нового класса двухфазных серверных систем жидкостного охлаждения. В качестве тестовой платформы будет использоваться GIGABYTE R161, допускающая разгон процессоров. Эти платформы используются там, где на счету каждый мегагерц, например, в системах высокочастотной торговли.

Принцип действия разработки Incooling

Принцип действия разработки Incooling

Технология, предлагаемая Incooling, позволяет снизить температуру комплектующих до существенно более низкой отметки, нежели та, на которой находится температура воздуха в помещении ЦОД. Достигается это с помощью системы охлаждения, основанной на эффекте фазового перехода.

Такая система чем-то напоминает обычный современный компрессорный холодильник: в испарительных камерах, установленных на процессорах, происходит фазовый переход нагнетаемого туда хладагента, после чего получившаяся газово-жидкостная смесь отдаёт тепло в конденсаторе.

GIGABYTE уже использовала эффект перехода фазы в погружной системе, продемонстрированной на SC19

GIGABYTE уже использовала эффект перехода фазы в погружной системе, продемонстрированной на SC19

Уже первые предварительные тесты показали на 20 градусов более низкую температуру на процессоре, а тактовую частоту удалось поднять на дополнительные 10%. Совместные исследования GIGABYTE и Incooling должны обеспечить расширение этих лимитов, а также привести к созданию аналогичных систем для других серверов GIGABYTE: H-Series и G-Series. Интересно, что источником вдохновения для Incooling послужила фазовая система охлаждения 2-PACL на основе сжиженного углекислого газа. Она использовалась для охлаждения трековых детекторов Большого Адронного Коллайдера.

Постоянный URL: http://servernews.ru/1001435
17.12.2019 [15:51], Алексей Степин

Nortek и Facebook ввели в строй первый комплекс мембранных СЖО для ЦОД StatePoint

Компания Nortek Air Solutions объявила о вводе в строй первого комплекса жидкостного охлаждения StatePoint (SPLC), разработанного в сотрудничестве с Facebook.

Работы над технологией SPLC начались ещё в 2015 году. Перым ЦОД, где была установлена новая система, стал центр Facebook, расположенный в Оклахома-сити.

Facebook гордится энергоэффективностью своих ЦОД и тем, что они используют минимальное количество ценных природных ресурсов. Как правило, компания применяет для охлаждения своих систем наружный воздух и системы прямого испарения. Но в ряде случаев, а Оклахома-сити относится именно к таким ним, приходится искать другие способы для того, чтобы изолировать ценное оборудование от неприемлемых условий окружающей среды: пыли, чрезмерной влажности и других факторов.

Мембранная технология в теплообменниках SPLC предотвращает загрязнение воды

Мембранная технология в теплообменниках SPLC предотвращает загрязнение воды

В основе системы SPLC лежит новое поколение жидкостно-воздушных теплообменников на базе микропористых гидрофобных мембран — наружный воздух охлаждает воду при её испарении. За счёт наличия специальных разделительных мембран загрязнения воды не происходит; кроме того, материал мембран устойчив к образованию известкового налёта.

Новый наружный теплообменник SPLC

Новый наружный кондиционер SPLC. Синим цветом обозначен теплообменник

Охлаждённая вода затем используется во внутренних воздушных кондиционерах ЦОД. Такой подход минимизирует расход чистой воды. Система способна работать в нескольких режимах, включая режим супер-испарения в жаркую и влажную погоду, при котором наружный воздух перед подачей в теплообменники охлаждается дополнительно.

Так работает система SPLC. Расход чистой воды минимален

Так работает система SPLC. Расход чистой воды минимален

ЦОД Facebook в Оклахома-сити — первая ласточка для Nortek Air Solutions. Проект был закончен благодаря $15 миллионам, полученным от FB в качестве инвестиции в развитие технологии SPLC. Новая система охлаждения будет развёртываться и в других центрах данных компании. Кроме того, патент на SPLC принадлежит Nortek, а значит, использовать данную технологию теоретически смогут и другие владельцы крупных ЦОД.

Постоянный URL: http://servernews.ru/999907
10.12.2019 [16:44], Алексей Степин

Schneider Electric, Avnet и Iceotope выпустили новую систему с гибридным жидкостным охлаждением

Компания Schneider Electric заключила союз с Avnet и Iceotope с целью разработки систем для рынка машинного обучения, использующих жидкостное охлаждение. На конференции Gartner IT они анонсируют уже готовое решение, способное вместить 14 серверов с ускорителями ИИ.

Новый комплекс весьма интересен с технической точки зрения: он использует гибридный подход к охлаждению, но за словом «гибридный» в данном случае кроется не «водо-воздушный», как обычно. Речь идёт о совмещении классических систем жидкостного охлаждения с замкнутым контуром и погружных (immersive).

Поддон с установленным сервером

Поддон с установленным сервером

Каждый вычислительный сервер в шасси высотой 1U размещается в специальном герметичном поддоне Iceotope. По сути, он наполовину погружён в охлаждающую жидкость, хотя имеется и принудительная подача теплоносителя к водоблокам центральных процессоров и модулям вычислительных ускорителей. Протечки за пределами поддона исключены.

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

К сожалению, анонс не очень информативен, но на приведённых снимках видно, что каждый гибридный модуль охлаждения с сервером внутри занимает 2U, а всего в стойку помещается 14 таких модулей. На передние панели модулей герметично выведены разъёмы Ethernet, USB и VGA. В верхней части расположена пара коммутаторов ‒ управляющий и главный сетевой.

Передняя часть поддона

Передняя часть поддона

Разработчики говорят о более высокой эффективности охлаждения и практически полной бесшумности, но конкретных цифр, к сожалению, пока не приводят.

Постоянный URL: http://servernews.ru/999446
17.11.2019 [19:22], Алексей Степин

Рост плотности вычислительных мощностей в ЦОД будет продолжаться

Исследовательская компания 451 Research опубликовала отчёт, в котором говорится, что плотность «упаковки» вычислительных мощностей в ЦОД активно растёт, и эта тенденция будет продолжаться.

До недавних пор показатель потребления энергии составлял в среднем 5 киловатт на стойку, однако, в последний год наблюдался активный рост, а 45% из 750 опрошенных компаний ожидают дальнейшего повышения этого показателя до 11 и более киловатт в течение следующего, 2020 года. 

В прошлом году лишь 18% опрошенных сообщили о мощностях свыше 10 киловатт на стойку, так что это очень серьёзный рост. Что вызывает такой рост плотности и потребляемых мощностей? Серьезная доля приходится на набирающие популярность приложения машинного интеллекта. Именно в этой сфере используются максимально сложные процессоры, упакованные в максимально компактный формат ‒ по нескольку огромных и имеющих солидное энергопотребление чипов в каждом серверном корпусе.

И это не только чипы-монстры, разработанные NVIDIA или AMD ‒ можно вспомнить анонс тензорного процессора Groq TSP с производительностью 1 Петаопс (PetaOPS, 1015 операций в секунду) или новые ИИ-ускорители Graphcore C2 с 1216 ядрами и огромным кристаллом.

Всё это создаёт ряд проблем, включая растущие требования к охлаждению серверных комнат, наполненных подобным оборудованием. Владельцы ЦОД активно ищут новые способы отвода огромного количества тепла и всё охотнее внедряют системы жидкостного охлаждения.

Пример стойки с ИИ-ускорителями Google, использующей жидкостное охлаждение

Пример стойки с ИИ-ускорителями Google, использующей жидкостное охлаждение

По мнению 451 Research, 2020 год должен стать годом активного внедрения такого охлаждения в крупных центрах обработки данных. Катализатором может послужить решение Google о переводе последнего поколения серверного аппаратного обеспечения компании на СЖО. Впрочем, некоторые гиганты, например, Microsoft, хотя и экспериментируют с жидкостными системами, но пока откладывают окончательное решение, а иные, как Facebook, считают, что у воздушного охлаждения ещё есть задел на будущее.

Постоянный URL: http://servernews.ru/997865
25.10.2019 [09:22], Алексей Степин

Nortek Air Solutions ServerCool CDU1200: самый мощный в мире CDU для СЖО в дата-центрах

В индустрии серверов и ЦОД всё большую популярность набирает жидкостное охлаждение в различных его формах. СЖО имеет ряд преимуществ перед традиционным воздушным. Серверы, имеющие жидкостной контур, могут быть компактнее, а саму систему можно сделать централизованной, да и требования к температуре и качеству воздуха в помещениях с серверами можно понизить.

Компания Nortek Air Solutions представила новую систему распределения теплоносителя ServerCool CDU1200. 

На сегодняшний день это самый мощный модуль централизованного жидкостного охлаждения на планете. Он имеет мощность 1200 киловатт и совместим с уже существующими системами распределения Nortek CD6 (300 киловатт) и CD5 (50 киловатт), так что модульная модификация имеющихся систем упрощена до предела.

Допускается и расположение блока вне основной зоны расположения ИТ-оборудования. Система CD1200 оснащена двумя насосами мощностью более 11 киловатт каждый. Двигатели в них применены с электронной коммутацией, что упрощает поддержание производительности на оптимальном уровне 1211 литров в минуту. 

Новинка оснащена высокоэффективным теплообменником, так что первый контур охлаждения физически не связан со вторым, подключаемым уже к серверным стойкам. За чистоту теплоносителя отвечают моющиеся фильтры с размером пор 50 микрон, опционально может быть установлен блок ультрафиолетовой стерилизации воды.

Младшая модель CD6 мощностью 300 киловатт

Младшая модель CD6 мощностью 300 киловатт

За управление отвечает фирменное программное обеспечение, основные параметры системы выводятся на 7-дюймовый монитор. Эффективность Nortek CD1200 настолько высока, что разница температур (Delta T) составляет лишь 4 градуса. Это позволяет использовать систему в суперкомпьютерах, номинирующихся на место в списке Green500.

Постоянный URL: http://servernews.ru/996181
10.10.2019 [12:48], Сергей Карасёв

Гарвардский университет берёт на вооружение HPC-серверы Lenovo с жидкостным охлаждением

Гарвардский университет (США) вводит в строй новый суперкомпьютерный комплекс под названием Cannon (в честь американского астронома Энни Джамп Кэннон).

Комплекс использует серверы Lenovo SD650 NeXtScale, которые предназначены  для высокопроизводительных вычислений. Особенность этих устройств — система охлаждения тёплой водой (с температурой до  +50° C). Эта система используется для отвода тепла от центральных процессоров, оперативной памяти, подсистемы ввода-вывода, локального хранилища данных и регуляторов напряжения.

Корпус серверов, оборудованный патентованными и полностью герметичными быстросъёмными соединениями из нержавеющей стали, умещается в стандартную стойку, поэтому SD650 отличается удобством обслуживания и высочайшей плотностью размещения.

Кластер Cannon использует 670 серверов SD650 NeXtScale, оснащённых процессорами Intel Xeon Platinum 8268 Cascade Lake с 24 вычислительными ядрами. Объём оперативной памяти составляет 192 Гбайт в расчёте на узел.

Жидкостное охлаждение позволяет чипам Xeon функционировать на более высокой частоте — 3,4 ГГц против базового значения в 2,9 ГГц. В результате, пиковая производительность комплекса Cannon достигает практически 3,5 петафлопса.

Кроме того, в составе вычислительной платформы задействованы 16 серверов Lenovo SR670, каждый из которых наделён четырьмя ускорителями NVIDIA Tesla V100.

Кластер Cannon будет использоваться для моделирования различных процессов, решения сложных научных задач и пр. 

Постоянный URL: http://servernews.ru/995396
04.10.2019 [08:03], Владимир Мироненко

Schneider Electric с Iceotope будут разрабатывать иммерсионные СЖО для ЦОД

Schneider Electric объявила в четверг о заключении соглашения о сотрудничестве с Avnet и Iceotope с целью совместной разработки инновационных решений для иммерсионного жидкостного охлаждения для центров обработки данных (ЦОД).

Объявленное партнёрство объединяет трех крупных игроков: Avnet — в сфере сервисов по интеграции технологий, Iceotope — в разработке иммерсионных технологий охлаждения и Schneider Electric — в создании инфраструктурных решений для ЦОД.

«Приложения, требующие значительных вычислительных ресурсов, такие как искусственный интеллект и Интернет вещей, требуют более высокой производительности чипов. Наш количественный анализ методов жидкостного охлаждения свидетельствуют о его значительных преимуществах для рынка, — заявил Кевин Браун, технический директор и старший вице-президент по инновациям Secure Power, Schneider Electric. — Это партнёрство является следующим шагом в разработке решений, и мы рады сотрудничеству с Avnet и Iceotope».

У Schneider Electric уже имеется опыт сотрудничества с Iceotope в области исследований и разработок жидкостного охлаждения. Iceotope получила в 2014 году инвестиции в размере $10 млн в ходе раунда финансирования серии А во главе с Aster Capital. Эта сделка также способствовала установлению партнёрских отношений между Schneider Electric и Iceotope.

Партнёры говорят о том, что иммерсионное жидкостное охлаждение обеспечивает экономию капиталовложений и эксплуатационных расходов. 

Согласно предварительным расчётам Schneider Electric, решение с иммерсионным охлаждением с полным погружением в жидкость шасси по сравнению с традиционным решением с воздушным охлаждением требует на 15 % меньше капвложений и обеспечивает как минимум 10 % экономии электроэнергии, что приводит к экономии совокупной стоимости владения (TCO) на 20 лет в размере более 11 %.

Постоянный URL: http://servernews.ru/995069
26.09.2019 [23:23], Сергей Юртайкин

Серверы HPE получат иммерсионные СЖО GRC

Производитель иммерсионных СЖО для ЦОД GRC, ранее известный как Green Revolution Cooling, и корпорация Hewlett Packard Enterprise (HPE) объявили о сотрудничестве, в рамках которого технология GRC ICEraQ будет интегрирована с серверами HPE. Клиенты смогу получить комплексное, гибко настраивамое решение. 

Как отметили в GRC, совместное предложение компаний позволит заказчикам легко интегрировать оборудование HPE высокой плотности в любой существующий дата-центр без дополнительных затрат времени и расходов на изменение инфраструктуры ЦОД.

Владельцы серверов HPE с системами иммерсионного охлаждения GRC могут развёртывать оборудование с тепловой нагрузкой 2000 Вт на один юнит. Благодаря этому можно создавать вычислительные зоны высокой плотности практически без тепловых ограничений, которые есть у ЦОДов с воздушным охлаждением, сообщил архитектор GRC Брендон Мур (Brandon Moore).

HPE стала очередным OEM-партнёром GRC. Ранее было начато сотрудничество, например, с Supermicro.

Постоянный URL: http://servernews.ru/994720
18.08.2019 [09:44], Сергей Карасёв

GRC ICEraQ Micro: малая иммерсионная СЖО для ЦОД

Компания GRC (Green Revolution Cooling) анонсировала серверную систему ICEraQ Micro, предназначенную для применения в центрах обработки данных с высокой энергетической эффективностью.

Решение 24U допускает установку серверных модулей различных производителей. Эти аппаратные блоки погружаются в непроводящую нетоксичную охлаждающую жидкость.

Утверждается, что применение системы ICEraQ Micro позволяет сократить энергозатраты приблизительно на 50 процентов  по сравнению с традиционными решениями с воздушным охлаждением. 

Новинка позволяет формировать серверные узлы высокой плотности. Развёртывание таких систем требует относительно немного времени. Габариты ICEraQ Micro составляют 1,17 × 0,87 × 1,44 метра. Обеспечивается отвод до 50 кВт тепла.

Более подробную информацию о технических характеристиках новинки можно найти здесь. Сведений о цене на данный момент нет. 

Постоянный URL: http://servernews.ru/992578
Система Orphus