Материалы по тегу: энергоэффективность

02.07.2020 [14:58], Владимир Мироненко

Амстердам возобновляет строительство дата-центров

Мораторий на строительство дата-центров, объявленный Амстердамом год назад, подходит к концу, и город готовится к началу нового бума, ограничив вместе с тем, площадь для новых ЦОД и энергетические ресурсы.

Власти Амстердама выдвинули предложения по строительству ЦОД в конкретных кластерах и в рамках установленных показателей мощности и площади. Эти предложения были разработаны после обсуждения с Ассоциацией центров обработки данных Нидерландов (DDA). Их будут обсуждать в городском совете после летних отпусков. После этого, как ожидается, будет возобновлено строительство ЦОД.

Год назад власти Амстердама и Харлеммермера объявили, что новые ЦОД не будут утверждены до 2020 года, поскольку потребности сектора в электроэнергии и площадях «вышли из-под контроля». Сектор ЦОД в Амстердаме в течение предыдущих семи лет рос на 10–15 % в год, наряду с Франкфуртом, Лондоном и Парижем, представляющими вместе рынок FLAP, которому прочат рекордный год, несмотрая на пандемию.

Городские советы были обеспокоены тем, что у них не было механизма для контроля этого роста, о чём было заявлено в 2019 году: «ЦОД стали жизненно необходимыми объектами почти для всех жителей, предприятий и учреждений, но они также занимают много места и, в связи с высоким энергопотреблением, создают большую нагрузку на электросети».

В результате встреч DDA с муниципалитетами появился план, который обеспечит намеченный рост в данном секторе на следующие десять лет. Харлеммермер и Амстердам выделили по четыре специальных кампуса для центров обработки данных, а также установили ограничения по потребляемой мощности.

Харлеммермер спрогнозировал среднегодовой прирост установленной мощности в 70 МВА, и установил для сектора максимальный уровень потребления мощности в 750 МВА до 2030 года. Между тем Амстердам ожидает среднегодовой прирост установленной мощности в 67 МВА при общей доступности 670 МВА до 2030 года.

Чтобы получить одобрение, ЦОД должны иметь коэффициент эффективности использования энергии (PUE) не выше 1,2 и придерживаться природоохранных мер при строительстве.

Постоянный URL: http://servernews.ru/1014724
22.05.2020 [12:52], Юрий Поздеев

Суперкомпьютер LUMI будет отапливать дома местных жителей

Loiste Lämpö и CSC - IT Center for Science Ltd подписали соглашение об отведении тепла от центра обработки данных в городскую теплосеть. Новый дата-центр будет закончен в 2021 году и в нем планируют разместить суперкомпьютер LUMI.

Loiste Lämpö – компания, предоставляющая услуги централизованного отопления в домах Каяани. В этом финском городе живет чуть больше 38 тыс. человек. 

фото со строительства дата-центра (lumi-supercomputer.eu)

Фото со строительства дата-центра (lumi-supercomputer.eu)

Суперкомпьютер LUMI является совместным проектом EuroHPC и девяти европейских стран с объемом инвестиций более 200 миллионов евро. Половина финансирования поступает от Европейского Союза, а половина от стран-участниц.

В свете последних экологических инициатив в Европе, новый дата-центр строится максимально эко-эффективным, отвод тепла в систему центрального отопления — это еще один фактор снижения влияния на окружающую среду и уменьшение выбросов СО в атмосферу за счет того, что вместо отдельных котельных в каждом доме будет использована единая тепломагистраль.

архитектура суперкомпьютера LUMI (lumi-supercomputer.eu)

Архитектура суперкомпьютера LUMI (lumi-supercomputer.eu)

Суперкомпьютер LUMI будет использоваться для проведения исследований в области материаловедения, биосинтеза, фармацевтики и глобального изменения климата. Теоретическая пиковая производительность LUMI составит более 200 петафлопс, что примерно в 10 раз больше, чем у самого быстрого в Европе суперкомрьютера Piz Daint.

Основой машины являются узлы с графическими ускорителями Nvidia. Lumi будет иметь хранилище ёмкостью более 60 Пбайт. Примерно 5 Пбайт из этого объема будет построено на SSD-накопителях, что позволит достигнуть пропускной способности более 1 Тбайт/с. Для вычислений и проектирования будут использоваться в том числе такие приложения, как Jupyter Notebooks, Rstudio и Matlab.

Как будет развиваться проект покажет время, однако уже с 2021 года жители города Каяни смогут выбирать в качестве метода отопления «чистое» центральное отопление, произведенное с учетом отведенного от дата-центра тепла. 

Это не единственный проект такого рода. Например, в той же Финляндии новый ЦОД компании Яндекс был спроектирован таким образом, что тепло от него отдавалось в городскую теплосеть. У Facebook и Asetek есть аналогичные проекты в Дании

Постоянный URL: http://servernews.ru/1011573
14.05.2020 [22:07], Алексей Степин

Серверы ASUS лидируют в рейтинге энергоэффективности SPECpower

Если для обычных ПК и рабочих станций энергоэффективность не является определяющим параметром, то для крупных ЦОД и серверных ферм этот показатель может стать решающим, ведь десятки и сотни ватт легко складываются в десятки и сотни киловатт и мегаватт.

Производители серверного оборудования это учитывают и стараются минимизировать энергопотребление своих продуктов при сохранении высокой производительности. Серьёзную заявку на лидерство в этой области сделала компания ASUS.

ASUS RS720-E9-RS8 (справа) и RS500A-E10-PS4

ASUS RS720-E9-RS8 (справа) и RS500A-E10-PS4

Существуют стандартизированные тесты и методики определения энергоэффективности вычислительных устройств: в частности, для этого используется тест SPECpower, являющийся частью широко используемого набора бенчмарков SPEC, разрабатываемых одноимённой некоммерческой организацией. ASUS опубликовала анонс, в котором говорится о достижении лидирующих позиций в рейтинге SPECpower на момент публикации наиболее свежих данных, датированных 16 апреля 2020 года.

Верхние строки рейтинга заняли серверы ASUS RS720-E9-RS8 и RS500A-E10-PS4 на базе процессоров Xeon Scalable и AMD EPYC. Первая система довольно обычна: она имеет форм-фактор 2U и поддерживает установку до шести ускорителей PCI Express. Вторая является компактным однопроцессорным 1U-сервером.

Thermal Radar не только экономит энергию, но и повышает эффективность охлаждения

Технология ASUS Thermal Radar не только экономит энергию, но и повышает эффективность охлаждения

За победу в тестировании и занятие лидирующей позиции в рейтинге SPECpower ответственны две фирменные технологии ASUS — Thermal Radar 2.0 и Power Balancer. Суть первой заключается в интеллектуальном управлении системами охлаждения сервера. Конечно, в сравнении с процессорами и платами ускорителей вентиляторы потребляют немного, но в масштабах достаточно крупного ЦОД итоговая цифра может оказаться солидной.

Для того, чтобы минимизировать затраты энергии, Thermal Radar 2.0 отслеживает показания многочисленных датчиков, число которых может достигать 56. Они располагаются во всех ключевых элементах системы — от процессорных разъёмов до подсистемы памяти и даже внешней панели сервера. Благодаря этим датчикам, вентиляторы системы охлаждения всегда работают на минимально возможных скоростях и разгоняются только тогда, когда это действительно нужно. Экономия может достигать 36% в сравнении с менее «умными» системами охлаждения.

Верхушка рейтинга SPECpower_ssj2008 (нажмите для увеличения)

Технология Power Balancer служит для управления энергопотреблением процессоров. Она также работает на основе поступающих в реальном времени данных. Если верить заявлениям ASUS, использование Power Balancer позволяет снизить энергопотребление на 14%: если при загрузке 80% этот показатель составлял 130 Ватт, то с применением данной технологии он понизился до 111,8 Ватт. При большом количестве серверов выигрыш в плане экономии электроэнергии может быть весьма ощутимым.

Результаты SPECpower доступны на сайте проекта. Стоит отметить, что по состоянию на 11 мая текущего года, первые два места в рейтинге также принадлежат ASUS, хотя и другой системе — двухпроцессорной RS700A-E9-RS4V2 на базе EPYC 7742.

Постоянный URL: http://servernews.ru/1010969
01.05.2020 [00:12], Игорь Осколков

Энергоэффективность дата-центров практически перестала расти

Согласно данным Uptime Institute, среднее значение коэффициента PUE (power usage effectiveness) для дата-центров в 2020 году равно 1,58. Это немногим лучше показателя семилетней давности — 1,65. Более того, в прошлом году среднее значение и вовсе подросло до 1,67, тогда как в 2018-м оно составляло 1,58.

PUE указывает на то, насколько эффективно использует электроэнергию IT-система: ЦОД, кластер, суперкомпьютер и т.д. Коэффициент показывает отношение всех энергозатрат объекта к затратам только на вычислительные мощности.

В идеальном случае он равен единице. На практике у наиболее энергоэффективных современных систем PUE составляет менее 1,1. Кроме того, могут быть нюансы с подсчётом суммарного энергопотребления. Например, не все учитывают офисные и хозяйственно-бытовые нужды ЦОД. Как бы то ни было, в 2007 году, когда и была предложена данная метрика, впоследствии ставшая стандартом ISO/IEC, коэффициент PUE составлял в среднем 2,65. До 2013 года он снижался очень быстрыми темпами, после чего скорость падения резко замедлилась.

Uptime Institute объясняет это тем, что на первом этапе были задействованы относительно простые и дешёвые методы повышения эффективности, тогда как дальнейшие этапы оказались намного сложнее и затратнее. Большинство новых, построенных с нуля ЦОД вписываются в диапазон PUE от 1,2 до 1,4. Однако в работе всё ещё находятся тысячи дата-центров «прошлых лет», которые не могут быть обновлены. И не только по экономическим причинам, но и потому, что им, например, необходимо поддерживать высокий уровень доступности.

Источник: Google

Источник: Google

Новые ЦОД чаще строятся гиперскейлерами, и эти дата-центры в целом и крупнее, и энергоэффективнее. По данным Uptime Institute за 2019 год, ЦОД мощностью от 20 МВт имеют более низкий средний показатель PUE. Данные Google показывают такую же общую тенденцию, но значение PUE у дата-центров компании и так ниже среднего по индустрии.

Постоянный URL: http://servernews.ru/1009895
22.04.2020 [23:57], Владимир Мироненко

Умное управление энергопотреблением сделает ЦОД Google экологичнее

Компания Google является углеродно-нейтральной с 2007 года, и с 2016 года приобретает энергию, полученную только из возобновляемых источников. Следующий шаг — добиться обеспечения дата-центров только энергией из возобновляемых источников в течение семи дней в неделю.

Как отмечает компания, для этого её центры обработки данных должны более тесно сотрудничать с поставщиками энергии из безуглеродных источников, таких как солнечная энергия и энергия ветра.

В рамках этой инициативы команда специалистов Google разработала и внедрила новую интеллектуальную вычислительную платформу, которая позволит оптимизировать использование альтернативных источников энергии дата-центрами.

Эта первая, как утверждается, в своем роде система для гипермасштабируемых центров обработки данных позволяет перенести время выполнения вычислительных задач в режим, когда поступает максимальное количество энергии от альтернативных источников, таких, как ветер и солнце.

Для этого не требуется дополнительное компьютерное оборудование, и это не влияет на производительность сервисов Google, таких, как Поиск, Карты и YouTube, используемых круглосуточно.

Сдвиг сроков выполнения некоторых несрочных вычислительных задач, таких, как создание новых функций фильтра в Google Фото, обработка видео на YouTube или добавление новых слов в Google Translate, помогает уменьшить углеродный след электрической сети, приближая компанию к полному переходу на использование безуглеродной энергии в режиме 24×7.

Каждый день в каждом ЦОД Google интеллектуальная платформа сравнивает два типа прогнозов на следующий день. Один из прогнозов, предоставленных партнёром компании Tomorrow, предсказывает, как среднечасовая интенсивность выбросов углерода в локальной электросети будет меняться в течение дня.

Дополнительный внутренний прогноз Google отражает ежечасные энергозатраты, которые необходимы ЦОД для выполнения своих вычислительных задач в течение того же периода. Затем Google использует эти два прогноза, чтобы оптимизировать почасовые инструкции и согласовать вычислительные задачи с периодом низкоуглеродного электроснабжения.

Первая версия этой интеллектуальной вычислительной платформы ориентирована на перенос выполнения задач на разное время в течение суток в пределах одного ЦОД. Также можно перемещать гибкие вычислительные задачи между различными ЦОД. План компании на будущее состоит в том, чтобы начать перемещать нагрузку как во времени, так и между разными объектами, чтобы максимально сократить выбросы CO2 на уровне сети.

Похожую концепцию предлагает стартап Lancium, который использует избытки «чистой» энергии в своих ЦОД, размещаемых около полей ветрогенераторов или солнечных панелей. ЦОД Lancium рассчитаны на некритичные ко времени исполнения, но тяжёлые HPC-задачи и работают только тогда, когда стоимость энергии падает ниже заданного уровня. Свою систему SmartResponse стартап планирует лицензировать операторам других дата-центров.

Постоянный URL: http://servernews.ru/1009169
13.04.2020 [16:54], Алексей Степин

Lancium: «спящие» ЦОД при «зелёных» электростанциях

При растущей популярности возобновляемых источников энергии и периферийных вычислений логичной начинает выглядеть идея размещения ЦОД и HPC-систем рядом с полями ветрогенераторов или солнечных панелей. Техасский стартап Lancium считает так же.

Целью компании является создание «дремлющих» HPC-платформ, черпающих энергию от ветряных электростанций и запускаемых только в моменты появления избыточной энергии.

Глава компании, Майкл МакНамара (Michael McNamara) полагает, что за возобновляемыми источниками энергии будущее, но признает присущие им недостатки — ведь и солнечные, и ветряные электростанции зависят от соответствующего ресурса. Пики и провалы выработки энергии могут не совпадать со спросом на неё; временами стоимость такой энергии может падать ниже рентабельного минимума.

Идея, предлагаемая Lancium, проста: строить рядом с полями ветряков или солнечных панелей ЦОД, работающие в «импульсном» режиме, то есть, только тогда, когда энергии в сети много и стоимость её падает ниже определённого минимума.

Примеры «отрицательной стоимости» электроэнергии на территории США за 2017 год

Примеры «отрицательной стоимости» электроэнергии на территории США за 2017 год

В таких ЦОД можно запускать задачи, не критичные к срокам исполнения. По замыслу компании, заказчик сможет посылать им задания, которые будут обработаны, как только в энергосистеме окажется излишек дешёвой энергии. Пока в распоряжении Lancium имеется тестовый полигон с потреблением порядка 2,5 мегаватта, расположенный на окраине Хьюстона, штат Техас. На этой площадке не установлена стационарная система охлаждения, отсутствуют и средства обеспечения бесперебойного питания. Однако в планах стартапа имеются более серьёзные проекты ЦОД с потребляемой мощностью от 10 до 100 мегаватт.

Если верить заявлениям главы компании, подобный «импульсный» ЦОД, находящийся рядом с полем ветряков, может работать в течние 85% от всего времени, чутко реагируя на изменение стоимости киловатта энергии. Для того, чтобы задачи можно было останавливать без вреда для их выполнения, компания использует систему контейнеризации ПО, позволяющую приостанавливать и вновь запускать программное обеспечение, а также увеличивать или уменьшать предоставляемые вычислительные мощности на лету.

Эта фирменная система Smart Response уже привлекла внимание владельцев традиционных ЦОД, как позволяющая гибко распоряжаться мощностями. Lancium же планирует лицензировать эту систему, что позволит пользоваться ею и другим компаниям.

Для привлечения внимания потенциальных клиентов в настоящее время предлагается бесплатное тестовое подключение к «импульсному» ЦОД, но даже по завершении бета-тестирования цены планируется установить весьма привлекательные: 5 ‒ 10 центов в час за использование процессора Xeon E5-2680 и от 10 до 50 центов в час для систем, оснащённых ускорителями NVIDIA Tesla K40 или K80. Более полная информация об имеющихся в распоряжении Lancium программных ресурсов доступна на сайте компании.

Постоянный URL: http://servernews.ru/1008307
01.04.2020 [22:58], Владимир Мироненко

Google держит в секрете расход воды на охлаждение ЦОД, и этому есть причина

Компания Google, входящая в холдинг Alphabet Inc., стремится расширить сеть ЦОД, чтобы обеспечить потребности в онлайн-поиске, веб-рекламе и облачных сервисах. В течение многих лет компания хвасталась, что эти огромные дата-центры являются энергоэффективными и экологически чистыми. Но за это приходится платить высокую цену, которую Google пытается сохранить в тайне.

Эти объекты используют миллионы кубометров воды — иногда в засушливых районах, которые пытаются сберечь её ограниченные запасы.

«Центры обработки данных разворачиваются и строятся повсюду. ЦОД должны быть построены таким образом, чтобы гарантировать, что они не забирают критически важные ресурсы у жителей, испытывающих дефицит воды», — заявил Гари Кук, директор по глобальным климатическим кампаниям в группе по защите окружающей среды Stand.earth.

Google считает, что использование воды является коммерческой тайной, скрывая информацию об этом даже от органов власти. Но в ходе её юридических баталий с местными коммунальными службами и группами охраны природы иногда просачивается некоторая информация об этом.

По данным Bloomberg, только в 2019 году Google понадобилось более 2,3 млрд галлонов (8,7 млн куб. м) воды для своих ЦОД в трёх штатах, согласно общедоступным записям, опубликованным в Интернете, и юридическим документам. Сейчас у Google имеется 21 ЦОД в США. После вложения $13 млрд в строительство офисов и ЦОД в 2019 году, компания планирует инвестировать ещё $10 млрд в дальнейшее развёртывание дата-центров. Так что потребность Google в воде для охлаждения ЦОД будет расти и дальше.

В частности, Google запросила у администрации Ред-Оука (штат Техас) до 1,46 млрд галлонов воды (5,5 млн куб. м) в год для нового ЦОД к 2021 году, согласно юридической заявке. Округ Эллис, который включает в себя Ред-Оук и около 20 других городов, в этом году будет нуждаться в почти 15 миллиардах галлонов для всех нужд, от ирригации до бытового использования, согласно данным Texas Water Development Board.

Города, испытывающие дефицит воды, вынуждены идти на компромисс между поддержанием жизнедеятельности и экономическим развитием, и владеющая крупными финансовыми ресурсами Google этим пользуется. В последние годы Google уделяет больше внимания использованию воды в своих испарительных охладителях для ЦОД, полагаясь на оборотную или морскую воду там, где удаётся избежать использования питьевой воды. Хотя это не всегда и не везде возможно.

Постоянный URL: http://servernews.ru/1007327
23.03.2020 [23:44], Алексей Степин

Теория игр поможет увеличить энергоэффективность ЦОД

Вычислительные ресурсы человечества с каждым годом растут — и с каждым годом их рост становится всё более быстрым. Вместе с ними растёт и абсолютный уровень энергопотребления, хотя относительный остаётся достаточно стабильным. Но расходуется ли эта энергия рационально?

Как считают некоторые исследователи — далеко не всегда. Пользователи часто сражаются друг с другом за вычислительные ресурсы и это приводит к неэффективному их расходу, когда мощности не задействуются для выполнения полезных задач, но энергия при этом расходуется. Помочь может теория игр.

Частное благо — в данном случае, благо сотрудника какой-либо компании — далеко не всегда находится в соответствии с общим, и в крупных масштабах представляет серьёзную угрозу энергетической эффективности. Некоторые изначально запрашивают из общего пула ресурсов больше, нежели им необходимо, другие прибегают к хитрости: занижают запросы, сообщая, что им достаточно небольших мощностей. Однако стоит таким хитрецам получить запрашиваемое, как они буквально выжимают общий ресурс «досуха». Согласно теории игр, это можно расценивать, как частный случай так называемой «трагедии общин».

Статистика роста энергопотребления ЦОД и сетей неумолима

Статистика роста энергопотребления ЦОД и сетей неумолима

Известно, что современные процессоры кратковременно умеют повышать тактовые частоты и выходить за пределы среднего теплопакета. Обычно это ничем не грозит, поскольку временной интервал такой активности невелик. Однако сражающиеся за ресурсы в пределах одного ЦОД пользователи могут спровоцировать следующую ситуацию: большинство процессоров в серверах включает турборежим и энергопотребление резко подскакивает.

В итоге, как правило, срабатывает защита от перегрузок и подключаются источники резервного питания; кроме того, в период «отдыха» и зарядки батарей ИБП включение турборежима становится невозможным для всех процессоров в ЦОД. Страдают все: изнашиваются системы ИБП, пользователи не могут пользоваться ускоренным режимом, а владелец ЦОД вынужден оплачивать возросшие счета за электричество.

Слишком много турбо-пользователей —  и могут возникнуть проблемы с питанием

Слишком много турбо-пользователей —  и могут возникнуть проблемы с питанием. Общая производительность страдает

Подобная стратегия поведения называется спринтерской, и она далека от оптимальной, если вести речь об общей эффективности ЦОД — в том числе и об эффективности энергопотребления. Предсказать поведение каждого пользователя нельзя, но, как оказалось, достаточно достоверно описать их поведение можно с помощью популяционной модели и метода самосогласованного поля.

Решение, предложенное исследователями из Университета Дьюка (Duke University) и Университета Ватерлоо (University of Waterloo), в общих чертах звучит просто: вместо захвата всех ресурсов (включая турборежим) любой ценой, пользователю следует запрашивать такой режим только по достижению некоего порога. Сам порог при этом определяется характером и объемами нагрузки, а также физическими характеристиками ЦОД.

Разумная стратегия поведения сглаживает опасные пики энергопотребления в ЦОД

Разумная стратегия поведения (внизу) сглаживает опасные пики энергопотребления в ЦОД

Такой подход не требует централизованного распределения мощностей «по запросу» и позволяет энергосистемам серверов реагировать на пользовательские системы быстрее. Если большинство пользователей руководствуется «правилом порога», вычислительные ресурсы ЦОД расходуется эффективнее, а вероятность выхода энергопотребления за допустимые пределы существенно снижается.

Как уже было сказано, для определения «порога» требуется профиль ЦОД, который можно получить на основе анализа его загруженности. Подобный мониторинг требует наличия соответствующей инфраструктуры, но сам анализ может происходить и на основе неких априорных данных, которые будут уточняться в процессе эксплуатации. Для этого предлагается использовать машинное обучение с подкреплением (reinforcement learning) или похожие методы.

Постоянный URL: http://servernews.ru/1006636
06.03.2020 [22:15], Андрей Созинов

ASUS Power Balancer повышает энергоэффективность серверов с Intel Xeon

Энергопотребление является одной из очень важных характеристик серверных систем, так как оно напрямую влияет на стоимость содержания этих систем. Компания ASUS представила технологию Power Balancer, которая позволяет сократить потребление энергии её серверными платформами на процессорах Intel Xeon Cascade Lake-SP. 

«Технология ASUS Power Balancer позволяет серверам ASUS автоматически регулировать загрузку центральных процессоров, основываясь на поступающих в реальном времени данных мониторинга» — говорится в пресс-релизе ASUS.

Следом уточняется, что новая технология позволяет «оптимизировать» тактовую частоты процессора в многопоточных нагрузках, тем самым уменьшая энергопотребление. Проще говоря, экономия энергии будет происходить за счёт уменьшение частоты при каждом удобном случае. Соответственно, и снижение потребления энергии будет наблюдаться отнюдь не всегда. Но справедливости ради отметим, что в некоторых случаях это действительно позволит серверам потреблять меньше энергии.

Инженеры ASUS провели внутреннее тестирование, сравнив работу собственных серверных систем с технологией Power Balancer и без неё. Отмечается, что энергопотребление CPU без данной технологии составило 130 Вт при загрузке на 80 %. А благодаря технологии Power Balancer этот же сервер потреблял на 14 % меньше энергии при сохранении того же уровня производительности.

В целом же ASUS отмечает, что технология Power Balancer позволяет экономить до 31 Вт энергии в рамках одного вычислительного узла, а иногда даже больше. В рамках небольшого сервера это можно быть незначительная экономия, однако в рамках крупных систем и ЦОД технология Power Balancer может позволить сэкономить уже вполне ощутимое количество энергии. 

Постоянный URL: http://servernews.ru/1005386
17.01.2020 [22:12], Геннадий Детинич

Asetek начнёт продавать «мусорное» тепло от ЦОД городской теплосети Ольборга

Датская компания Asetek, известный производитель СЖО для ПК, серверов и ЦОД, помимо всего прочего занимается и проблемами утилизации «мусорного» тепла при охлаждении ЦОД.

Вскоре Asetek начнёт эксперимент по продаже излишков тепла централизованной теплосети города в Дании, что, как утверждается, станет первым в мире доступным решением подобного рода.

На этой неделе компания Asetek сообщила, что с 3 февраля она начнёт продавать тепло городской теплосети города Ольборга. Теплоноситель будет подаваться с небольшого центра по обработке данных, принадлежащего Asetek. Необычность проекта заключается в том, что компания реализовала его без необходимости использования дорогостоящих тепловых насосов.

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Стойка в ЦОД Asetek с жидкостным охлаждением компонентов (Asetek)

Например, похожий проект компании Facebook потребовал 135 млн крон инвестиций (около $20 млн) на закупку тепловых насосов для нагрева воды от ЦОД Facebook в городе Оденсе для нагрева отработанной воды с 25–30 °C до 60 °C, необходимых для подачи в городскую теплосеть. Такой подход сложно назвать доступным. ЦОД Яндекса в городе Мянтсяля (Финляндия) также использует станции донагрева воды перед отдачей во внешнюю сеть. 

Небольшой ЦОД Asetek в Ольборге сразу будет подавать разогретый до примерно 60 °C носитель прямо в теплосеть города. Также для соединения магистрали теплоотвода ЦОД и теплоцентрали города не потребовалось сложных строительно-монтажных работ: только неглубокая траншея и теплоизолированные трубы.

Протстые работы по подключению к городской теплоцентрали (Asetek)

Простые работы по подключению к городской теплоцентрали (Asetek)

По уверениям Asetek, данный проект готов к переносу на более мощные ЦОД. Для Дании это больное место. Эта страна находится на переднем крае борьбы с углеродным следом, но массовое возведение ЦОД на её территории крупнейшими мировыми ИТ-гигантами портит всю картину. К 2030 году прогнозируется, что 17 % электроэнергии в Дании будут потреблять центры по обработке данных. Утилизировать выработанное этими ЦОД тепло стало вызовом для правительства этой страны.

По подсчётам Asetek, разработанная компанией система прямой передачи тепла от ЦОД в городские теплосети позволит на 25 % снизить потребление энергии и будет на 70–80 % использовать выработанное ЦОД тепло. Если кто-то думает, что это лишнее, достаточно сказать, что углеродный след от ЦОД уже превышает углеродный след от авиаперевозок во всём мире. Отдельный привет девочке-экоактивистке, которая не летает самолётами, но использует Facebook и Инстаграм.

Постоянный URL: http://servernews.ru/1001701
Система Orphus