Материалы по тегу: энергоэффективность

26.11.2020 [00:16], Владимир Мироненко

Самый энергоэффективный дата-центр Амстердама будет снабжать теплом жителей города

Амстердам станет первым городом в Нидерландах, где построят центр обработки данных, способный обеспечивать централизованное теплоснабжение. Строительством этого ЦОД в районе порта Амстердама в настоящее время занимается Caransa Group. Он будет состоять из трех 80-метровых зданий.

В Амстердаме снова разрешили строительство ЦОД в июле. До этого в городе в течение года действовал мораторий, так как строительство дата-центров вышло из-под контроля, впрочем, как и расходование ими электроэнергии. Развёртывание здесь ЦОД теперь может продолжаться только с учётом установленных норм по мощности и занимаемой площади. Новый дата-центр, по заявлением создателей, будет самым энергоэффективным в городе.

Caransa Group

Caransa Group

Использование отработанного тепла ЦОД для отопления близлежащих предприятий и жилых домов более распространено в странах Северной Европы, где есть системы централизованного теплоснабжения. Отработанное тепло нового амстердамского объекта будет поставляться в сеть централизованного теплоснабжения Westpoort Warmte, совместного предприятия Nuon, компании Vattenfall и муниципалитета Амстердама.

В Амстердаме и ранее обсуждались вопросы централизованного теплоснабжения. В сентябре компания CyrusOne объявила о партнёрстве с муниципалитетом Харлема и бизнес-парком PolanenPark с целью проведения исследования возможности использования отработанного тепла ЦОД Amsterdam I.

Еще в 2018 году власти Амстердама объявили о планах использовать избыточное тепло ЦОД, чтобы помочь в реализации городского проекта по отказу от газового центрального отопления к 2050 году. Часть домов Амстердама получает отопление за счет избыточного тепла от электростанций и предприятий по переработке отходов. А в 2019 году шведская энергетическая компания Vattenfall и AEB объявили, что инвестируют 400 млн евро в течение следующих трёх лет в развитие сети централизованного теплоснабжения.

Постоянный URL: http://servernews.ru/1026317
06.08.2020 [23:04], Владимир Мироненко

В 2020 году Европа по-прежнему лидирует по уровню энергоэффективности ЦОД

Участники некоммерческого отраслевого консорциума Green Grid, впервые приняв в 2007 году метрику PUE (эффективность использования энергии) для центров обработки данных, согласились с тем, она не предназначена для использования в качестве сравнительного показателя, так как ситуации бывают разные. Поэтому компания Uptime Institute, опубликовав диаграмму, отражающую показатель PUE по регионам, воздержалась от какой-либо критики по этому поводу.

Из диаграммы следует, что в целом в Европе находятся самые энергоэффективные центры обработки данных, а на Ближнем Востоке и в Африке — показатель PUE хуже всего.

Эта диаграмма построена на основе ответа на вопрос, который Uptime Institute каждый год задаёт крупным операторам дата-центров: «Какой среднегодовой PUE для вашего крупнейшего ЦОД?». По итогам опроса 450 респондентов в 2020 году, средний PUE их крупнейших ЦОД составил 1,59. Это число немного снизилось по сравнению с прошлым годом, но фактически была продолжена тенденция к отсутствию улучшений, которая не меняется с 2013 года.

Диаграмма построена на основе части всех собранных данных. Эта выборка касается тех, кто сообщил о PUE в пределах от 1,0 до 2,19. Всего насчитывается 313 таких респондентов. Другие случаи исследователи посчитали частными или крайними отклонениями. Средние показатели по регионам варьируются от 1,46 (Европа) до 1,79 (Африка и Ближний Восток). Для России и СНГ этот показатель равен 1,6, но и выборка тут получилась совсем маленькая. 

Наиболее весомым фактором, влияющим на PUE, является климат. Это наглядно проявляется в Латинской Америке, Африке, Ближнем Востоке и большей части Азиатско-Тихоокеанского региона. В регионах, где температура воздуха выше, чем в зонах с умеренными климатическими условиями, может быть меньше возможностей воспользоваться преимуществами технологий естественного охлаждения (фрикулинга), которые позволяют существенно снизить потребление энергии. Это особенно актуально в районах с высокой влажностью или нехваткой воды.

Наличие проблем с поставками, отсутствие квалифицированных специалистов по обслуживанию или нестабильность энергосистемы могут также вынудить операторов применять менее энергоэффективный подход, чем хотелось бы, но который несёт меньше рисков возникновения ошибок.

В двух регионах с самыми низкими значениями PUE — в Европе и США/Канаде — размеры выборки примерно равны, но средний PUE в Европе ощутимо ниже. Это может быть связано с тем, что цены на энергоносители в Европе, как правило, выше, и/или что операторы и регулирующие органы более тщательно относятся к вопросам экологии и устойчивого развития, чем в США. Ну и климат тоже помогает улучшить PUE. 

В Лондоне, Амстердаме и Франкфурте, где расположена большая часть центров обработки данных на европейском континенте, а также в странах Северной Европы и Дублине, климат — умеренный. А в Азиатско-Тихоокеанском регионе, где по большей части жарко и влажно, более 10% провайдеров сообщило о значении PUE выше 2,19.

Постоянный URL: http://servernews.ru/1017638
02.07.2020 [14:58], Владимир Мироненко

Амстердам возобновляет строительство дата-центров

Мораторий на строительство дата-центров, объявленный Амстердамом год назад, подходит к концу, и город готовится к началу нового бума, ограничив вместе с тем, площадь для новых ЦОД и энергетические ресурсы.

Власти Амстердама выдвинули предложения по строительству ЦОД в конкретных кластерах и в рамках установленных показателей мощности и площади. Эти предложения были разработаны после обсуждения с Ассоциацией центров обработки данных Нидерландов (DDA). Их будут обсуждать в городском совете после летних отпусков. После этого, как ожидается, будет возобновлено строительство ЦОД.

Год назад власти Амстердама и Харлеммермера объявили, что новые ЦОД не будут утверждены до 2020 года, поскольку потребности сектора в электроэнергии и площадях «вышли из-под контроля». Сектор ЦОД в Амстердаме в течение предыдущих семи лет рос на 10–15 % в год, наряду с Франкфуртом, Лондоном и Парижем, представляющими вместе рынок FLAP, которому прочат рекордный год, несмотрая на пандемию.

Городские советы были обеспокоены тем, что у них не было механизма для контроля этого роста, о чём было заявлено в 2019 году: «ЦОД стали жизненно необходимыми объектами почти для всех жителей, предприятий и учреждений, но они также занимают много места и, в связи с высоким энергопотреблением, создают большую нагрузку на электросети».

В результате встреч DDA с муниципалитетами появился план, который обеспечит намеченный рост в данном секторе на следующие десять лет. Харлеммермер и Амстердам выделили по четыре специальных кампуса для центров обработки данных, а также установили ограничения по потребляемой мощности.

Харлеммермер спрогнозировал среднегодовой прирост установленной мощности в 70 МВА, и установил для сектора максимальный уровень потребления мощности в 750 МВА до 2030 года. Между тем Амстердам ожидает среднегодовой прирост установленной мощности в 67 МВА при общей доступности 670 МВА до 2030 года.

Чтобы получить одобрение, ЦОД должны иметь коэффициент эффективности использования энергии (PUE) не выше 1,2 и придерживаться природоохранных мер при строительстве.

Постоянный URL: http://servernews.ru/1014724
22.05.2020 [12:52], Юрий Поздеев

Суперкомпьютер LUMI будет отапливать дома местных жителей

Loiste Lämpö и CSC - IT Center for Science Ltd подписали соглашение об отведении тепла от центра обработки данных в городскую теплосеть. Новый дата-центр будет закончен в 2021 году и в нем планируют разместить суперкомпьютер LUMI.

Loiste Lämpö – компания, предоставляющая услуги централизованного отопления в домах Каяани. В этом финском городе живет чуть больше 38 тыс. человек. 

фото со строительства дата-центра (lumi-supercomputer.eu)

Фото со строительства дата-центра (lumi-supercomputer.eu)

Суперкомпьютер LUMI является совместным проектом EuroHPC и девяти европейских стран с объемом инвестиций более 200 миллионов евро. Половина финансирования поступает от Европейского Союза, а половина от стран-участниц.

В свете последних экологических инициатив в Европе, новый дата-центр строится максимально эко-эффективным, отвод тепла в систему центрального отопления — это еще один фактор снижения влияния на окружающую среду и уменьшение выбросов СО в атмосферу за счет того, что вместо отдельных котельных в каждом доме будет использована единая тепломагистраль.

архитектура суперкомпьютера LUMI (lumi-supercomputer.eu)

Архитектура суперкомпьютера LUMI (lumi-supercomputer.eu)

Суперкомпьютер LUMI будет использоваться для проведения исследований в области материаловедения, биосинтеза, фармацевтики и глобального изменения климата. Теоретическая пиковая производительность LUMI составит более 200 петафлопс, что примерно в 10 раз больше, чем у самого быстрого в Европе суперкомрьютера Piz Daint.

Основой машины являются узлы с графическими ускорителями Nvidia. Lumi будет иметь хранилище ёмкостью более 60 Пбайт. Примерно 5 Пбайт из этого объема будет построено на SSD-накопителях, что позволит достигнуть пропускной способности более 1 Тбайт/с. Для вычислений и проектирования будут использоваться в том числе такие приложения, как Jupyter Notebooks, Rstudio и Matlab.

Как будет развиваться проект покажет время, однако уже с 2021 года жители города Каяни смогут выбирать в качестве метода отопления «чистое» центральное отопление, произведенное с учетом отведенного от дата-центра тепла. 

Это не единственный проект такого рода. Например, в той же Финляндии новый ЦОД компании Яндекс был спроектирован таким образом, что тепло от него отдавалось в городскую теплосеть. У Facebook и Asetek есть аналогичные проекты в Дании

Постоянный URL: http://servernews.ru/1011573
14.05.2020 [22:07], Алексей Степин

Серверы ASUS лидируют в рейтинге энергоэффективности SPECpower

Если для обычных ПК и рабочих станций энергоэффективность не является определяющим параметром, то для крупных ЦОД и серверных ферм этот показатель может стать решающим, ведь десятки и сотни ватт легко складываются в десятки и сотни киловатт и мегаватт.

Производители серверного оборудования это учитывают и стараются минимизировать энергопотребление своих продуктов при сохранении высокой производительности. Серьёзную заявку на лидерство в этой области сделала компания ASUS.

ASUS RS720-E9-RS8 (справа) и RS500A-E10-PS4

ASUS RS720-E9-RS8 (справа) и RS500A-E10-PS4

Существуют стандартизированные тесты и методики определения энергоэффективности вычислительных устройств: в частности, для этого используется тест SPECpower, являющийся частью широко используемого набора бенчмарков SPEC, разрабатываемых одноимённой некоммерческой организацией. ASUS опубликовала анонс, в котором говорится о достижении лидирующих позиций в рейтинге SPECpower на момент публикации наиболее свежих данных, датированных 16 апреля 2020 года.

Верхние строки рейтинга заняли серверы ASUS RS720-E9-RS8 и RS500A-E10-PS4 на базе процессоров Xeon Scalable и AMD EPYC. Первая система довольно обычна: она имеет форм-фактор 2U и поддерживает установку до шести ускорителей PCI Express. Вторая является компактным однопроцессорным 1U-сервером.

Thermal Radar не только экономит энергию, но и повышает эффективность охлаждения

Технология ASUS Thermal Radar не только экономит энергию, но и повышает эффективность охлаждения

За победу в тестировании и занятие лидирующей позиции в рейтинге SPECpower ответственны две фирменные технологии ASUS — Thermal Radar 2.0 и Power Balancer. Суть первой заключается в интеллектуальном управлении системами охлаждения сервера. Конечно, в сравнении с процессорами и платами ускорителей вентиляторы потребляют немного, но в масштабах достаточно крупного ЦОД итоговая цифра может оказаться солидной.

Для того, чтобы минимизировать затраты энергии, Thermal Radar 2.0 отслеживает показания многочисленных датчиков, число которых может достигать 56. Они располагаются во всех ключевых элементах системы — от процессорных разъёмов до подсистемы памяти и даже внешней панели сервера. Благодаря этим датчикам, вентиляторы системы охлаждения всегда работают на минимально возможных скоростях и разгоняются только тогда, когда это действительно нужно. Экономия может достигать 36% в сравнении с менее «умными» системами охлаждения.

Верхушка рейтинга SPECpower_ssj2008 (нажмите для увеличения)

Технология Power Balancer служит для управления энергопотреблением процессоров. Она также работает на основе поступающих в реальном времени данных. Если верить заявлениям ASUS, использование Power Balancer позволяет снизить энергопотребление на 14%: если при загрузке 80% этот показатель составлял 130 Ватт, то с применением данной технологии он понизился до 111,8 Ватт. При большом количестве серверов выигрыш в плане экономии электроэнергии может быть весьма ощутимым.

Результаты SPECpower доступны на сайте проекта. Стоит отметить, что по состоянию на 11 мая текущего года, первые два места в рейтинге также принадлежат ASUS, хотя и другой системе — двухпроцессорной RS700A-E9-RS4V2 на базе EPYC 7742.

Постоянный URL: http://servernews.ru/1010969
01.05.2020 [00:12], Игорь Осколков

Энергоэффективность дата-центров практически перестала расти

Согласно данным Uptime Institute, среднее значение коэффициента PUE (power usage effectiveness) для дата-центров в 2020 году равно 1,58. Это немногим лучше показателя семилетней давности — 1,65. Более того, в прошлом году среднее значение и вовсе подросло до 1,67, тогда как в 2018-м оно составляло 1,58.

PUE указывает на то, насколько эффективно использует электроэнергию IT-система: ЦОД, кластер, суперкомпьютер и т.д. Коэффициент показывает отношение всех энергозатрат объекта к затратам только на вычислительные мощности.

В идеальном случае он равен единице. На практике у наиболее энергоэффективных современных систем PUE составляет менее 1,1. Кроме того, могут быть нюансы с подсчётом суммарного энергопотребления. Например, не все учитывают офисные и хозяйственно-бытовые нужды ЦОД. Как бы то ни было, в 2007 году, когда и была предложена данная метрика, впоследствии ставшая стандартом ISO/IEC, коэффициент PUE составлял в среднем 2,65. До 2013 года он снижался очень быстрыми темпами, после чего скорость падения резко замедлилась.

Uptime Institute объясняет это тем, что на первом этапе были задействованы относительно простые и дешёвые методы повышения эффективности, тогда как дальнейшие этапы оказались намного сложнее и затратнее. Большинство новых, построенных с нуля ЦОД вписываются в диапазон PUE от 1,2 до 1,4. Однако в работе всё ещё находятся тысячи дата-центров «прошлых лет», которые не могут быть обновлены. И не только по экономическим причинам, но и потому, что им, например, необходимо поддерживать высокий уровень доступности.

Источник: Google

Источник: Google

Новые ЦОД чаще строятся гиперскейлерами, и эти дата-центры в целом и крупнее, и энергоэффективнее. По данным Uptime Institute за 2019 год, ЦОД мощностью от 20 МВт имеют более низкий средний показатель PUE. Данные Google показывают такую же общую тенденцию, но значение PUE у дата-центров компании и так ниже среднего по индустрии.

Постоянный URL: http://servernews.ru/1009895
22.04.2020 [23:57], Владимир Мироненко

Умное управление энергопотреблением сделает ЦОД Google экологичнее

Компания Google является углеродно-нейтральной с 2007 года, и с 2016 года приобретает энергию, полученную только из возобновляемых источников. Следующий шаг — добиться обеспечения дата-центров только энергией из возобновляемых источников в течение семи дней в неделю.

Как отмечает компания, для этого её центры обработки данных должны более тесно сотрудничать с поставщиками энергии из безуглеродных источников, таких как солнечная энергия и энергия ветра.

В рамках этой инициативы команда специалистов Google разработала и внедрила новую интеллектуальную вычислительную платформу, которая позволит оптимизировать использование альтернативных источников энергии дата-центрами.

Эта первая, как утверждается, в своем роде система для гипермасштабируемых центров обработки данных позволяет перенести время выполнения вычислительных задач в режим, когда поступает максимальное количество энергии от альтернативных источников, таких, как ветер и солнце.

Для этого не требуется дополнительное компьютерное оборудование, и это не влияет на производительность сервисов Google, таких, как Поиск, Карты и YouTube, используемых круглосуточно.

Сдвиг сроков выполнения некоторых несрочных вычислительных задач, таких, как создание новых функций фильтра в Google Фото, обработка видео на YouTube или добавление новых слов в Google Translate, помогает уменьшить углеродный след электрической сети, приближая компанию к полному переходу на использование безуглеродной энергии в режиме 24×7.

Каждый день в каждом ЦОД Google интеллектуальная платформа сравнивает два типа прогнозов на следующий день. Один из прогнозов, предоставленных партнёром компании Tomorrow, предсказывает, как среднечасовая интенсивность выбросов углерода в локальной электросети будет меняться в течение дня.

Дополнительный внутренний прогноз Google отражает ежечасные энергозатраты, которые необходимы ЦОД для выполнения своих вычислительных задач в течение того же периода. Затем Google использует эти два прогноза, чтобы оптимизировать почасовые инструкции и согласовать вычислительные задачи с периодом низкоуглеродного электроснабжения.

Первая версия этой интеллектуальной вычислительной платформы ориентирована на перенос выполнения задач на разное время в течение суток в пределах одного ЦОД. Также можно перемещать гибкие вычислительные задачи между различными ЦОД. План компании на будущее состоит в том, чтобы начать перемещать нагрузку как во времени, так и между разными объектами, чтобы максимально сократить выбросы CO2 на уровне сети.

Похожую концепцию предлагает стартап Lancium, который использует избытки «чистой» энергии в своих ЦОД, размещаемых около полей ветрогенераторов или солнечных панелей. ЦОД Lancium рассчитаны на некритичные ко времени исполнения, но тяжёлые HPC-задачи и работают только тогда, когда стоимость энергии падает ниже заданного уровня. Свою систему SmartResponse стартап планирует лицензировать операторам других дата-центров.

Постоянный URL: http://servernews.ru/1009169
13.04.2020 [16:54], Алексей Степин

Lancium: «спящие» ЦОД при «зелёных» электростанциях

При растущей популярности возобновляемых источников энергии и периферийных вычислений логичной начинает выглядеть идея размещения ЦОД и HPC-систем рядом с полями ветрогенераторов или солнечных панелей. Техасский стартап Lancium считает так же.

Целью компании является создание «дремлющих» HPC-платформ, черпающих энергию от ветряных электростанций и запускаемых только в моменты появления избыточной энергии.

Глава компании, Майкл МакНамара (Michael McNamara) полагает, что за возобновляемыми источниками энергии будущее, но признает присущие им недостатки — ведь и солнечные, и ветряные электростанции зависят от соответствующего ресурса. Пики и провалы выработки энергии могут не совпадать со спросом на неё; временами стоимость такой энергии может падать ниже рентабельного минимума.

Идея, предлагаемая Lancium, проста: строить рядом с полями ветряков или солнечных панелей ЦОД, работающие в «импульсном» режиме, то есть, только тогда, когда энергии в сети много и стоимость её падает ниже определённого минимума.

Примеры «отрицательной стоимости» электроэнергии на территории США за 2017 год

Примеры «отрицательной стоимости» электроэнергии на территории США за 2017 год

В таких ЦОД можно запускать задачи, не критичные к срокам исполнения. По замыслу компании, заказчик сможет посылать им задания, которые будут обработаны, как только в энергосистеме окажется излишек дешёвой энергии. Пока в распоряжении Lancium имеется тестовый полигон с потреблением порядка 2,5 мегаватта, расположенный на окраине Хьюстона, штат Техас. На этой площадке не установлена стационарная система охлаждения, отсутствуют и средства обеспечения бесперебойного питания. Однако в планах стартапа имеются более серьёзные проекты ЦОД с потребляемой мощностью от 10 до 100 мегаватт.

Если верить заявлениям главы компании, подобный «импульсный» ЦОД, находящийся рядом с полем ветряков, может работать в течние 85% от всего времени, чутко реагируя на изменение стоимости киловатта энергии. Для того, чтобы задачи можно было останавливать без вреда для их выполнения, компания использует систему контейнеризации ПО, позволяющую приостанавливать и вновь запускать программное обеспечение, а также увеличивать или уменьшать предоставляемые вычислительные мощности на лету.

Эта фирменная система Smart Response уже привлекла внимание владельцев традиционных ЦОД, как позволяющая гибко распоряжаться мощностями. Lancium же планирует лицензировать эту систему, что позволит пользоваться ею и другим компаниям.

Для привлечения внимания потенциальных клиентов в настоящее время предлагается бесплатное тестовое подключение к «импульсному» ЦОД, но даже по завершении бета-тестирования цены планируется установить весьма привлекательные: 5 ‒ 10 центов в час за использование процессора Xeon E5-2680 и от 10 до 50 центов в час для систем, оснащённых ускорителями NVIDIA Tesla K40 или K80. Более полная информация об имеющихся в распоряжении Lancium программных ресурсов доступна на сайте компании.

Постоянный URL: http://servernews.ru/1008307
01.04.2020 [22:58], Владимир Мироненко

Google держит в секрете расход воды на охлаждение ЦОД, и этому есть причина

Компания Google, входящая в холдинг Alphabet Inc., стремится расширить сеть ЦОД, чтобы обеспечить потребности в онлайн-поиске, веб-рекламе и облачных сервисах. В течение многих лет компания хвасталась, что эти огромные дата-центры являются энергоэффективными и экологически чистыми. Но за это приходится платить высокую цену, которую Google пытается сохранить в тайне.

Эти объекты используют миллионы кубометров воды — иногда в засушливых районах, которые пытаются сберечь её ограниченные запасы.

«Центры обработки данных разворачиваются и строятся повсюду. ЦОД должны быть построены таким образом, чтобы гарантировать, что они не забирают критически важные ресурсы у жителей, испытывающих дефицит воды», — заявил Гари Кук, директор по глобальным климатическим кампаниям в группе по защите окружающей среды Stand.earth.

Google считает, что использование воды является коммерческой тайной, скрывая информацию об этом даже от органов власти. Но в ходе её юридических баталий с местными коммунальными службами и группами охраны природы иногда просачивается некоторая информация об этом.

По данным Bloomberg, только в 2019 году Google понадобилось более 2,3 млрд галлонов (8,7 млн куб. м) воды для своих ЦОД в трёх штатах, согласно общедоступным записям, опубликованным в Интернете, и юридическим документам. Сейчас у Google имеется 21 ЦОД в США. После вложения $13 млрд в строительство офисов и ЦОД в 2019 году, компания планирует инвестировать ещё $10 млрд в дальнейшее развёртывание дата-центров. Так что потребность Google в воде для охлаждения ЦОД будет расти и дальше.

В частности, Google запросила у администрации Ред-Оука (штат Техас) до 1,46 млрд галлонов воды (5,5 млн куб. м) в год для нового ЦОД к 2021 году, согласно юридической заявке. Округ Эллис, который включает в себя Ред-Оук и около 20 других городов, в этом году будет нуждаться в почти 15 миллиардах галлонов для всех нужд, от ирригации до бытового использования, согласно данным Texas Water Development Board.

Города, испытывающие дефицит воды, вынуждены идти на компромисс между поддержанием жизнедеятельности и экономическим развитием, и владеющая крупными финансовыми ресурсами Google этим пользуется. В последние годы Google уделяет больше внимания использованию воды в своих испарительных охладителях для ЦОД, полагаясь на оборотную или морскую воду там, где удаётся избежать использования питьевой воды. Хотя это не всегда и не везде возможно.

Постоянный URL: http://servernews.ru/1007327
23.03.2020 [23:44], Алексей Степин

Теория игр поможет увеличить энергоэффективность ЦОД

Вычислительные ресурсы человечества с каждым годом растут — и с каждым годом их рост становится всё более быстрым. Вместе с ними растёт и абсолютный уровень энергопотребления, хотя относительный остаётся достаточно стабильным. Но расходуется ли эта энергия рационально?

Как считают некоторые исследователи — далеко не всегда. Пользователи часто сражаются друг с другом за вычислительные ресурсы и это приводит к неэффективному их расходу, когда мощности не задействуются для выполнения полезных задач, но энергия при этом расходуется. Помочь может теория игр.

Частное благо — в данном случае, благо сотрудника какой-либо компании — далеко не всегда находится в соответствии с общим, и в крупных масштабах представляет серьёзную угрозу энергетической эффективности. Некоторые изначально запрашивают из общего пула ресурсов больше, нежели им необходимо, другие прибегают к хитрости: занижают запросы, сообщая, что им достаточно небольших мощностей. Однако стоит таким хитрецам получить запрашиваемое, как они буквально выжимают общий ресурс «досуха». Согласно теории игр, это можно расценивать, как частный случай так называемой «трагедии общин».

Статистика роста энергопотребления ЦОД и сетей неумолима

Статистика роста энергопотребления ЦОД и сетей неумолима

Известно, что современные процессоры кратковременно умеют повышать тактовые частоты и выходить за пределы среднего теплопакета. Обычно это ничем не грозит, поскольку временной интервал такой активности невелик. Однако сражающиеся за ресурсы в пределах одного ЦОД пользователи могут спровоцировать следующую ситуацию: большинство процессоров в серверах включает турборежим и энергопотребление резко подскакивает.

В итоге, как правило, срабатывает защита от перегрузок и подключаются источники резервного питания; кроме того, в период «отдыха» и зарядки батарей ИБП включение турборежима становится невозможным для всех процессоров в ЦОД. Страдают все: изнашиваются системы ИБП, пользователи не могут пользоваться ускоренным режимом, а владелец ЦОД вынужден оплачивать возросшие счета за электричество.

Слишком много турбо-пользователей —  и могут возникнуть проблемы с питанием

Слишком много турбо-пользователей —  и могут возникнуть проблемы с питанием. Общая производительность страдает

Подобная стратегия поведения называется спринтерской, и она далека от оптимальной, если вести речь об общей эффективности ЦОД — в том числе и об эффективности энергопотребления. Предсказать поведение каждого пользователя нельзя, но, как оказалось, достаточно достоверно описать их поведение можно с помощью популяционной модели и метода самосогласованного поля.

Решение, предложенное исследователями из Университета Дьюка (Duke University) и Университета Ватерлоо (University of Waterloo), в общих чертах звучит просто: вместо захвата всех ресурсов (включая турборежим) любой ценой, пользователю следует запрашивать такой режим только по достижению некоего порога. Сам порог при этом определяется характером и объемами нагрузки, а также физическими характеристиками ЦОД.

Разумная стратегия поведения сглаживает опасные пики энергопотребления в ЦОД

Разумная стратегия поведения (внизу) сглаживает опасные пики энергопотребления в ЦОД

Такой подход не требует централизованного распределения мощностей «по запросу» и позволяет энергосистемам серверов реагировать на пользовательские системы быстрее. Если большинство пользователей руководствуется «правилом порога», вычислительные ресурсы ЦОД расходуется эффективнее, а вероятность выхода энергопотребления за допустимые пределы существенно снижается.

Как уже было сказано, для определения «порога» требуется профиль ЦОД, который можно получить на основе анализа его загруженности. Подобный мониторинг требует наличия соответствующей инфраструктуры, но сам анализ может происходить и на основе неких априорных данных, которые будут уточняться в процессе эксплуатации. Для этого предлагается использовать машинное обучение с подкреплением (reinforcement learning) или похожие методы.

Постоянный URL: http://servernews.ru/1006636
Система Orphus