Материалы по тегу: энергоэффективность

26.07.2021 [07:06], Андрей Галадей

Huawei установила мировой рекорд, показав самый энергоэффективный ЦОД

Компания Huawei сообщила, что её модульный центр обработки данных Smart Modular Data Center достиг отраслевых рекордов по энергоэффективности — годовой показатель эффективности энергопотребления (PUE) составил всего 1,111 в тестах, проведённых Китайским исследовательским институтом облачных вычислений и Big Data, а также местной ИТ-группой The Green Grid China (TGGC).

По данным компании, в ноябре 2018 года был зафиксирован предыдущий рекорд в 1,245. Хотя нынешний показатель пока что не дотягивает до уровня PUE в 1,018, который был достигнут в центре обработки данных Boden Type в Швеции. Этот ЦОД считается самым энергетически эффективным объектом в мире. Правда, нужно учесть, что эффективности Boden Type помогает холодный климат, а сам дата-центр использует не совсем стандартные подходы к охлаждению.

В случае решения Huawei показатель PUE охватывает диапазон температур от -5 до +35 ° C, что даёт возможность использовать наработки китайской компании в различных климатических зонах. При этом отметим, что китайцы всё же использовали моделирование окружающей среды, а не реальные проверки. Компания отмечает, что многие старые ЦОД имеют показатель PUE на уровне 2,0 или более, но в настоящее время среднее значение составляет около 1,5, поэтому PUE, равный 1,111, приведёт к значительному снижению общей мощности.

По данным Uptime Institute и Green Grid, среднемировой показатель PUE составлял 1,59, тогда как Азиатско-Тихоокеанском регионе, куда относится и Китай, он был равен 1,69, что объясняется преобладанием тропического климата. Так что решения Huawei выгодно смотрятся на фоне конкурентов, а компания наверняка примет самое активное участие в трёхлетнем китайском плане по массовому развёртыванию энергоэффективных (PUE на уровне 1,3) дата-центров по всей стране.

Постоянный URL: http://servernews.ru/1045125
24.07.2021 [01:45], Владимир Мироненко

Остров невезения: ирландские дата-центры рискуют столкнуться с нехваткой электричества и воды

Компания Irish Water, занимающаяся вопросами водоснабжения в Ирландии, должна настаивать на том, чтобы существующие центры обработки данных получили более эффективные системы охлаждения, заявил Дункан Смит (Duncan Smith), официальный представитель лейбористкой партии по вопросам борьбы с изменением климата. Как сообщает газета Irish Independent, Смит отметил, что было бы несправедливо, если бы ЦОД работали бы как обычно, тогда как общественность сталкивается с ограничениями.

В некоторых частях графств Уэксфорд, Лаойс, Лонгфорд и Донегол уже действуют ограничения на потребление воды в ночное время, так как её запасы заканчиваются, а графства Керри, Голуэй и Корк были предупреждены, что эти меры могут распространиться и на них. Irish Water попросила жителей пострадавших районов не поливать сады, не мыть машины, не заполнять водой детские бассейны и не расходовать попусту большие объёмы воды.

Системы охлаждения центра обработки данных могут потреблять 500 000 л воды в день, и гораздо больше — в жаркую погоду. Irish Water обратилась к крупным потребителям с просьбой о помощи. «Мы активно взаимодействуем со всеми крупными водопользователями, не являющимися бытовыми, когда мы видим всплески спроса, чтобы понять, где можно сэкономить, и обеспечить бесперебойное водоснабжение для всех», — сообщила компания газете.

thecork.ie

thecork.ie

Следует отметить, что новые ЦОД в Ирландии строятся с использованием водосберегающих технологий, как, например, недавно одобренный властями проект по строительству объекта EnergyNode в графстве Мит. Его влияние на водоснабжение при нормальном использовании должно быть «незаметным», хотя может потребоваться до 1,3 млн л в сутки при температуре выше 25 °С. Смит заявил, что такое требование следует распространить и на существующие центры обработки данных.

Это происходит на фоне обсуждения возможного запрета или ограничения на постройку новых дата-центров в наиболее востребованных регионах Ирландии в связи с опасениями относительно способности энергосистемы выдержать возросшую нагрузку. IT-гиганты уже объединились для того, чтобы лоббировать отмену моратория.

Отметим, проблема с водоснабжением и водоотводом не является уникальной для Ирландии. Например, Microsoft согласилась построить установку для очистки сточных вод своих дата-центров в США, а в Нидерландах компания будет использовать для охлаждения нового ЦОД дождевую воду. Впрочем, встречается и другой подход — в прошлом году Google упрекнули в том, что компания скрывает расход воды даже от властей.

Постоянный URL: http://servernews.ru/1045061
19.07.2021 [13:15], Алексей Степин

Суперкомпьютер Frontier станет самой энергоэффективной системой экзафлопсного класса

Новый суперкомпьютер вычислительного центра Окриджской лаборатории Frontier должен вступить в строй к концу этого года и стать первой системой экза-класса в США. Хотя такая вычислительная производительность и означает многие мегаватты энергопотребления, OLCF рассказала, что благодаря новым технологиям будущий суперкомпьютер превзойдет раннюю оценку в 20 МВт на Эфлопс.

Физические законы невозможно обмануть и любая вычислительная система, кроме гипотетического обратимого процессора, неизбежно потребляет энергию и выделяет тепло. Но удельную энергоэффективность повышать можно и нужно. Ещё в 2008 году исследовательское агентство DARPA опубликовало любопытное исследование на эту тему.

Четыре проблемы: потребление, надёжность, параллелизм и перемещение данных

Четыре проблемы: потребление, надёжность, параллелизм и перемещение данных

На тот момент создание системы экза-класса уже было возможным на базе существующих технологий, но потреблять такая система стала бы гигаватт энергии; для сравнения, Новгородской области в том же 2008 году требовалось 3,55 ГВт. С учётом развития полупроводниковых технологий исследователи надеялись уложить Эфлопс в 155 МВт, а при самом агрессивном подходе даже 70 МВт.

Перемещение данных: главный пожиратель времени и энергии

Перемещение данных: главный пожиратель времени и энергии

Но и это было слишком большой цифрой, получить под которую финансирование было бы невозможно. Одно только энергопотребление такой системы обошлось бы в более чем $100 миллионов в течение пяти лет. В качестве реалистичной оценки, делающей экзафлопсные суперкомпьютеры реальными, была взята планка 20 МВт.

Также был озвучен и ряд других проблем, стоящих на пути к системам такого масштаба Одним из «бутылочных горлышек» стал бы интерконнект — в 2008 году ещё не было возможности «накормить» систему с такой степенью параллелизма без простоев вычислительных узлов. Время перемещения одного байта информации в подобной системе оказалось на порядки больше времени, затрачиваемого на сами вычисления.

Эволюция систем ORNL: от Titan к Frontier

Эволюция систем ORNL: от Titan к Frontier

С тех пор по меркам ИТ минула эпоха: утончались техпроцессы, стали популярными вычисления на GPU. Если суперкомпьютер Titan 2012 года имел соотношение ЦП к ГП 1:1, то уже в 2017 году с введением в строй его наследника Summit эта цифра выросла до 1:3, а в будущем Frontier она должна составить уже 1:4. На каждый процессор AMD EPYC придётся 4 ускорителя Radeon Instinct.

Само развитие микроэлектроники сделало возможным создание экзафлопсной системы, укладывающуюся в названную более 10 лет назад цифру 20 МВт. Сегодня никаких экзотических технологий и подходов к программированию для реализации проекта подобного масштаба не требуется. Увеличилась и плотность вычислений, и плотность хранения данных, и производительность сетевых подсистем — с 6,4 (Titan) до 100 Гбайт/с (Frontier) в последнем случае.

Развитие технологий позволит превзойти сделанные в 2008 году предсказания

Развитие технологий позволит превзойти сделанные в 2008 году предсказания

На данный момент потребление Frontier оценивается в 29 МВт, что несколько больше заявленной ранее цифры, но, напомним, 20 МВт было оценкой для 1 Эфлопс вычислительной мощности, Frontier же должен развивать более 1,5 Эфлопс, так что соотношение окажется даже лучше ранее предсказанного. Проблема с хранением и перемещением данных в новом суперкомпьютере будет решена за счёт широкого использования памяти типа HBM.

Эта оценка базируется на эффективности вычислений, составляющей 80% — 41,4 Гфлопс/Вт в режиме FP64, что выше наиболее энергоэффективных систем, для которых этот показатель составляет около 30 Гфлопс/Вт. Для сравнения можно взять сегодняшннего лидера TOP500, Arm-суперкомпьютер Fugaku. Его производительность составляет 442 Пфлопс, но потребляет он почти 30 МВт. В рейтинге Green500 он занимает 20 место. Полностью презентацию, посвященную истории экзафлопсных систем, можно посмотреть здесь.

Постоянный URL: http://servernews.ru/1044562
16.07.2021 [01:23], Владимир Мироненко

Китай к 2023 году покроет регионы сетью энергоэффективных дата-центров суммарной производительностью 200 Эфлопс

Правительство Китая утвердило трёхлетний план по строительству центров обработки данных (Action Plan for the Development of New Data Centers, 2021-2023), согласно которому новые объекты будут иметь к концу 2023 года коэффициент энергоэффективности PUE на уровне 1,3, а их загрузка достигнет 60 %. Кроме того, планом определяется поддержка национальной архитектуры, включающей крупные облачные хабы для всей страны, региональные дата-центры и периферийные ЦОД.

Здесь и ниже изображения Chindata

Здесь и ниже изображения Chindata

«Через три года в основном будет сформирована новая модель развития ЦОД с разумной компоновкой, передовыми технологиями, экологичными и низкоуглеродными технологиями, а также масштабом вычислительной мощности, совместимым с ростом цифровой экономики», — говорится в сообщении Министерства промышленности и информатизации КНР (Ministry of Industry and Information Technology, MIIT). В целом, новая модель опирается на принципы устойчивого развития.

План разработан для поддержки цифровой трансформации, и он довольно обширен, так как включает в себя пункты, касающиеся сетей, экологии, цепочек поставок, безопасности, производительности и т.д. План предусматривает создание национальной сети дата-центров, покрывающих территорию Китая и централизованно управляемых. В неё войдут хабы и сверхкрупные кластеры ЦОД в Пекине-Тяньцзине-Хэбэе, дельте реки Янцзы, районе Большого залива Гуандун-Гонконг-Макао и Чэнду-Чунцине.

В Гуйчжоу, Внутренней Монголии, Ганьсу и Нинся сконцентрируются на повышении качества обслуживания и эффективности использования вычислительной мощности. В провинциях будут строить ЦОД «по мере необходимости» для удовлетворения потребностей регионального бизнеса. Периферийные вычисления будут гибко развёртываться для удовлетворения потребностей новых бизнес-приложений с чрезвычайно низкой задержкой. Старые, разрозненные и неэффективные ЦОД будут модернизировать.

План MIIT также направлен на повышение загрузки ЦОД. Он требует, чтобы к концу 2021 года средний показатель использования по стране составлял 55 %, а к концу 2023 года он вырос до более чем 60 %. Энергоэффективность (PUE) тем временем снизится с менее 1,35 в этом году до менее 1,3 в 2023 году. «В очень холодных и холодных регионах мы будем стремиться снизить его до уровня ниже 1,25», — говорит MIIT. В течение этого периода производительность будет быстро расти, примерно на 30 % в год, увеличившись со 120 Эфлопс в этом году до 200 Эфлопс в 2023 году.

Но план MIIT предусматривает увеличение плотности, поэтому количество стоек будет увеличиваться примерно на 20 % каждый год. MIIT ожидает, что в 2023 году 10 % вычислительных ресурсов Китая придётся на высокопроизводительные вычисления (HPC), а 70 % — на крупные хабы. При этом задержка в таких хабах должна составлять менее 20 мс.

Постоянный URL: http://servernews.ru/1044377
29.04.2021 [14:41], Сергей Карасёв

Облачное решение Mail.ru и Schneider Electric поможет улучшить энергоэффективность предприятий

Mail.ru Cloud Solutions и компания Schneider Electric объявили о запуске в России платформы EcoStruxure Power Monitoring Expert in the Cloud (Cloud PME) — специализированной облачной системы, которая поможет предприятиям повысить энергетическую эффективность.

Решение использует инфраструктуру Mail.ru Cloud Solutions. Средства мониторинга аккумулируют информацию о потреблении любых энергоресурсов (электроэнергия, газ, вода, тепло или пар) и предоставляют данные в наглядном виде.

Изображения Schneider Electric

Изображения Schneider Electric

Полученная статистика может использоваться службой эксплуатации или энергетиками для принятия технико-административных решений, способствующих более эффективному расходу энергоресурсов и работе оборудования в оптимальных режимах.

Кроме того, система способна прогнозировать потребление ресурсов, что поможет оптимизировать работу промышленного оборудования и, скажем, производственных линий предприятия. Всеобъемлющие отчёты позволят видеть полную картину расхода энергии.

Партнёры предоставляют заказчикам полностью готовое решение «под ключ». В частности, Mail.ru Cloud Solutions обеспечивает развёртывание и поддержку инфраструктуры, тогда как Schneider Electric осуществляет настройку решения под индивидуальные потребности клиента, пусконаладочные работы на серверах и обновление ПО.

«Экономия на энергоресурсах после внедрения PME в зависимости от типа объекта составляет до 15 %. Решение позволяет учитывать любые ресурсы (электроэнергия, газ, вода, тепло), отслеживать состояние оборудования на объектах, управлять нагрузками на инфраструктуру и вести отчётную документацию», — отмечают партнёры.

Постоянный URL: http://servernews.ru/1038470
23.02.2021 [17:44], Сергей Карасёв

Норвегия хочет обязать дата-центры отдавать «мусорное» тепло на общественные нужды

Власти Норвегии намерены обратиться к крупным потребителям электрической энергии, в число которых входят центры обработки данных, с предложением изучить возможность вторичного использования выделяемого оборудованием тепла.

С инициативой выступила Министр энергетики Норвегии Тина Брю (Tina Bru). Идея заключается в том, чтобы по возможности направить тепловую энергию предприятий на общественные нужды. Это может быть, скажем, подогрев воды в рыбных хозяйствах или бассейнах.

Требование об изучении соответствующей возможности затронет все компании и организации, которые модернизируют или строят с нуля ту или иную инфраструктуру с большим потреблением электричества. В соответствии с директивой Евросоюза промышленные предприятия мощностью более 20 МВт, использующие для генерации электричества различные виды топлива, должны обсудить с районными властями возможность поставки тепла на другие нужды.

Госпожа Брю предлагает расширить данную практику и подвести под неё центры обработки данных с потребляемой мощностью более 2 МВт. Предполагается, что тепло на промышленные нужды будут поставлять дата-центры, расположенные за пределами городов.

В Европе уже есть похожие частные инициативы. Так, дата-центры Яндекса и LUMI в Финляндии, Asetek и Facebook в Дании, atNorth в Швеции, а также Nikef и Caransa Group в Нидерландах уже отдают или планируют отдавать ненужное тепло на отопление домов местных жителей и другие нужды.

Постоянный URL: http://servernews.ru/1033330
15.02.2021 [12:16], Владимир Мироненко

Партнёрство CBRE и VPS поможет оптимизировать энергоснабжение в ЦОД с помощью технологии Software-Defined Power

CBRE Data Center Solutions объявила о партнёрстве с Virtual Power Systems (VPS), что позволит предложить обширный набор сервисов VPS её клиентам и сделать технологию программно-определяемого питания (Software-Defined Power) доступной на более широкой основе. В рамках партнёрства CBRE также будет предпочтительным партнёром для клиентов VPS.

Программно-определяемая платформа питания VPS трансформирует распределение электроэнергии в центре обработки данных, расширяя ценность виртуализации до уровня электропитания, повышая коэффициент использования электроэнергии и эффективность ИТ-инфраструктуры центра обработки данных.

Технология VPS Intelligent Control of Energy (ICE) отслеживает потребление энергии ЦОД в реальном времени. Она динамически распределяет энергию между серверами, стойками и системами ЦОД, чтобы повысить эффективность использования и снизить затраты, одновременно поддерживая, а во многих случаях, увеличивая время безотказной работы ЦОД.

CBRE Data Center Solutions — крупнейший поставщик критически важных услуг, управляющий более чем 700 ЦОД в 50 странах для поставщиков услуг колокации, гиперскейлеров и предприятий. В рамках партнёрства CBRE будет предоставлять платформу VPS ICE своим клиентам, которые внедряют данную технологию.

«В разговорах с нашими клиентами эффективность, гибкость, масштабируемость и инновации являются горячими темами. Новаторская технология Software-Defined Power поможет им на пути к автономной цифровой инфраструктуре, — сказал Захл Лимбувала (Zahl Limbuwala), исполнительный директор CBRE. — Решение VPS поможет нашим клиентам максимально эффективно использовать каждый ватт мощности центра обработки данных».

«Пространство colocation — это место, которое имеет наибольшую пропускную способность, потому что у них есть несколько клиентов, и им нужны буферы и избыточность, чтобы гарантировать бесперебойную работу своих SLA (service level agreement, Соглашение об уровне обслуживания), — сказал Дин Нельсон, генеральный директор Virtual Power Systems. — VPS отслеживает использование в режиме реального времени и позволяет поставщикам услуг colocation „впрыскивать“ накопленную энергию в стойки и серверы, требующие дополнительной мощности, что позволяет поставщикам более гибко распределять питание по всему пространству общего пользования».

Постоянный URL: http://servernews.ru/1032619
09.02.2021 [20:26], Владимир Мироненко

Калифорнийский университет в Санта-Барбаре открыл лабораторию энергоэффективности ЦОД Facebook

Институт энергоэффективности Калифорнийского университета (Institute for Energy Efficiency, IEE) в Санта-Барбаре изучит пути улучшения работы центров обработки данных. Расходы на исследование взяла на себя социальная сеть Facebook, предоставившая университету грант в размере $1,5 млн.

Недавно созданная лаборатория энергоэффективности ЦОД Facebook (Facebook Data Center Energy Efficiency) будет изучать различные подходы к повышению эффективности, включая возможность использования оптических межсоединений с низким энергопотреблением для компьютерных сетей и систем машинного обучения с попутным уменьшением углеродного следа.

По мере замедления действия закона Мура Facebook ищет возможности для повышения эффективности работы дата-центров по другим направлениям. Facebook тоже внесёт свой вклад в исследование, поделившись имеющимися данными, а также опытом, полученным в ходе эксплуатации собственных ЦОД.

«Facebook является мировым лидером в области эффективности ЦОД, и мы рады сотрудничать с ней с целью дальнейшего внедрения технологий следующего поколения для повышения эффективности, — заявил директор института Джон Бауэрс. — Компания ознакомит нас с проблемами, которые необходимо решить, и мы будем вместе работать над ними».

Лаборатория разработает новое оборудование и архитектуру для повышения эффективности и снижения энергопотребления, необходимого для охлаждения. Ожидается, что повышение эффективности алгоритмов позволит снизить потребление энергии, необходимой для запуска приложений искусственного интеллекта.

Бауэрс отметил, что институт имеет долгую историю исследований кремниевой фотоники, «которая позволяет использовать более мощную электронику за счёт совместной упаковки электроники и фотоники». «Это исследование необходимо для разработки следующего поколения коммутационных микросхем большой ёмкости», — добавил он.

Для Facebook повышение энергоэффективности является важным с точки зрения экономики. Для этого компания использует различные методы. В частности, она применяет OCP-оборудование, оптимизированное для нужд гиперскейлеров, продвинутые системы охлаждения, мониторинг и автоматизацию, а также оптимизацию программных компонентов.

Постоянный URL: http://servernews.ru/1032251
03.02.2021 [16:21], Алексей Степин

Переход на скорости свыше 400 Гбит/с потребует серьёзных усилий и будет сопровождаться ростом энергопотребления

В настоящее время для крупных телеком-провайдеров и провайдеров облачных услуг 200GbE-подключения — пройденный этап. Активно осваивается скорость 400 Гбит/с, а в планах уже фигурируют цифры 800 Гбит/с и даже 1,6 Тбит/с. Однако если переход от 200G к 400G дался достаточно просто, то при освоении ещё более высоких скоростей ожидается серьёзный набор трудностей, которые ещё только предстоит преодолеть.

Нужда в более скоростных магистралях в ЦОД порождается массой причин, и прежде всего, это рост гиперскейлеров вроде Google, Amazon или Facebook. Свой вклад вносит постоянно растущее число распределённых облачных систем, систем ИИ, машинной аналитики, периферийных вычислений и систем видеоконференций. К 2022 году ожидается, что каждый месяц объём мирового IP-трафика достигнет 396 экзабайт — для сравнения, в 2017 году этот показатель был равен 177 экзабайт.

Фотоника и электроника могут существовать даже в пределах одного кремния

Фотоника и электроника могут существовать даже в пределах одного кремния

Однако существующие медные и даже оптические технологии имеют свои пределы, продиктованные как возможностями скоростной обработки сигналов, так и самой природой физических процессов. В частности, серьёзно растёт энергопотребление таких сетевых систем.

По мнению Cisco, нарастить пропускную способность можно хоть в 80 раз, но для этого потребуется и в 22 раза больше энергии, а каждый ватт, потраченный в ЦОД на сети, означает ватт, который не был потрачен на дополнительную вычислительную мощность в серверах. С этим мнением согласна Microsoft Azure: если продолжить использовать технологии сегодняшнего уровня, ограничителем быстро станут именно энергозатраты.

Коммутатор Xsight Labs с поддержкой 800GbE

Коммутатор Xsight Labs с поддержкой 800GbE

Над решением задачи перехода от 400 Гбит/с к более высоким скоростям, в частности, работают такие организации, как исследовательская группа «IEEE 802.3 Beyond 400 Gbps», сформированная в конце прошлого года. Также есть проект Форума Оптических Сетей (OIF) под названием «800G Coherent project». Его целью является разработка спецификаций для совместимых сетей класса 800G, способных работать на достаточно больших расстояниях, например, в пределах университетского кампуса или крупных комплексов ЦОД.

Для оценки требований к технологиям нового скоростного уровня на этой неделе был созван форум Ethernet Alliance’s Technology Exploration Forum. В нём принимают участие специалисты из крупных компаний, таких как Microsoft, Facebook и Google, а также представители крупных разработчиков сетевого оборудования — Juniper и Cisco. Большие надежды возлагаются на интеграцию традиционных кремниевых и оптических технологий.

Над созданием новых высокоскоростных чипов, совмещающих в едином корпусе электронику и фотонику (co-packaged optics, CPO) работают сейчас Ayar Labs, Broadcom, Cisco, Intel и ряд других компаний-разработчиков. Пока это новое, малоосвоенное поле, но именно на нём ожидается столь необходимый для внедрения сетей класса 800G+ прорыв в области энергопотребления.

Фотоника в исполнении Intel

Фотоника в исполнении Intel

Но экосистема CPO должна быть стандартизирована, дабы не породить «зоопарка» несовместимых или плохо совместимых решений. Над спецификациями CPO сейчас работают Facebook и Microsoft, а форум OIF в это же время занят разработкой единого фреймворка для этой же технологии. Работы предстоит ещё много, но в случае успеха внедрение CPO позволит отказаться от медных соединений в пределах стойки с серверным оборудованием, которые уже не отвечают требованиям «800G and beyond».

От скорейшего внедрения новых сетевых технологий выиграют и клиенты провайдеров: если сейчас для большинства корпоративных заказчиков представляют интерес каналы со скоростью 10 или 25 Гбит/с, то широкое внедрение ИИ-систем и систем видеонаблюдения высокого разрешения потребует новых скоростей, в районе 100-400 Гбит/с. К этому времени должна сложиться устойчивая сетевая инфраструктура, способная «накормить» жадные до трафика системы нового поколения.

Постоянный URL: http://servernews.ru/1031767
23.12.2020 [00:56], Владимир Мироненко

США озаботились энергоэффективностью правительственных ЦОД

В утверждённых бюджетных расходах США на 2021 год предусмотрено выделение средств на проведение исследований использования энергии и воды в центрах обработки данных с целью анализа затрат и повышения эффективности ЦОД, которые находятся в ведении федеральных агентств и других правительственных организаций.

В частности, указывается на необходимость обновления «Отчёта об использовании энергии центрами обработки данных США», основополагающего исследования Национальной лаборатории им. Лоуренса в Беркли об использовании энергии ЦОД, вышедшего в 2016 году. Новый отчёт должен быть завершён и опубликован не позднее, чем через четыре года после вступления в силу Закона об энергетике 2020 года.

Отчёт должен включать «сравнение и анализ неиспользованных резервов» с новыми данными за период с 2015 по 2019 годы, а также анализ влияния таких технологий, как облачные вычисления и виртуализация, на государственный и частный секторы. В документе также будет содержаться «оценка влияния сочетания облачных платформ, мобильных устройств, социальных сетей и больших данных на потребление энергии ЦОД» и будет рассмотрено потребление воды в ЦОД.

Отчёт также должен предоставить прогнозы, дать рекомендации по сокращению потребляемых дата-центрами ресурсов и практические советы по реализации этих задач до 2025 финансового года. Данные исследования будут открыты, чтобы стимулировать дальнейшие инновации и оптимизации ЦОД. Кроме того, предлагается сформировать или использовать имеющиеся метрики для оценки «зрелости» (DCMM) и энергоэффективности (PUE с учётом оборудования и помещений) дата-центров.

Следует отметить, что предыдущие расходы, направленные на сокращение количества ЦОД правительства США, устанавливали аналогичные цели по общему повышению эффективности (виртуализация, мониторинг, улучшение PUE и т.д.), но многие агентства не смогли выполнить все пункты, а заданной цели добились вообще единицы.

Постоянный URL: http://servernews.ru/1028513
Система Orphus