Материалы по тегу: pue
21.05.2023 [13:07], Руслан Авдеев
Минэнерго США выделит $40 млн на разработку систем охлаждения ЦОД с пониженным энергопотреблениемВ Министерстве энергетики США объявили о выделении $40 млн 15 вендорам и университетским лабораториям на создание технологий охлаждения, которые позволят расходовать на отвод тепла лишь 5 % от общего потребления энергии дата-центром. Как сообщает Network World, подведомственное министерству агентство Advanced Research Projects Agency–Energy (ARPA-E) инициировало программу COOLERCHIPS, в рамках которой и распределяются средства. В агентстве считают, что в современных системах эффективность использования энергии (PUE) не должна превышать коэффициент 1,05 — из всей выделяемой ЦОД энергии не более 5 % должно тратиться на охлаждение. Хотя некоторые передовые дата-центры, использующие жидкостное или иммерсионное охлаждение, уже сегодня демонстрируют PUE соответствующего уровня, в большинстве случаев для ЦОД этот показатель, по данным Uptime Institute, в среднем составляет 1,55. В Министерстве подчёркивают, что основной целью программы является минимизация воздействие ЦОД на окружающую среду, чему и будут способствовать инвестиции. Суммы грантов для 15 получателей составляют от $1,2 млн для мелких компаний до $5 млн для бизнесов вроде NVIDIA. Деньги выделяются на разнообразные технологии охлаждения, преимущественно жидкостные, но в некоторых случаях речь идёт, например, и о новых конструктивных решениях самих ЦОД. Например, компании Flexnode выделили $3,5 млн на разработку быстровозводимых дата-центров модульной конструкции для периферийных вычислений, которые можно будет собирать, как конструктор LEGO. Калифорнийскому университету в Дэвисе тоже выделят $3,5 млн — но уже на разработку «Комплексных модульных энергоэффективных решений для направленного охлаждения (HoMEDiCS) для пограничных вычислений». Конструкция HoMEDiCS обеспечивает теплоотвод от CPU и ускорителей с помощью контура жидкостного охлаждения и применения высокоэффективных, но недорогих теплообменников. Наконец, NVIDIA получит $5 млн на комбинированную систему Green Refrigerant, для ультраэффективного экологичного охлаждения HPC-решений. В данном случае будет сочетаться прямое охлаждение чипов, а также одно- или двухфазное охлаждение со встроенными насосами и парожидкостным сепаратором. Хотя сумма в $40 млн невелика в сравнении с десятками миллиардов долларов, выделенных в рамках т.н. « Закона о чипах», относительно недавно принятого в США для развития полупроводниковой отрасли, компании с удовлетворением принимают и такие средства. Кроме того, по мнению американских экспертов, США должны иметь конкурентоспособное решение для всех звеньев производственной цепочки, а полученные результаты в числе прочего могут пригодиться в государственном секторе и военной сфере. Помимо принимаемых в всём мире мер по снижению PUE, ищутся и другие способы сохранения окружающей среды. Например, в апреле поступили данные о том, что Евросоюз поставит на учёт крупные ЦОД и в рамках Директивы по энергетической эффективности (EED) не только обяжет операторов ЦОД в Евросоюзе обеспечить свободный доступ к данным о воздействии их проектов на окружающую среду, но и заставит некоторые ЦОД отдавать избыточное тепло со своих площадок на нужды общества.
18.05.2022 [18:40], Руслан Авдеев
Greenergy с помощью ИИ-решений Siemens обеспечила высокую энергоэффективность дата-центра в ТаллинеЕвропейский технологический гигант Siemens продемонстрировал решения на основе систем искусственного интеллекта, помогающие снизить энергопотребление в дата-центрах балтийских государств. В частности, новые разработки применили в ЦОД, расположенном в эстонском Таллине, оператором которого является компания Greenergy. Если в среднем по отрасли коэффициент эффективности использования энергии (PUE) для ЦОД составляет 1,6, то Greenergy удалось снизить его в своём проекте до 1,2. По словам главы подразделения решений и сервисов в Siemens Smart Infrastructure Дейва Хоппинга (Dave Hopping), по мере того, как во всём мире растёт спрос на услуги дата-центров, цифровые инструменты будут играть ключевую роль в компенсации негативного воздействия на окружающую среду в процессе обработки данных. ![]() Источник изображения: Greenergy Комбинация программного обеспечения для управления зданиями, энергетикой и охлаждением объекта позволяет Greenergy использовать единую платформу для мониторинга и контроля распределения энергии, а система машинного обучения помогает оптимизировать охлаждение. Некоторые из задействованных технологий разработаны американской Vigilent (бывшей Federspiel Controls), сотрудничавшей с Siemens в создании систем ИИ для охлаждения ЦОД с 2018 года — технологии компании используются и в других крупных проектах, включая решения Schneider Electric или, например, Hitachi. По словам представителя Greenergy новый комплекс соответствует самым высоким международным стандартам и обеспечивает на 25 % лучшую энергоэффективность, чем в среднем по рынку. Важным преимуществом является система динамического охлаждения таллинского ЦОД — он считается «крупнейшим на Балтике», занимающим площадь более 1400 м2. Центр работает на возобновляемой энергии и является первым из трёх ЦОД, постройка которых предусмотрена на территории таллинского кампуса. Известно, что для мониторинга энергоэффективности Siemens обеспечила проект кастомизированной системой энергораспределения, интегрированной в платформу управления зданиями Desigo CC. Помимо этого используется самое передовое энергетическое оборудование, выпускаемое как самой Siemens, так и её партнёрами.
26.07.2021 [07:06], Андрей Галадей
Huawei установила мировой рекорд, показав самый энергоэффективный ЦОДКомпания Huawei сообщила, что её модульный центр обработки данных Smart Modular Data Center достиг отраслевых рекордов по энергоэффективности — годовой показатель эффективности энергопотребления (PUE) составил всего 1,111 в тестах, проведённых Китайским исследовательским институтом облачных вычислений и Big Data, а также местной ИТ-группой The Green Grid China (TGGC). По данным компании, в ноябре 2018 года был зафиксирован предыдущий рекорд в 1,245. Хотя нынешний показатель пока что не дотягивает до уровня PUE в 1,018, который был достигнут в центре обработки данных Boden Type в Швеции. Этот ЦОД считается самым энергетически эффективным объектом в мире. Правда, нужно учесть, что эффективности Boden Type помогает холодный климат, а сам дата-центр использует не совсем стандартные подходы к охлаждению. ![]() В случае решения Huawei показатель PUE охватывает диапазон температур от -5 до +35 ° C, что даёт возможность использовать наработки китайской компании в различных климатических зонах. При этом отметим, что китайцы всё же использовали моделирование окружающей среды, а не реальные проверки. Компания отмечает, что многие старые ЦОД имеют показатель PUE на уровне 2,0 или более, но в настоящее время среднее значение составляет около 1,5, поэтому PUE, равный 1,111, приведёт к значительному снижению общей мощности. ![]() По данным Uptime Institute и Green Grid, среднемировой показатель PUE составлял 1,59, тогда как Азиатско-Тихоокеанском регионе, куда относится и Китай, он был равен 1,69, что объясняется преобладанием тропического климата. Так что решения Huawei выгодно смотрятся на фоне конкурентов, а компания наверняка примет самое активное участие в трёхлетнем китайском плане по массовому развёртыванию энергоэффективных (PUE на уровне 1,3) дата-центров по всей стране.
06.08.2020 [23:04], Владимир Мироненко
В 2020 году Европа по-прежнему лидирует по уровню энергоэффективности ЦОДУчастники некоммерческого отраслевого консорциума Green Grid, впервые приняв в 2007 году метрику PUE (эффективность использования энергии) для центров обработки данных, согласились с тем, она не предназначена для использования в качестве сравнительного показателя, так как ситуации бывают разные. Поэтому компания Uptime Institute, опубликовав диаграмму, отражающую показатель PUE по регионам, воздержалась от какой-либо критики по этому поводу. Из диаграммы следует, что в целом в Европе находятся самые энергоэффективные центры обработки данных, а на Ближнем Востоке и в Африке — показатель PUE хуже всего. ![]() Эта диаграмма построена на основе ответа на вопрос, который Uptime Institute каждый год задаёт крупным операторам дата-центров: «Какой среднегодовой PUE для вашего крупнейшего ЦОД?». По итогам опроса 450 респондентов в 2020 году, средний PUE их крупнейших ЦОД составил 1,59. Это число немного снизилось по сравнению с прошлым годом, но фактически была продолжена тенденция к отсутствию улучшений, которая не меняется с 2013 года. Диаграмма построена на основе части всех собранных данных. Эта выборка касается тех, кто сообщил о PUE в пределах от 1,0 до 2,19. Всего насчитывается 313 таких респондентов. Другие случаи исследователи посчитали частными или крайними отклонениями. Средние показатели по регионам варьируются от 1,46 (Европа) до 1,79 (Африка и Ближний Восток). Для России и СНГ этот показатель равен 1,6, но и выборка тут получилась совсем маленькая. Наиболее весомым фактором, влияющим на PUE, является климат. Это наглядно проявляется в Латинской Америке, Африке, Ближнем Востоке и большей части Азиатско-Тихоокеанского региона. В регионах, где температура воздуха выше, чем в зонах с умеренными климатическими условиями, может быть меньше возможностей воспользоваться преимуществами технологий естественного охлаждения (фрикулинга), которые позволяют существенно снизить потребление энергии. Это особенно актуально в районах с высокой влажностью или нехваткой воды. Наличие проблем с поставками, отсутствие квалифицированных специалистов по обслуживанию или нестабильность энергосистемы могут также вынудить операторов применять менее энергоэффективный подход, чем хотелось бы, но который несёт меньше рисков возникновения ошибок. В двух регионах с самыми низкими значениями PUE — в Европе и США/Канаде — размеры выборки примерно равны, но средний PUE в Европе ощутимо ниже. Это может быть связано с тем, что цены на энергоносители в Европе, как правило, выше, и/или что операторы и регулирующие органы более тщательно относятся к вопросам экологии и устойчивого развития, чем в США. Ну и климат тоже помогает улучшить PUE. В Лондоне, Амстердаме и Франкфурте, где расположена большая часть центров обработки данных на европейском континенте, а также в странах Северной Европы и Дублине, климат — умеренный. А в Азиатско-Тихоокеанском регионе, где по большей части жарко и влажно, более 10% провайдеров сообщило о значении PUE выше 2,19.
01.05.2020 [00:12], Игорь Осколков
Энергоэффективность дата-центров практически перестала растиСогласно данным Uptime Institute, среднее значение коэффициента PUE (power usage effectiveness) для дата-центров в 2020 году равно 1,59. Это немногим лучше показателя семилетней давности — 1,65. Более того, в прошлом году среднее значение и вовсе подросло до 1,67, тогда как в 2018-м оно составляло 1,58. PUE указывает на то, насколько эффективно использует электроэнергию IT-система: ЦОД, кластер, суперкомпьютер и т.д. Коэффициент показывает отношение всех энергозатрат объекта к затратам только на вычислительные мощности. В идеальном случае он равен единице. На практике у наиболее энергоэффективных современных систем PUE составляет менее 1,1. Кроме того, могут быть нюансы с подсчётом суммарного энергопотребления. Например, не все учитывают офисные и хозяйственно-бытовые нужды ЦОД. Как бы то ни было, в 2007 году, когда и была предложена данная метрика, впоследствии ставшая стандартом ISO/IEC, коэффициент PUE составлял в среднем 2,65. До 2013 года он снижался очень быстрыми темпами, после чего скорость падения резко замедлилась. Uptime Institute объясняет это тем, что на первом этапе были задействованы относительно простые и дешёвые методы повышения эффективности, тогда как дальнейшие этапы оказались намного сложнее и затратнее. Большинство новых, построенных с нуля ЦОД вписываются в диапазон PUE от 1,2 до 1,4. Однако в работе всё ещё находятся тысячи дата-центров «прошлых лет», которые не могут быть обновлены. И не только по экономическим причинам, но и потому, что им, например, необходимо поддерживать высокий уровень доступности. Новые ЦОД чаще строятся гиперскейлерами, и эти дата-центры в целом и крупнее, и энергоэффективнее. По данным Uptime Institute за 2019 год, ЦОД мощностью от 20 МВт имеют более низкий средний показатель PUE. Данные Google показывают такую же общую тенденцию, но значение PUE у дата-центров компании и так ниже среднего по индустрии.
24.04.2013 [18:10], Георгий Орлов
Facebook* представила панель PUEКомпания Facebook* запустила публичную информационную панель, на которую с точностью до минуты выводятся данные об эффективности использования мощности (PUE) первых двух построенных IT-гигантом дата-центров в штатах Орегон и Северная Каролина, а также данные об использовании ими воды. На подобный шаг Facebook* пошла в связи с растущим последнее время интересом к этой стороне деятельности ЦОД. ![]() Google публикует метрики своих ЦОД с 2008 года, однако новая панель Facebook* для серверных ферм в Приневилле (Орегон, США) и Форест-Сити (Северная Каролина, США) представляет сведения «почти в реальном времени» за последние 24 часа или их историю за период от 7 дней до года. Дата-центр в Приневилле обладает показателем PUE, равным 1,06, а Forest City — около 1,10. После ввода в строй объекта Facebook* в Лулео его данные также будут публиковаться в панели. Иногда охлаждение ЦОД требует больших объемов воды, которые могут повлиять на местные источники питьевой воды и перегрузить системы канализации. Facebook* была одной из первых компаний начавшей сообщать об эффективности использования воды (Water Usage Effectiveness, WUE). Для поощрения других операторов ЦОД последовать её примеру Facebook* заявила, что сделает доступным код, используемый для создания таких информационных панелей. Материалы по теме: Источник: * Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».
31.03.2012 [00:07], Георгий Орлов
Google: PUE наших дата-центров определяются более точноСтарший директор подразделения дата-центров Google Джо Кава (Joe Kava) сообщил в своем блоге о новых успехах компании в деле повышения энергоэффективности своих ЦОД. Средний коэффициент энергоэффективности дата-центров компании (PUE, Power Usage Effectiveness), определяющий отношение полной мощности энергоснабжения ЦОД к мощности энергоснабжения собственно серверного оборудования, составил в 2011 году 1,14, в то время как в 2010 году он составлял 1,16. Среднее значение коэффициента PUE по всем ЦОД Google в четвертом квартале 2011 года достигло уже 1,12, а один из дата-центров Google показал рекордный для ЦОД компании результат - 1,08. Кава подчеркнул, что Google использует точные методики для вычисления "полного коэффициента PUE" (comprehensive PUE), и результаты, которые публикует компания, являются действительно корректными, в отличие от сверхнизких показателей по PUE, которые сообщаются некоторыми другими операторами дата-центров. При этом для определения коэффициента PUE каждого из ЦОД специалисты Google используют сотни датчиков, позволяющих получать самую точную информацию об энергопотреблении всех компонентов дата-центра. ![]() Когда компания Google начала публиковать свои коэффициенты PUE в 2008 году, ее специалисты были уверены, что работают в самых энергоэффективных дата-центрах мира. Однако в последнее время некоторые операторы стали сообщать о более низких коэффициентах PUE своих ЦОД, причем некоторые из них используют методику подсчета так называемого "частичного коэффициента PUE" (partial PUE), разработанную консорциумом The Green Grid. В соответствие с ней коэффициент PUE определяется для отдельных модулей ЦОД и отдельных залов с IT-оборудованием, располагающихся на территориях дата-центров. По словам Кавы, специалисты Google учитывают в своих коэффициентах PUE именно полное энергоснабжение дата-центра, как целостной системы, в то время как на "частичные PUE" влияет только мощность энергоснабжения систем охлаждения IT-оборудования. Кава отметил, что если бы специалисты Google определяли свои коэффициенты PUE таким образом, то показатель самого энергоэффективного дата-центра Google составил бы 1,06. Материалы по теме: Источник:
23.03.2012 [03:03], Георгий Орлов
Как определить энергоэффективность ЦОДКрупные провайдеры пытаются сделать свои центры обработки данных (ЦОД) все более "зелеными". Представление о действенности их усилий даёт коэффициент эффективности использования потребляемой энергии (Power Usage Efficiency, PUE). Он измеряет, насколько эффективно ЦОД использует входную мощность. Это отношение входной мощности к мощности используемой и оно всегда больше единицы. Чем больше PUE, тем ниже эффективность энергопотребления. Вторая расчетная величина - эффективность инфраструктуры ЦОД (Data Center Infrastructure Efficiency, DCiE). Это фактор, обратный PUE, и он всегда будет меньше 1. Чем ближе к единице, тем лучше энергоэффективность. ![]() Допустим PUE вычислительной площадки составляет 1,4, и провайдер хочет уменьшить его до 1,3. Чтобы получить 1,3, необходим определённый объем инвестиций для замены блоков распределения питания (PDU), кондиционеров в серверных помещениях (CRU) и реконструкции кабельной системы для оптимального отвода тепла. Каждый из этих видов деятельности потребует затрат времени и материалов, а также вызовет убытки в случае возможных системных простоев. Понимание реальной выгоды энергетической эффективности приводит к конструктивному разговору об инвестициях в её повышение. Немногие предприятия имеют неограниченное финансирование, и необходимо использовать вложения в соответствии с приоритетами. Определить эти приоритеты поможет количественный анализ, основанный на стандартном расчете, таком как PUE. Полученные из расчетов данные предполагают поиск баланса между расходами дефицитных долларов инвестиций и экологическими достижениями. Материалы по теме: Источник:
13.01.2011 [12:38], Георгий Орлов
Microsoft завершила первый этап строительства нового модульного дата-центраКорпорация Microsoft завершила первый этап строительства в г. Куинси (штат Вашингтон) своего нового дата-центра с модульной инфраструктурой, работающего по принципу plug-and-play и обеспечивающего повышенную гибкость при развертывании новых облачных мощностей. Новый дата-центр имеет легкую базовую конструкцию, которая будет заполняться контейнерами с гибкой комплектацией серверов, устройств хранения данных, энергетической и охлаждающей инфраструктуры. Модули будут разворачиваться по мере необходимости и будут конфигурироваться по принципу «комбинирование и подгонка» (mix-and-match), что позволит Microsoft выбирать между множеством технологических вариантов и уровней безотказности.
![]()
Принципы, использованные при разработке этой конструкции, обещают сделать проект очень выгодным с экономической точки зрения. По словам Кевина Тиммонса (Kevin Timmons), генерального управляющего подразделением Datacenter Services корпорации Microsoft, новый дата-центр будет на 45-55% экономичней, чем традиционные ЦОД. Коэффициент энергетической эффективности (PUE) дата-центра не будет превышать 1,2. Стальные и алюминиевые конструкции с жалюзи на боковых поверхностях дают возможность с одной стороны расположить оборудование практически «на свежем воздухе», что и позволяет повысить PUE, а с другой стороны — защитить его от неблагоприятных воздействий. Конструкция заполняется заранее укомплектованными модулями/контейнерами PAC (pre-assembled component), каждый из которых содержит от 400 до 2000 серверов. Охлаждение производится в одном из четырех режимов, при этом температура воздуха, поступающего к серверному оборудованию, поддерживается в пределах от 10° до 35° C. Каждый модуль оснащается системой испарительного охлаждения, работающей в комбинации с системой охлаждения наружным воздухом, а также камерой для смешивания холодного наружного воздуха с нагретым воздухом, выходящим от оборудования. По словам Тиммонса, наращиваться мощности дата-центра будут не по общепринятым сейчас моделям новых очередей или добавляемых больших залов (Pod), а своего рода небольшими «порциями» («chunks»). Энергопотребление каждой такой «порции» будет составлять от 2 до 2,5 мегаватт. По мнению Тиммонса, такая модель является более гибкой, чем существующие. На начальном этапе энергопотребление ЦОД составит 8 мегаватт. Второе строение центра уже может быть обеспечено 27 мегаваттами мощности, с возможностью наращивания до 40 мегаватт. Модули энергоснабжения дата-центра оснащаются источниками бесперебойного питания (UPS), а для электропитания используется напряжение в 240 вольт, вместо традиционных 208 вольт, что также будет способствовать повышению энергетической экономности дата-центра. Источник: |
|