Материалы по тегу: охлаждение

17.09.2025 [17:50], Сергей Карасёв

Мини-ПК MeLE Cyber X1 на базе Intel Twin Lake получил пластиковый корпус-радиатор

Компания MeLE, по сообщению CNX Software, выпустила компьютер небольшого форм-фактора Cyber X1, подходящий для использования в коммерческой и индустриальной сферах. Новинка выполнена на аппаратной платформе Intel Twin Lake с процессором N150 (четыре ядра; до 3,6 ГГц; 6 Вт).

Устройство довольствуется пассивным охлаждением. Оно заключено в необычный корпус, верхняя часть которого усеяна шипами из специального пластика с высокой теплопроводностью, которые выполняют функцию радиатора для рассеяния тепла. При этом площадь охлаждающей поверхности, как утверждается, увеличивается в 6,4 раза по сравнению с обычной плоской панелью. Однако при интенсивной нагрузке температура этой зоны может достигать 55–70 °C.

Компьютер несёт на борту 16 Гбайт LPDDR5-4800 и NVMe SSD формата M.2 2280 вместимостью 512 Гбайт со скоростью передачи данных до 3940 Мбайт/с. Кроме того, предусмотрен слот для карты microSD. В оснащение входят адаптеры Wi-Fi 5 (802.11ac; частотные диапазоны 2,4/5 ГГц) и Bluetooth 5.1, сетевой контроллер 1GbE. Возможен вывод изображения одновременно на три монитора через два интерфейса HDMI 2.0 и разъём DisplayPort (через USB Type-C): во всех случаях поддерживается разрешение до 4K (60 Гц).

 Источник изображения: CNX Software

Источник изображения: CNX Software

Устройство располагает портами USB 3.2 Gen2 Type-A (10 Гбит/с), USB 3.0 Type-A (5 Гбит/с), USB 2.0 Type-A, USB 3.2 Gen2 Type-C (DisplayPort Alt Mode и USB PD 3.0), гнездом RJ45 для сетевого кабеля, 3,5-мм аудиоразъёмом. Питание (12 В / 5 A) подаётся через дополнительный порт USB Type-C. Габариты составляют 131 × 81 × 24 мм, масса — 288 г. Возможен монтаж при помощи крепления VESA. По имеющейся информации MeLE Cyber X1 поставляется с Windows 11. Ориентировочная цена — $230.

Постоянный URL: http://servernews.ru/1129412
01.09.2025 [23:40], Руслан Авдеев

Meta✴ «растянула» суперускорители NVIDIA GB200 NVL36×2 на шесть стоек, чтобы обойтись воздушным охлаждением

Для того, чтобы развернуть в традиционных ЦОД с воздушным охлаждением современные высокоплотные стойки с ИИ-ускорителями, приходится идти на ухищрения. Один из вариантов предложила Meta, передаёт Wccftech.

Хотя у Meta есть собственный полноценный вариант суперускорителя NVIDIA GB200 NVL72 на базе ORv3-стоек Catalina (до 140 кВт) со встроенными БП и ИБП, компания также разработала также вариант, схожий с конфигурацией NVL36×2, от производства которого NVIDIA отказалась, посчитав его недостаточно эффективным. Ускоритель NVL36×2 задумывался как компромиссный вариант для ЦОД с воздушным охлаждением — одна стойка (плата Bianca, 72 × B200 и 36 × Grace) «растянута» на две.

 Источник изображений: *** via Wccftech

Источник изображений: Meta via Wccftech

Meta пошла несколько иным путём. Она точно так же использует две стойки, одна конфигурация узлов другая. Если в версии NVIDIA в состав одно узла входят один процессор Grace и два ускорителя B200, то у Meta соотношение CPU к GPU уже 1:1. Все вместе они точно так же образуют один домен с 72 ускорителями, но объём памяти LPDDR5 в два раза больше — 34,6 Тбайт вместо 17,3 Тбайт. Эту пару «обрамляют» четыре стойки — по две с каждый стороны. Для охлаждения CPU и GPU по-прежнему используется СЖО, теплообменники которой находятся в боковых стойках и продуваются холодным воздухом ЦОД.

Это далеко не самая эффективная с точки зрения занимаемой площади конструкция, но в случае гиперскейлеров оплата в арендуемых дата-центрах нередко идёт за потребляемую энергию, а не пространство. В случае невозможности быстро переделать собственные ЦОД или получить площадку, поддерживающую высокоплотную энергоёмкую компоновоку стоек и готовую к использованию СЖО, это не самый плохой вариант. В конце 2022 года Meta приостановила строительство около дюжины дата-центров для пересмотра их архитектуры и внедрения поддержки ИИ-стоек и СЖО. Первые ЦОД Meta, построенные по новому проекту, должны заработать в 2026 году, передаёт DataCenter Dynamics.

На сегодня у Meta около 30 действующих или строящихся кампусов ЦОД, большей частью на территории США. Планируются ещё несколько кампусов, включая гигаваттные. Также компания выступает крупным арендатором дата-центров, а сейчас в пылу гонки ИИ и вовсе переключилась на быстровозводимые тенты вместо капитальных зданий, лишённые резервного питания и традиционных систем охлаждения.

Собственные версии GB200 NVL72 есть у Google, Microsoft и AWS. Причём все они отличаются от эталонного варианта, который среди крупных игроков, похоже, использует только Oracle. Так, AWS решила разработать собственную СЖО, в том числе из-за того, что ей жизненно необходимо использовать собственные DPU Nitro. Google ради собственного OCS-интерконнекта «пристроила» к суперускорителю ещё одну стойку с собственным оборудованием. Microsoft же аналогично Meta добавила ещё одну стойку с теплообменниками и вентиляторами.

Постоянный URL: http://servernews.ru/1128529
27.08.2025 [09:25], Руслан Авдеев

Большому ИИ — большую СЖО: Google рассказала о системе охлаждения TPU

Жидкостное охлаждение (СЖО) в ЦОД применяется давно, хотя и не повсеместно. В последнее время оно играет всё более важную роль на фоне роста энергопотребления и тепловыделения ИИ-оборудования. Google рассказала об эволюции охлаждении на уровне дата-центров для своих ИИ-ускорителей TPU, сообщает Chips and Cheese.

Google впервые оснастила свои TPU жидкостным охлаждением ещё в 2018 году после ряда экспериментов, и с тех пор совершенствует СЖО. Текущие решения предназначены именно для масштабов ЦОД. Так, стойки с шестью (5+1) блоками распределения жидкости (CDU) обслуживают до восьми стоек с TPU. Применяются гибкие шланги и быстроразъёмные соединения для удобства обслуживания.

Во внутреннем контуре чипы в контуре соединены последовательно, что приводит к прогреву теплоносителя, поэтому расчёт охлаждающей мощности ведётся по самому горячему чипу в конце каждого контура. От CDU через теплообменники тепло передаётся в общую систему водоснабжения объекта без смешения жидкостей (в обоих контурах вода). По данным Google, энергопотребление насосов СЖО составляет менее 5 % от мощности вентиляторов, необходимых для воздушного охлаждения.

 Источник изображения: Chips and Cheese

Источник изображения: Chips and Cheese

Google применяет водоблок с разделённым потоком жидкости. Для охлаждения TPUv4 применялась система охлаждения открытого кристалла (bare-die). Способ не вполне безопасен, но с случае с TPUv4 такой подход необходим, поскольку такие ускорители потребляют в 1,6 раз больше энергии, чем TPUv3. Кроме того, компании пришлось поработать над проблемами протечек и появления микроорганизмов.

 Источник изображения: Chips and Cheese

Источник изображения: Chips and Cheese

Google тщательно проверяет компоненты на герметичность, использует специальные системы оповещения об утечках и проводит плановое обслуживание и фильтрацию. Дополнительно у компании есть набор протоколов реагирования на проблемы и оповещения, что позволяет оперативно устранять угрозы, которые в масштабах ЦОД могут быть весьма существенными.

 Источник изображения: Chips and Cheese

Источник изображения: Chips and Cheese

В мае сообщалось, что Google готовит мегаваттные стойки. Строго говоря, компания уже начала использовать 416 В AC на входе в стойки и DC-конвертеры, а также оснащать их встроенными ИБП. Кроме того, она динамически управляет энергопотреблением и производительностью как отдельных TPU, так и стоек в целом.

Постоянный URL: http://servernews.ru/1128175
21.08.2025 [19:51], Руслан Авдеев

NVIDIA тормозит развитие погружных СЖО, но через пару лет ситуация может измениться

Эксперименты с иммерсионным охлаждением для мейнфреймов и суперкомпьютеров начали проводиться ещё в 1970-х годах прошлого века, но массовой технология так и не стала из-за высокой стоимости и сложности обслуживания. Примечательно, что сегодня, когда чипы становятся всё более горячими, главным препятствием на пути коммерческого внедрения иммерсионных технологий стала NVIDIA, передаёт ZDNet Korea со ссылкой на источники в индустрии.

Возрождение интереса к технологии началось в конце 2000-х гг., когда всерьёз встала проблема повышения энергоэффективности дата-центров. С середины 2010-х крупные облачные компании вроде Microsoft, Google и Alibaba начали эксперименты с двухфазным иммерсионным охлаждением, однако рынок таких систем до сих пор находится в зачаточном состоянии.

NVIDIA же «виновата» тем, что не сертифицирует подобные системы. Как заявил один из отраслевых инсайдеров, компания не даёт никаких гарантий при использовании иммерсионных систем со своими ускорителями, поскольку неизвестно, какие проблемы могут возникнуть в долгосрочной перспективе. Прямое жидкостное охлаждение (DLC) менее эффективно, чем иммерсионные системы, но NVIDIA всё ещё считает, что пока достаточно и этого.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Влияние на отсутствие повсеместного внедрения иммерсионного охлаждения, вероятно, оказали и экономические причины. Погружные СЖО требуют специальной инфраструктуры, поэтому внедрить их в уже действующие ЦОД с традиционным воздушным охлаждением трудно. При этом системы прямого жидкостного охлаждения (DLC) успешно сочетаются с воздушными системами на базе уже имеющейся инфраструктуры.

Эксперты прогнозируют, что настоящий расцвет рынка иммерсионного охлаждения придётся на 2027–2028 гг. Ожидается, что оно будет активно распространяться после выхода ускорителей NVIDIA Rubin Ultra. Так, стойка Rubin Ultra NVL576 будет потреблять 600 кВт, а Google, OCP и Schneider Electric уже проектируют стойки мегаваттного класса. Следующее поколение чипов будет обладать настолько интенсивным тепловыделением, что охладить с помощью привычных СЖО уже не получится, говорит один из инсайдеров. По слухам, NVIDIA активно нанимает специалистов, связанных с иммерсионным охлаждением.

Источники свидетельствуют, что в будущем у операторов ЦОД якобы просто не останется выбора. Однако Intel, ZutaCore, CoolIT, Accelsius и др. уже представили водоблоки для чипов с TDP от 1 кВт до 4,5 кВт, так что DLС ещё долго будут сохранять актуальность.

Постоянный URL: http://servernews.ru/1128014
14.08.2025 [13:44], Руслан Авдеев

Apollo Global Management купит разработчика систем охлаждения Kelvion за €2 млрд

Подразделение Apollo Global Management решило приобрести немецкого производителя охлаждающего оборудования Kelvion у фонда прямых инвестиций Triton. Последний сохранит за собой миноритарный пакет акций, сообщает Bloomberg. Как сообщили представители продавца, сделку предполагается закрыть в конце этого или в начале следующего года. По данным источников, Kelvion оценивается в €2 млрд ($2,3 млрд), включая долги.

Ранее Kelvion была подразделением немецкой GEA Group AG, которое специализировалось на системах теплообмена. Компания также поставляет решения для захвата углерода и производства водорода, и иные промышленные решения. Triton приобрела бизнес в 2014 году за €1,3 млрд (включая долги). В 2019 году инвестиционный фонд Triton провёл реструктуризацию €600 млн облигаций Kelvion, вложив дополнительные средства, чтобы сохранить контроль над компанией.

 Источник изображения: Kelvion

Источник изображения: Kelvion

Как сообщает Datacenter Dynamics, компания была основана в 1920 году и сегодня имеет собственные площадки на американских континентах, в регионе EMEA (Европа, Ближний Восток и Африка), а также в странах Азиатско-Тихоокеанского региона. Для дата-центров предлагаются системы фрикулинга, а также решения для жидкостного охлаждения.

За последние пять лет Apollo направила около $58 млрд на климатические проекты и проекты энергоперехода. В июне компания договорилась помочь Electricite de France (EDF) привлечь до £4,5 млрд ($6,1 млрд) посредством частных размещений облигаций для финансирования строительства АЭС Hinkley Point C и других проектов в Великобритании.

Также известны инвестиции в оператора ЦОД ToerPoint и производителя чипов Wolfspeed. В текущем месяце компания объявляла о намерении купить Stream Data Centers и даже ведёт переговоры с Meta, чтобы помочь той профинансировать недостроенные дата-центры.

Постоянный URL: http://servernews.ru/1127612
14.08.2025 [09:34], Руслан Авдеев

Необычное гелиевое охлаждение для ИИ ЦОД пообещали создать Tidal NRG и Innov8 Gases

Занимающаяся дата-центрами и энергетикой компания Tidal NRG намерена создать гелиевую систему охлаждения для стоек ИИ-серверов. Уже подписано соглашение с Innov8 Gases — специалиста в газовой промышленности, который поможет разработать новый продукт, сообщает Datacenter Dynamics. Таким образом, Tidal заключила на долгий срок соглашение о закупке гелия, а также обеспечит миноритарные инвестиции в акционерный капитал нового партнёра.

Как сообщают представители компаний, гелий имеет весомые эксплуатационные преимущества в сравнении с водой или воздухом благодаря высокой теплопроводности, низкой вязкости и инертности газа. Благодаря этому новая система обеспечит большую энергоэффективность в сравнении с конкурирующими решениями и долгосрочную устойчивость.

По словам главы Tidal NRG, сотрудничество знаменует собой большой шаг вперёд в развитии устойчивой цифровой инфраструктуры. Он заявил, что гелий позволит повысить эффективность охлаждения, одновременно позволяя не идти на «экологические компромиссы», ставящие под угрозу масштабируемость ИИ-вычислений. Впрочем, всё это пока лишь анонсы.

 Источник изображения: Tidal NRG

Источник изображения: Tidal NRG

Пока гелий не очень широко используется в качестве хладагента для ЦОД, хотя в последние 10 лет, например, производители HDD вроде Toshiba, Seagate или Western Digital применяют их в своих продуктах вместо воздуха для повышения их ёмкости и эффективности хранения.

Tidal NRG представляет собой предприятие, ориентированное на строительство ЦОД гиперскейл-уровня для ИИ-задач и HPC. В июне компания объявила о партнёрстве с Texas Energy Group для совместного строительства дата-центров в Техасе. Подробности о том, когда и где намереваются строить эти дата-центры, есть ли у бизнеса земля под эти цели и кто будет оплачивать эти проекты, пока не разглашаются. На сайте Tidal тем временем утверждается, что компания имеет доступ к 1,5 ГВт электроэнергии.

Постоянный URL: http://servernews.ru/1127606
08.08.2025 [10:05], Руслан Авдеев

Масштабирование штабелированием: Air2O предложила высокоплотные модули с горизонтальными 42U-стойками

Разработчик систем охлаждения Air2O предложил необычные модули High Thermal Density Air-Cooled Rack Assembly с двумя горизонтально расположенными 42U-стойками, которые, по словам компании, позволят заметно увеличить плотность размещения вычислительных мощностей, сообщает Datacenter Dynamics.

К стойкам с двух сторон прилегают теплообменники, а между стойками находится воздушный коридор с собственными вытяжными вентиляторами высотой 2,8 м. Таким образом, воздух охлаждается до попадания в стойку и после выхода из него, что, по словам, Air2O, упрощает его повторное использование. По данным компании, новые модули обеспечивают энергетическую плотность до 320 кВт при фрикулинге и до 600 кВт при прямом жидкостном охлаждении. В версии с СЖО место одного из теплообменников занимает CDU.

 Источник изображений: Air2O

Источник изображений: Air2O

Масштабировать модули предполагается путём штабелирования. Air2O заявляет, что способна разместить до 120 соответствующих модулей общей мощностью до 40 МВт в помещении 16 × 25 × 20 м (400 м2), тогда как традиционный ЦОД такой же мощности может занимать более 25 тыс. м2. Каким образом предполагается обслуживать оборудование в таких стойках, компания, к сожалению, не уточняет. Также нет данных, построила ли компания хоть один такой модуль.

По словам компании, стандартные 19″ стойки, разработанные AT&T более ста лет назад и используемые в большинстве дата-центров, устарели и никогда не предназначались для оборудования с высокой плотностью тепловой энергии. Подчёркивается, что оборудование современных ЦОД не должно выглядеть, как оснащение телефонной станции столетней давности.

Со стойками экспериментируют не только специализированные компании, но и гиперскейлеры. Например, в конце 2024 года Microsoft и Meta представили дизайн ИИ-стойки с раздельными шкафами для питания и IT-оборудования, а в мае 2025 года Google показала мегаваттные стойки с питанием 400 В и СЖО для ИИ-платформ будущего. А NVIDIA предлагает перейти уже к 800 В.

Постоянный URL: http://servernews.ru/1127242
07.08.2025 [15:44], Сергей Карасёв

Стартап YPlasma придумал систему плазменного охлаждения серверов

Испанский стартап YPlasma, по сообщению Datacenter Dynamics, провёл инвестиционный раунд на сумму $2,5 млн. Средства будут направлены на разработку технологии безвентиляторного плазменного охлаждения серверного оборудования.

Фирма YPlasma отделилась от Национального института аэрокосмических технологий Испании (INTA) в 2024 году. Компания занимается разработкой новой системы воздушного охлаждения, основанной на использовании электростатических полей для формирования воздушного потока. При этом благодаря отсутствию традиционных вентиляторов может быть повышена энергетическая эффективность и улучшена надёжность, говорят разработчики.

 Источник изображения: YPlasma

Источник изображения: YPlasma

Технология YPlasma предполагает применение плазменных актуаторов с диэлектрическим барьерным разрядом (Dielectric Barrier Discharge, DBD), которые генерируют ионный ветер. Конструкция включает два тонких медных электрода, один из которых окружён диэлектрическим материалом, таким как тефлон. При подаче высокого напряжения воздух вокруг актуатора ионизируется, создавая плазму непосредственно над поверхностью диэлектрика. Благодаря этому формируется управляемый ламинарный поток заряженных частиц — так называемый ионный ветер, который можно использовать для обдува электронных компонентов. Направление и скорость потока контролируются путём изменения напряжения, проходящего через электроды. Толщина актуаторов составляет всего 2–4 мм, тогда как скорость ионного ветра может достигать 10 м/с.

Утверждается, что предложенное решение по эффективности отвода тепла сравнимо с небольшими вентиляторами. У системы отсутствуют подвижные части: это позволяет экономить место внутри корпуса устройств и способствует устранению вибраций, что потенциально может продлить срок службы оборудования.

В программе финансирования YPlasma приняли участие венчурный фонд Faber и международная венчурная компания SOSV. Предыдущий инвестиционный раунд был проведён в 2024 году: тогда стартап получил $1,2 млн от SOSV/HAX, Esade Ban и др.

Постоянный URL: http://servernews.ru/1127261
24.07.2025 [09:24], Руслан Авдеев

«Атомное» охлаждение: Vertiv и Oklo создают комплексную систему питания и охлаждения ЦОД на базе малых модульных реакторов

Стартап Oklo, поддерживаемый главой OpenAI Сэмом Альтманом (Sam Altman), объявил о партнёрстве с компанией Vertiv для разработки передовой технологии управления электропитанием и охлаждением для гиперскейлеров и колокейшн-ЦОД, сообщает Datacenter Knowledge.

Компании совместно разработают интегрированную систему электропитания и охлаждения дата-центров, применяющую малые модульные реакторы Oklo и передовые системы управления электропитанием Vertiv. Партнёры объявили, что это обеспечит надёжное выполнение ресурсоёмких задач HPC и ИИ с попутным снижением негативного воздействие на окружающую среду.

Система будет использовать пар и электричество, вырабатываемые SMR Oklo. Демонстрация технологии планируется на первом объекте Oklo Aurora Powerhouse в Национальной лаборатории Айдахо. Речь идёт о полноценном коммерческом реакторе, который начнёт вырабатывать электричество к концу 2027 или началу 2028 гг.

 Источник изображения: Oklo

Источник изображения: Oklo

Компании объявили, что намерены создать комплексные эталонные проекты для дата-центров, желающих интегрировать новую систему охлаждения. Используя тепло реакторов Oklo для питания систем охлаждения Vertiv, можно будет значительно повысить энергоэффективность дата-центров. Партнёры заявили, что разрабатывают концепцию, позволяющую использовать проверенные общедоступные готовые компоненты без внесения существенных изменений в базовую инфраструктуру.

Представитель компании сообщил журналистам, что ядерные технологии обеспечивают «чистое», надёжное и предсказуемое электропитание. Компания подчеркивает, что атомные электростанции обладают самым высоким коэффициентом использования установленной мощности (92 %), что значительно выше, чем у геотермальной (74 %) и ветровой (35 %) энергетики, что делает ядерную энергию ключевым решением для стабильного энергоснабжения. К текущему моменту компания заключила предварительные договоры на поставку 14 ГВт.

Постоянный URL: http://servernews.ru/1126426
14.07.2025 [16:29], Руслан Авдеев

Горячая пора: изменение климата угрожает стабильности работы дата-центров

Сотня ведущих мировых хабов ЦОД может пострадать от глобального потепления, поскольку растущие требования к охлаждению увеличивают стоимость эксплуатации и потребление воды. Более того, отключения оборудования из-за перегрева будут происходить всё чаще, сообщает The Register со ссылкой на данные Verisk Maplecroft.

Компания, занимающаяся анализом рисков, способных повлиять на мировые бизнесы и инвесторов, выпустила доклад, посвящённый проблеме возможного перегрева ЦОД в будущем. Дело в том, что значительные части Европы страдают от рекордной жары. Впрочем, выводы касаются в первую очередь конца десятилетия и более позднего периода.

Компания отмечает, что ЦОД обычно комплектуются резервными источниками питания вроде генераторов для обеспечения энергией в случае отключения магистральных линий электропередачи. При этом водоснабжение и энергоэффективность регулярно повышаются. Тем не менее, эксперты пришли к выводу, что надёжность многих дата-центров может оказаться под вопросом в период температурных скачков и роста спроса на ИИ-сервисы, хранилища данных и облачные вычисления.

 Источник изображения: Maplecroft

Источник изображения: Maplecroft

В Maplecroft утверждают, что для 56 из 100 ведущих хабов ЦОД характерен «высокий» или «очень высокий» риск по индексу Cooling Degree Days (CDD), который отражает частоту и интенсивность превышения температурных порогов, требующих активного охлаждения строений. При наихудшем сценарии SSP585 от CMIP6, предполагающем высокие выбросы парниковых газов, проблемы коснутся 68 хабов к 2040 году, и до 80 — к 2080 году.

В любом случае, ¾ мировых ЦОД будут требовать всё большего охлаждения на более длительные сроки каждый год, в результате это приведёт к повышению затрат воды и электроэнергии. 100 ключевых хабов ЦОД в 2030–2080 гг. столкнутся с увеличением на 83 % количества дней, когда будет требоваться активное охлаждение.

Maplecroft также отмечает, что спрос на электроэнергию со стороны дата-центров уже становится проблемой в некоторых странах и регионах мира вроде США, Ирландии и Сингапура. Кроме того, средний дата-центр, по данным исследования, использует около 1,4 тыс. м3 воды в день, и расход будет только расти по мере роста температур. Прогнозируется, что 52 % крупнейших хаба ЦОД к 2030 году будут в зонах с ограниченным доступом к питьевой воде, поэтому её нехватка может стать серьёзной косвенной угрозой для компаний, пользующихся такими дата-центрами.

 Источник изображения: Maplecroft

Источник изображения: Maplecroft

На ЦОД, по данным Международного энергетического агентства (IEA), уже приходится около 1,5 % мирового спроса на электричество, но к 2030 году этот показатель, вероятно, вырастет вдвое, до 3 %. 40 % этой энергии, по словам Maplecroft сегодня, тратится системами охлаждения, но и этот показатель должен вырасти по мере развития глобального потепления.

В целом, в будущем меняющийся климат будет всё больше влиять на стареющие сети энергоснабжения и дата-центры, даже находящиеся на рынках с «низким» уровнем риска. Прогнозирование того, где именно такие риски будут максимальными — стратегическая проблема для всех мировых организаций, выступающих операторами или пользователями ЦОД.

Как заявляют в Maplecroft, дата-центры теперь формируют «цифровой костяк» бизнеса, поэтому необходимо понимать и предвидеть все риски, способные повлиять на надёжность работы оборудования. Это особенно важно в свете инициатив, продвигаемых на высшем государственном уровне. Так, в июне сообщалось, что Евросоюз ограничит использование воды дата-центрами в рамках плана по повышению устойчивости всего блока к засухам и улучшению качества воды.

Постоянный URL: http://servernews.ru/1125921

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus