Материалы по тегу: охлаждение

12.03.2020 [18:36], Алексей Степин

Schneider Electric представила стоечную систему охлаждения для микро-ЦОД

Мини- и микро-ЦОД становятся всё более популярными в свете роста привлекательности периферийных вычислений. Но любые достаточно мощные вычислительные системы требуют и достаточно серьёзного охлаждения.

Компания Schneider Electric представила первую в своём роде систему поддержания микроклимата ЦОД, выполненную в обычном стоечном формате и способную отвести и рассеять до 3,5 киловатт тепла.

Сердцем новинки является кондиционер, который действительно компактен, его высота составляет всего 5U (218 миллиметров). При стандартной 19-дюймовой ширине глубина платформы равна 752 миллиметра, вес не превышает 26 килограммов. Охлажденный воздух система направляет вверх, поэтому монтируется в самом низу стойки. Производительность составляет 193,5 литра в секунду (примерно 410 CFM). Забор нагретого воздуха осуществляется сзади.

Система довольно шумная, издаёт 62,5 дБА, но микро-ЦОД обычно не предполагают постоянного наличия персонала в рабочей зоне. В системе предусмотрена фильтрация воздуха и его осушение; фильтры моющиеся и легко обслуживаемые. Система может стартовать на полную мощность менее чем через три минуты после включения, режимом работы можно управлять гибко в пределах 0,5 ‒ 3,5 киловатт. Предусмотрена интеграция в EcoStruxure, а значит, поддерживается удалённый мониторинг параметров.

Устройство модуля, монтируемого в стойку

Устройство модуля, монтируемого в стойку

Для управления компрессорами использован привод, позвляющий точно поддерживать температуру в диапазоне от 16 до 30 градусов. Шаг регулировки составляет 2 градуса. В комплект поставки входит внутренний стоечный модуль и наружный блок кондиционирования. Последний может поставляться как уже заправленным, так и пустым, с возможностью использования хладагента по выбору заказчика. По умолчанию используется состав R410A.

Постоянный URL: http://servernews.ru/1005801
17.02.2020 [12:12], Владимир Романченко

Интеллектуальная система гибридного охлаждения Huawei NetCol8000-E для крупных дата-центров

Системы кондиционирования Huawei FusionCol, к числу которых относится и рассматриваемая NetCol8000-E, предназначены для создания систем охлаждения с применением технологии непрямого охлаждения (непрямого фрикулинга) средних и крупных дата-центров.

Применяемая в данном решении система управления Huawei iCooling на базе технологии ИИ вкупе с интеллектуальными режимами энергосбережения и расхода воды позволяет оптимизировать использование электроэнергии и значительно увеличить время работы системы в режиме свободного охлаждения.

Система кондиционирования Huawei NetCol8000-C

Система кондиционирования Huawei NetCol8000-E

NetCol8000-E обеспечивает точное соответствие нагрузки и управления подачей воздуха в реальном времени, что снижает энергопотребление всего ЦОДа. Все компоненты NetCol8000-E, включая встроенный контур Direct Expansion (DX) для непрерывного охлаждения и корпус-контейнер, изготавливаются на заводе Huawei, что гарантирует быструю доставку и монтаж системы. Простая и надежная система охлаждения FusionCol позволяет создать экологичный дата-центр при значительном снижении расходов на энергию.

Решения FusionCol основаны на многолетнем опыте компании и широко применяются в Китае как один из компонентов модульных быстровозводимых дата-центров Huawei Enterprise Business Group, собираемых из стандартных контейнеров. Huawei также продвигает эти решения как элемент экосистемы для построения крупных ЦОДов. В настоящее время компания поставляет решения FusionCol с хладопроизводительностью 220 кВт.

Недавно Huawei расширила географию поставок систем охлаждения FusionCol за пределы Китая, и сегодня решения серии NetCol8000-E производительностью 220 кВт уже доступны российским заказчикам.

Системы FusionCol позиционируются компанией как альтернатива традиционным HVAC-системам (Heating, Ventilation, & Air Conditioning) охлаждения ЦОДов для решения четырех ключевых проблем: высокого энергопотребления, длительного времени развертывания, низкого уровня автоматизации и сложности обслуживания в процессе эксплуатации.

Примерный расчет энергоэффективности ЦОДа на 1500 стоек для широты Пекина

Примерный расчет энергоэффективности ЦОДа на 1500 стоек для широты Пекина

Системы FusionCol обеспечивают лучшую эффективность за счет оптимизации коэффициента эффективности использования энергии (PUE) до 1,20 — на уровне Platinum по классификации Green Grid, что даёт тем самым экономию расходов на электропитание систем охлаждения ЦОДа до 60%.

Интеллектуальное управление Fusion-iCooling с применением алгоритмов ИИ по мере сбора информации и на основании её анализа представляет интеллектуальные рекомендации по применению водосберегающих и энергоэффективных режимов работы.

Коррекция режима работы производится в реальном времени с учетом изменения нагрузки ЦОДа, с точной регулировкой подачи воздуха. Такой подход позволяет увеличить суммарное время охлаждения в естественном режиме с оптимальным использованием ресурсов, и в итоге уменьшить частичный коэффициент PUE (pPUE) на 0,01 по сравнению с традиционными системами кондиционирования (Air Handling Units, AHU).

Дополнительный эффект от внедрения системы FusionCol также обеспечивается за счет экономии пространства, выделяемого под системы охлаждения ЦОД. Так, при расчёте условного дата-центра на 1500 стоек с потреблением энергии порядка 8 кВт на стойку и типовой загрузкой на уровне 30%-50%, можно сэкономить по сравнению с традиционными AHU до 38% площади при уличной установке FusionCol и до 20% площади при установке системы внутри помещения ЦОДа.

Теплообменная схема системы базируется на двух контурах: воздушном теплообменнике из алюминиевой фольги с эпоксидным покрытием, и теплообменнике косвенного испарения, обеспечивающем перекрестную теплоотдачу без непосредственного контакта потоков внутреннего нагретого воздуха и внешней подачи воздуха.

Гибридная система охлаждения Huawei FusionCol

Гибридная система охлаждения Huawei FusionCol

Подача охлажденного воздуха и вывод нагретого воздуха производятся с помощью теплоизолированных воздуховодов. Их распределение по машинному залу дата-центра производится по традиционной схеме с изолированными коридорами, однако вполне допустимы любые эффективные схемы распределения воздуха.

Система распыления нетребовательна к качеству воды (уровень фильтрации как минимум 89 мкм, pH в пределах от 6,5 до 8, жесткость менее 100 мг/л). Использование металлических сопел и небольшое число блоков распыления гарантирует низкий расход воды. Применение вентиляторов с электронным управлением и плавной регулировкой в пределах 30-100% нагрузки также позволяет снизить энергопотребление минимум на 20%.

Режимы работы Huawei FusionCol

Режимы работы Huawei FusionCol

Системы Huawei FusionCol совмещают все необходимые режимы работы и используют принцип непрямого охлаждения. В режиме фрикулинга задействован воздушный теплообменник без промежуточного теплоносителя, но и без непосредственной подачи «уличного воздуха», с плавной регулировкой вентиляторами и воздушными заслонками. Режим фрикулинга запускается при наружной температуре ниже +16°С.

При повышении уличной температуры до +19°С, система переходит в режим непрямого охлаждения — когда вода распыляется на теплообменник и по мере испарения отводит тепло. При росте уличной температуры выше +19°С включается гибридный режим с фреоновым холодильным контуром. В отличие от традиционного кондиционера, в этом режиме воздух по мере возможности охлаждается фрикулингом, и уже после этого холодильным контуром.

Для реалий российской средней полосы, с учетом локальных показателей влажности, система FusionCol будет работать с включенным фреоновым контуром в среднем на протяжении месяца-двух в течение года. Все остальное время FusionCol будет работать в гибридном режиме или в режиме фрикулинга.

Спецификации системы кондиционирования Huawei FusionCol NetCol8000-E

Спецификации системы кондиционирования Huawei FusionCol NetCol8000-E

Все компоненты систем FusionCol собираются и предварительно тестируются непосредственно на заводе-изготовителе. Именно поэтому на сборку и запуск системы требуется не более одного месяца. После размещения заказа требуется не более четырёх месяцев на поставку и монтаж. Таким образом, сокращение затрат рабочего времени на установку FusionCol достигает более 50% по сравнению с монтажом традиционных чиллерных систем охлаждения.

Простота внедрения систем FusionCol реализована за счет их модульной (контейнерной) конструкции, что удобно для установки внутри и вне помещения дата-центра — в ряд, стойкой или даже на крыше при достаточно прочной конструкции здания.  

Техобслуживание систем FusionCol несложное и занимает немного времени. Благодаря разделению шины силового питания и слаботочных цепей, обслуживание основного блока управления и вспомогательных модулей занимает не более одной минуты.

Обслуживание компрессора, подключенного с применением технологии RotaLock, обходится без применения сварочных работ, что экономит до 80% времени на техобслуживании. Наличие независимого кабеля для контроля работы вентиляторов гарантирует оперативное обслуживание в течение 5 минут.

Системы FusionCol оснащаются уникальным алгоритмом самодиагностики, который обеспечивает оперативное устранение мелких ошибок и решение вопросов со сложными неисправностями в течение 15 минут, что значительно быстрее чем 7 часов, отводящихся на ремонт традиционных систем охлаждения.

Интегрированные возможности позволяют собирать данные о неисправностях в один клик. Для этого система оснащена 7-дюймовым цветным сенсорным экраном с поддержкой отображения информации о 32 блоках, работающих в группе, памятью на 500 ошибок. Мониторинг системы сбоев поддерживает резервное копирование, циклический и каскадный режим отображения, и другие функции. Журнал событий может хранить 30-дневную историю со всеми кривыми изменения температуры и влажности.

Благодаря тому, что вентиляторы, насосы и теплообменное ядро системы FusionCol выполнены по модульной схеме избыточной конструкции N + 1, неисправность или частичный отказ одного модуля никоим образом не отражается на работоспособности всей системы. Цепи питания вентиляторов и компрессоров имеют независимый друг от друга дизайн и резервирование для дополнительной надежности коммутации.

Постоянный URL: http://servernews.ru/1000295
10.12.2019 [16:44], Алексей Степин

Schneider Electric, Avnet и Iceotope выпустили новую систему с гибридным жидкостным охлаждением

Компания Schneider Electric заключила союз с Avnet и Iceotope с целью разработки систем для рынка машинного обучения, использующих жидкостное охлаждение. На конференции Gartner IT они анонсируют уже готовое решение, способное вместить 14 серверов с ускорителями ИИ.

Новый комплекс весьма интересен с технической точки зрения: он использует гибридный подход к охлаждению, но за словом «гибридный» в данном случае кроется не «водо-воздушный», как обычно. Речь идёт о совмещении классических систем жидкостного охлаждения с замкнутым контуром и погружных (immersive).

Поддон с установленным сервером

Поддон с установленным сервером

Каждый вычислительный сервер в шасси высотой 1U размещается в специальном герметичном поддоне Iceotope. По сути, он наполовину погружён в охлаждающую жидкость, хотя имеется и принудительная подача теплоносителя к водоблокам центральных процессоров и модулям вычислительных ускорителей. Протечки за пределами поддона исключены.

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

Такой шкаф благодаря новой системе охлаждения может быть почти бесшумным

К сожалению, анонс не очень информативен, но на приведённых снимках видно, что каждый гибридный модуль охлаждения с сервером внутри занимает 2U, а всего в стойку помещается 14 таких модулей. На передние панели модулей герметично выведены разъёмы Ethernet, USB и VGA. В верхней части расположена пара коммутаторов ‒ управляющий и главный сетевой.

Передняя часть поддона

Передняя часть поддона

Разработчики говорят о более высокой эффективности охлаждения и практически полной бесшумности, но конкретных цифр, к сожалению, пока не приводят.

Постоянный URL: http://servernews.ru/999446
28.11.2019 [21:12], Алексей Степин

Microsoft получила патент на автономный герметичный ЦОД, заполненный газом под давлением

Проблема охлаждения ЦОД стоит остро ‒ недаром постоянно рождаются новые технологии, призванные справиться с отводами мегаватт тепловой энергии. Активно внедряется жидкостное охлаждение, в том числе, защищённое от протечек. Некоторые компании предлагают даже полностью автоматизированные иммерсионные системы.

Microsoft также внесла свой вклад в решение данной проблемы. Компания недавно запатентовала так называемые ЦОД «высокого давления».

Если верить опубликованному патенту за номером US10426062, новый метод позволяет улучшить охлаждение уже существующей инфраструктуры без установки дополнительных дорогостоящих компонентов.

Сравнение эффективности газов-теплоносителей при разных давлениях

Сравнение эффективности газов-теплоносителей при разных давлениях

Суть идеи Microsoft достаточно проста ‒ помещение ЦОД делается герметичным и наполняется газовой смесью под высоким давлением. Повышенное давление означает повышенную плотность, которая влияет на теплоёмкость. В патентной заявке указаны значения от 2 до 5 атмосфер.

Гексафторид серы в пять раз тяжелее воздуха

Рассмотрена эффективность применения различных газов помимо традиционного воздуха. При давлении 2 атмосферы эффективность воздуха составляет 1,4 от обычной. Переход на углекислый газ позволяет поднять этот показатель до 1,8. А для гексафторида серы (элегаз) этот показатель равен 6,9 — и это при четверти мощности, затрачиваемой вентиляторами систем охлаждения.

Project Natick: перед помещением оборудования в контейнер

Project Natick: перед помещением оборудования в контейнер

Несмотря на наличие фтора в формуле, гексафторид серы является весьма инертным и безопасным для оборудования соединением. При обычных температурах он не реагирует с водой и кислородом, а также с любыми компонентами, которые могут встретиться в серверном оборудовании.

Вещество проверенное, оно давно используется в электротехнике ‒ например, в высоковольтных разрывателях для предотвращения образования дуги. Применяется элегаз и в газовых системах пожаротушения.

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Патент Microsoft не углубляется в проблему возможной утечки газа-теплоносителя, однако в нём описана система управления, автоматически отслеживающая давление и состав газа в герметичной серверной. Предусмотрены средства управления и безопасности обслуживающего персонала ‒ элегаз не токсичен для человека, но для дыхания он всё-таки не годится.

В результате для обслуживания такого ЦОД его атмосферу придётся откачивать и заменять обычным воздухом на всё время нахождения персонала в помещении.

Project Natick: контейнер собран и готов к установке на морское дно

Project Natick: контейнер собран и готов к установке на морское дно

Судя по всему, «газонаполненные ЦОД высокого давления» предназначены для сценариев с минимальным участием человека или там, где такое участие вообще исключено. Так, Project Natick предполагает размещение центров хранения и обработки данных на морском дне. Прототип такой «морской серверной» уже был протестирован в течение 105 дней. Рабочий вариант предусматривает 40-футовый (12,2 метра) цилиндрический контейнер с оборудованием, способный проработать без обслуживания 5 лет.

В таких системах применение гексафторида серы действительно может быть оправданным, но в случае с наземными ЦОД пока неясно, перевесит ли повышенная эффективность охлаждения целый ряд неудобств, связанных с необходимостью поддержания герметичности и обеспечения безопасности персонала.

Постоянный URL: http://servernews.ru/998673
25.11.2019 [16:29], Андрей Созинов

SC19: TMGcore OTTO — автономный роботизированный микро-ЦОД с иммерсионной СЖО

Компания TMGcore представила в рамках прошедшей конференции SC19 свою весьма необычную систему OTTO.

Новинка является модульной платформой для создания автономных ЦОД, которая характеризуется высокой плотностью размещения аппаратного обеспечения, использует двухфазную иммерсионную систему жидкостного охлаждения, а также обладает роботизированной системой замены серверов.

Версия OTTO на 600 кВт

Версия OTTO на 600 кВт

Первое, что отмечает производитель в системе OTTO — это высокая плотность размещения аппаратного обеспечения. Система состоит из довольно компактных серверов, которые размещены в резервуаре с охлаждающей жидкость. Собственно, использование двухфазной иммерсионной системы жидкостного охлаждения и позволяет размещать «железо» с максимальной плотностью.

Версия OTTO на 60 кВт

Версия OTTO на 60 кВт

Всего OTTO будет доступна в трёх вариантах, рассчитанных на 60, 120 и 600 кВт. Системы состоят из одного или нескольких резервуаров для размещения серверов. Один такой резервуар имеет 12 слотов высотой 1U, в десяти из которых располагаются сервера, а ещё в двух — блоки питания. Также каждый резервуар снабжён шиной питания с рабочей мощностью 60 кВт. Отметим, что площадь, занимаемая самой большой 600-кВт системой OTTO составляет всего 14,9 м2.

В состав системы OTTO могут входить как эталонные серверы HydroBlades от самой TMGcore, так и решения от других производителей, прошедшие сертификацию «OTTO Ready». В последнем случае серверы должны использовать корпуса и компоновку, которые позволяют использовать их в иммерсионной системе охлаждения. Например, таким сервером является Dell EMC PowerEdge C4140.

В рамках конференции SC19 был продемонстрирован и фирменный сервер OTTOblade G1611. При высоте всего 1U он включает два процессора Intel Xeon Scalable, до 16 графических процессоров NVIDIA V100, до 1,5 Тбайт оперативной памяти и два 10- или 100-гигабитных интерфейса Ethernet либо одиночный InfiniBand 100G. Такой сервер обладает производительность в 2000 Тфлопс при вычислениях на тензорных ядрах.

Мощность описанной абзацем выше машины составляет 6 кВт, то есть в системе OTTO может работать от 10 до 100 таких машин. И охладить столь компактную и мощную систему способна только двухфазная погружная система жидкостного охлаждения. Он состоит из резервуара, заполненного охлаждающей жидкостью от 3M и Solvay, и теплообменника для конденсации испарившейся жидкости.

Для замены неисправных серверов система OTTO оснащена роботизированной рукой, которая способна производить замены в полностью автоматическом режиме. В корпусе OTTO имеется специальный отсек с резервными серверами, а также отсек для неисправных систем. Такой подход позволяет производить замену серверов без остановки всей системы, и позволяет избежать контакта человека с СЖО во время работы.

Изначально TMGcore специализировалась на системах для майнинга с иммерсионным охлаждением, а после перенесла свои разработки на обычные системы. Поэтому, в частности, описанный выше OTTOblade G1611 с натяжкой можно отнести к HPC-решениям, так как у него довольно слабый интерконнект, не слишком хорошо подходящий для решения классических задач. Впрочем, если рассматривать OTTO как именно автономный или пограничный (edge) микро-ЦОД, то решение имеет право на жизнь.

Постоянный URL: http://servernews.ru/998356
21.11.2019 [13:11], Алексей Степин

SC19: СЖО Chilldyne Cool-Flo для ЦОД исключает протечки

Выгоды от использования жидкостного охлаждения очевидны. Оно открывает путь к более плотному размещению вычислительных узлов, и сама эффективность охлаждения существенно выше. Но существуют у таких систем и серьезные недостатки.

Главной опасностью систем СЖО является возможность протечки теплоносителя. Такой сценарий может вывести из строя весьма дорогостоящее оборудование. Компания Chilldyne утверждает, что данную проблему ей удалось решить, и демонстрирует на SC19 систему охлаждения Cool-Flo с «отрицательным давлением».

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Главный принцип можно сравнить с вентилятором, работающим не на обдув, а на откачку воздуха из корпуса системы. Если в классическом контуре СЖО насосы нагнетают холодную жидкость в водоблоки, то насосы Cool-Flo, напротив, откачивают горячую. Если герметичность контура будет нарушена, то произойдёт не классический «залив» системной платы, а наоборот, вся жидкость будет выкачана, и вслед за ней в систему попадет воздух.

Модуль распределения теплоносителя (CDU) Cool-Flo

В таком сценарии возможен простой, но не повреждение драгоценного оборудования, поскольку контакт с жидкостью практически исключён. К тому же, сама вероятность разгерметизации серьёзно уменьшена из-за «отрицательного давления», снижающего механическую нагрузку на элементы контура. Давление в нем составляет менее 1 атмосферы, что исключает выдавливание жидкости наружу.

Двухпроцессорное лезвие Xeon Scalable с водоблоками Cool-Flo

Из прочих преимуществ системы Cool-Flo можно назвать низкую стоимость развёртывания и совместимость с существующей инфраструктурой воздушного охлаждения. Серьёзные монтажные работы с привлечением сторонних специалистов требуются только для установки CDU (системы распределения теплоносителя) и внешней башни-градирни, а монтаж стоек и серверов может осуществляться техническим персоналом ЦОД.

Комплект водоблоков Cool-Flo для процессоров Intel в исполнении LGA2011-3. Справа ‒ разъём No-Drip

Технически же в качестве водоблоков Cool-Flo может использовать модернизированные радиаторы воздушного охлаждения ЦП либо версии с теплоотводной пластиной; последний вариант идеально подходит для плотного размещения ускорителей на базе GPU и других чипов с высоким уровнем тепловыделения. В первом случае вентиляторы серверов могут работать на пониженной скорости, создавая дополнительный обдув элементов системы.

Графический ускоритель с дополнительной пластиной охлаждения. Ни одной протечки на более чем 6 тысяч плат

На выставке SC19 Chilldyne продемонстрировала как OEM-комплекты для процессоров Xeon, так и варианты для ускорителей AMD Radeon и NVIDIA Tesla. Переделка сервера, по сути, заключается в установке водоблоков и специальной заглушки с фирменным разъёмом No-Drip, напоминающим двухконтактную силовую розетку и допускающим «горячее» подключение или отключение сервера от главного контура системы.

Стойка с ускорителями, оснащённая системой Cool-Flo

Система распределения теплоносителя Cool-Flo CDU300 выполнена в виде стандартного шкафа, имеющего на передней панели экран с сенсорным управлением. Она рассчитана на температуру жидкости в районе 15‒30 градусов и при разнице температур 15 градусов способна отвести 300 киловатт тепла. Производительность водяных насосов составляет 300 литров в минуту при давлении в главном контуре менее 0,5 атмосфер.

Комплект Cool-Flo для Radeon Fury X. Охлаждается не только GPU, но и силовая часть

Предусмотрена полная система мониторинга (включая контроль качества теплоносителя) и удалённого управления, один шкаф может обслуживать до шести контуров охлаждения. Имеется возможность резервирования: резервный модуль CDU находится в активном режиме, но потребляет минимум энергии, а при необходимости мгновенно включается в работу.

Компания-разработчик считает, что при использовании Cool-Flo в ЦОД можно избавиться от так называемых «горячих рядов», снизить затраты на вентиляцию и кондиционирование воздуха практически до нуля и на 75% снизить мощность, потребляемую вентиляторами серверов. Chilldyne оценивает стоимость 1 мегаватта охлаждения в $580 тысяч, в то время как классическая воздушная реализация может обойтись более чем в $1,2 миллиона.

За четыре года эксплуатации ЦОД, оснащённого системой Cool-Flo экономия может составить почти $100 тысяч, и это не считая вышеупомянутых сниженных затрат на оснащение. С учётом пониженного риска повреждения оборудования в результате возможных протечек выигрыш может быть даже более серьёзным.

Постоянный URL: http://servernews.ru/998096
15.10.2019 [19:59], Владимир Мироненко

GMS представила ИИ-серверы TITAN повышенной надёжности для армии США

Компания General Micro Systems (GMS) представила на конференции Ассоциации армии США (AUSA) первые в отрасли герметичные, безвентиляторные стоечные серверы TITAN с кондуктивным охлаждением, предназначенные для применения в оборонной и аэрокосмических отраслях.

В них используется до четырёх процессоров Intel Xeon Scalable второго поколения с ускорителями NVIDIA Tesla V100, объединённых в шасси 1U или 2U для обеспечения высокой производительности, надёжности и бесшумной работы, необходимых в боевых условиях.

Сервер TITAN доступен в версиях с активным воздушным и пассивным кондуктивным охлаждением. Благодаря отсутствию вентиляторов, версию сервера с кондуктивным охлаждением можно устанавливать в непосредственной близости от операторов, которым больше не нужно носить неудобные средства защиты органов слуха для снижения уровня шума.

Как утверждает производитель, серия TITAN отличается от других стоечных серверов на рынке высокой плотностью и расширяемостью. В одной стойке 1U или 2U сервера TITAN размещается больше компонентов и ядер процессоров, чем у любого другого стоечного сервера форм-фактора 1U или 2U.

Сервер TITAN может иметь следующие опции:

  • До двух сопроцессоров GPGPU корпоративного класса NVIDIA Tesla V100 для рабочих нагрузок ИИ (до 400 Тфлопс)
  • Внешнее хранилище Secure High Speed Storage (SHS) ёмкостью до 64 Тбайт в RAID-массиве с шифрованием
  • Адаптеры 1/10/40 Гбит/с Ethernet с медными или оптоволоконными портами + дополнительный встроенный 20-портовый коммутатор — всё с использованием разъёмов MIL-DTL-38999 или стандартных разъёмов COTS
  • До 10 слотов PCIe 3.0
  • Два (1+1) БП 110/220 В 60 Гц/400 Гц, соответствующих стандарту MIL-STD-704, для каждой пары процессоров
  • Выделенное внешнее удалённое управление через IPMI
  • GMS SourceSafe BIOS и прошивка SecureDNA с функцией безопасной очистки данных
Постоянный URL: http://servernews.ru/995660
04.10.2019 [08:03], Владимир Мироненко

Schneider Electric с Iceotope будут разрабатывать иммерсионные СЖО для ЦОД

Schneider Electric объявила в четверг о заключении соглашения о сотрудничестве с Avnet и Iceotope с целью совместной разработки инновационных решений для иммерсионного жидкостного охлаждения для центров обработки данных (ЦОД).

Объявленное партнёрство объединяет трех крупных игроков: Avnet — в сфере сервисов по интеграции технологий, Iceotope — в разработке иммерсионных технологий охлаждения и Schneider Electric — в создании инфраструктурных решений для ЦОД.

«Приложения, требующие значительных вычислительных ресурсов, такие как искусственный интеллект и Интернет вещей, требуют более высокой производительности чипов. Наш количественный анализ методов жидкостного охлаждения свидетельствуют о его значительных преимуществах для рынка, — заявил Кевин Браун, технический директор и старший вице-президент по инновациям Secure Power, Schneider Electric. — Это партнёрство является следующим шагом в разработке решений, и мы рады сотрудничеству с Avnet и Iceotope».

У Schneider Electric уже имеется опыт сотрудничества с Iceotope в области исследований и разработок жидкостного охлаждения. Iceotope получила в 2014 году инвестиции в размере $10 млн в ходе раунда финансирования серии А во главе с Aster Capital. Эта сделка также способствовала установлению партнёрских отношений между Schneider Electric и Iceotope.

Партнёры говорят о том, что иммерсионное жидкостное охлаждение обеспечивает экономию капиталовложений и эксплуатационных расходов. 

Согласно предварительным расчётам Schneider Electric, решение с иммерсионным охлаждением с полным погружением в жидкость шасси по сравнению с традиционным решением с воздушным охлаждением требует на 15 % меньше капвложений и обеспечивает как минимум 10 % экономии электроэнергии, что приводит к экономии совокупной стоимости владения (TCO) на 20 лет в размере более 11 %.

Постоянный URL: http://servernews.ru/995069
26.09.2019 [23:23], Сергей Юртайкин

Серверы HPE получат иммерсионные СЖО GRC

Производитель иммерсионных СЖО для ЦОД GRC, ранее известный как Green Revolution Cooling, и корпорация Hewlett Packard Enterprise (HPE) объявили о сотрудничестве, в рамках которого технология GRC ICEraQ будет интегрирована с серверами HPE. Клиенты смогу получить комплексное, гибко настраивамое решение. 

Как отметили в GRC, совместное предложение компаний позволит заказчикам легко интегрировать оборудование HPE высокой плотности в любой существующий дата-центр без дополнительных затрат времени и расходов на изменение инфраструктуры ЦОД.

Владельцы серверов HPE с системами иммерсионного охлаждения GRC могут развёртывать оборудование с тепловой нагрузкой 2000 Вт на один юнит. Благодаря этому можно создавать вычислительные зоны высокой плотности практически без тепловых ограничений, которые есть у ЦОДов с воздушным охлаждением, сообщил архитектор GRC Брендон Мур (Brandon Moore).

HPE стала очередным OEM-партнёром GRC. Ранее было начато сотрудничество, например, с Supermicro.

Постоянный URL: http://servernews.ru/994720
18.08.2019 [09:44], Сергей Карасёв

GRC ICEraQ Micro: малая иммерсионная СЖО для ЦОД

Компания GRC (Green Revolution Cooling) анонсировала серверную систему ICEraQ Micro, предназначенную для применения в центрах обработки данных с высокой энергетической эффективностью.

Решение 24U допускает установку серверных модулей различных производителей. Эти аппаратные блоки погружаются в непроводящую нетоксичную охлаждающую жидкость.

Утверждается, что применение системы ICEraQ Micro позволяет сократить энергозатраты приблизительно на 50 процентов  по сравнению с традиционными решениями с воздушным охлаждением. 

Новинка позволяет формировать серверные узлы высокой плотности. Развёртывание таких систем требует относительно немного времени. Габариты ICEraQ Micro составляют 1,17 × 0,87 × 1,44 метра. Обеспечивается отвод до 50 кВт тепла.

Более подробную информацию о технических характеристиках новинки можно найти здесь. Сведений о цене на данный момент нет. 

Постоянный URL: http://servernews.ru/992578
Система Orphus