Материалы по тегу: охлаждение

28.11.2019 [21:12], Алексей Степин

Microsoft получила патент на автономный герметичный ЦОД, заполненный газом под давлением

Проблема охлаждения ЦОД стоит остро ‒ недаром постоянно рождаются новые технологии, призванные справиться с отводами мегаватт тепловой энергии. Активно внедряется жидкостное охлаждение, в том числе, защищённое от протечек. Некоторые компании предлагают даже полностью автоматизированные иммерсионные системы.

Microsoft также внесла свой вклад в решение данной проблемы. Компания недавно запатентовала так называемые ЦОД «высокого давления».

Если верить опубликованному патенту за номером US10426062, новый метод позволяет улучшить охлаждение уже существующей инфраструктуры без установки дополнительных дорогостоящих компонентов.

Сравнение эффективности газов-теплоносителей при разных давлениях

Сравнение эффективности газов-теплоносителей при разных давлениях

Суть идеи Microsoft достаточно проста ‒ помещение ЦОД делается герметичным и наполняется газовой смесью под высоким давлением. Повышенное давление означает повышенную плотность, которая влияет на теплоёмкость. В патентной заявке указаны значения от 2 до 5 атмосфер.

Гексафторид серы в пять раз тяжелее воздуха

Рассмотрена эффективность применения различных газов помимо традиционного воздуха. При давлении 2 атмосферы эффективность воздуха составляет 1,4 от обычной. Переход на углекислый газ позволяет поднять этот показатель до 1,8. А для гексафторида серы (элегаз) этот показатель равен 6,9 — и это при четверти мощности, затрачиваемой вентиляторами систем охлаждения.

Project Natick: перед помещением оборудования в контейнер

Project Natick: перед помещением оборудования в контейнер

Несмотря на наличие фтора в формуле, гексафторид серы является весьма инертным и безопасным для оборудования соединением. При обычных температурах он не реагирует с водой и кислородом, а также с любыми компонентами, которые могут встретиться в серверном оборудовании.

Вещество проверенное, оно давно используется в электротехнике ‒ например, в высоковольтных разрывателях для предотвращения образования дуги. Применяется элегаз и в газовых системах пожаротушения.

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Дверь откроется только после выкачки непригодной для дыхания атмосферы

Патент Microsoft не углубляется в проблему возможной утечки газа-теплоносителя, однако в нём описана система управления, автоматически отслеживающая давление и состав газа в герметичной серверной. Предусмотрены средства управления и безопасности обслуживающего персонала ‒ элегаз не токсичен для человека, но для дыхания он всё-таки не годится.

В результате для обслуживания такого ЦОД его атмосферу придётся откачивать и заменять обычным воздухом на всё время нахождения персонала в помещении.

Project Natick: контейнер собран и готов к установке на морское дно

Project Natick: контейнер собран и готов к установке на морское дно

Судя по всему, «газонаполненные ЦОД высокого давления» предназначены для сценариев с минимальным участием человека или там, где такое участие вообще исключено. Так, Project Natick предполагает размещение центров хранения и обработки данных на морском дне. Прототип такой «морской серверной» уже был протестирован в течение 105 дней. Рабочий вариант предусматривает 40-футовый (12,2 метра) цилиндрический контейнер с оборудованием, способный проработать без обслуживания 5 лет.

В таких системах применение гексафторида серы действительно может быть оправданным, но в случае с наземными ЦОД пока неясно, перевесит ли повышенная эффективность охлаждения целый ряд неудобств, связанных с необходимостью поддержания герметичности и обеспечения безопасности персонала.

Постоянный URL: http://servernews.ru/998673
25.11.2019 [16:29], Андрей Созинов

SC19: TMGcore OTTO — автономный роботизированный микро-ЦОД с иммерсионной СЖО

Компания TMGcore представила в рамках прошедшей конференции SC19 свою весьма необычную систему OTTO.

Новинка является модульной платформой для создания автономных ЦОД, которая характеризуется высокой плотностью размещения аппаратного обеспечения, использует двухфазную иммерсионную систему жидкостного охлаждения, а также обладает роботизированной системой замены серверов.

Версия OTTO на 600 кВт

Версия OTTO на 600 кВт

Первое, что отмечает производитель в системе OTTO — это высокая плотность размещения аппаратного обеспечения. Система состоит из довольно компактных серверов, которые размещены в резервуаре с охлаждающей жидкость. Собственно, использование двухфазной иммерсионной системы жидкостного охлаждения и позволяет размещать «железо» с максимальной плотностью.

Версия OTTO на 60 кВт

Версия OTTO на 60 кВт

Всего OTTO будет доступна в трёх вариантах, рассчитанных на 60, 120 и 600 кВт. Системы состоят из одного или нескольких резервуаров для размещения серверов. Один такой резервуар имеет 12 слотов высотой 1U, в десяти из которых располагаются сервера, а ещё в двух — блоки питания. Также каждый резервуар снабжён шиной питания с рабочей мощностью 60 кВт. Отметим, что площадь, занимаемая самой большой 600-кВт системой OTTO составляет всего 14,9 м2.

В состав системы OTTO могут входить как эталонные серверы HydroBlades от самой TMGcore, так и решения от других производителей, прошедшие сертификацию «OTTO Ready». В последнем случае серверы должны использовать корпуса и компоновку, которые позволяют использовать их в иммерсионной системе охлаждения. Например, таким сервером является Dell EMC PowerEdge C4140.

В рамках конференции SC19 был продемонстрирован и фирменный сервер OTTOblade G1611. При высоте всего 1U он включает два процессора Intel Xeon Scalable, до 16 графических процессоров NVIDIA V100, до 1,5 Тбайт оперативной памяти и два 10- или 100-гигабитных интерфейса Ethernet либо одиночный InfiniBand 100G. Такой сервер обладает производительность в 2000 Тфлопс при вычислениях на тензорных ядрах.

Мощность описанной абзацем выше машины составляет 6 кВт, то есть в системе OTTO может работать от 10 до 100 таких машин. И охладить столь компактную и мощную систему способна только двухфазная погружная система жидкостного охлаждения. Он состоит из резервуара, заполненного охлаждающей жидкостью от 3M и Solvay, и теплообменника для конденсации испарившейся жидкости.

Для замены неисправных серверов система OTTO оснащена роботизированной рукой, которая способна производить замены в полностью автоматическом режиме. В корпусе OTTO имеется специальный отсек с резервными серверами, а также отсек для неисправных систем. Такой подход позволяет производить замену серверов без остановки всей системы, и позволяет избежать контакта человека с СЖО во время работы.

Изначально TMGcore специализировалась на системах для майнинга с иммерсионным охлаждением, а после перенесла свои разработки на обычные системы. Поэтому, в частности, описанный выше OTTOblade G1611 с натяжкой можно отнести к HPC-решениям, так как у него довольно слабый интерконнект, не слишком хорошо подходящий для решения классических задач. Впрочем, если рассматривать OTTO как именно автономный или пограничный (edge) микро-ЦОД, то решение имеет право на жизнь.

Постоянный URL: http://servernews.ru/998356
21.11.2019 [13:11], Алексей Степин

SC19: СЖО Chilldyne Cool-Flo для ЦОД исключает протечки

Выгоды от использования жидкостного охлаждения очевидны. Оно открывает путь к более плотному размещению вычислительных узлов, и сама эффективность охлаждения существенно выше. Но существуют у таких систем и серьезные недостатки.

Главной опасностью систем СЖО является возможность протечки теплоносителя. Такой сценарий может вывести из строя весьма дорогостоящее оборудование. Компания Chilldyne утверждает, что данную проблему ей удалось решить, и демонстрирует на SC19 систему охлаждения Cool-Flo с «отрицательным давлением».

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Принципиальная схема Chilldyne Cool-Flo. Обратите внимание на направление движения жидкости

Главный принцип можно сравнить с вентилятором, работающим не на обдув, а на откачку воздуха из корпуса системы. Если в классическом контуре СЖО насосы нагнетают холодную жидкость в водоблоки, то насосы Cool-Flo, напротив, откачивают горячую. Если герметичность контура будет нарушена, то произойдёт не классический «залив» системной платы, а наоборот, вся жидкость будет выкачана, и вслед за ней в систему попадет воздух.

Модуль распределения теплоносителя (CDU) Cool-Flo

В таком сценарии возможен простой, но не повреждение драгоценного оборудования, поскольку контакт с жидкостью практически исключён. К тому же, сама вероятность разгерметизации серьёзно уменьшена из-за «отрицательного давления», снижающего механическую нагрузку на элементы контура. Давление в нем составляет менее 1 атмосферы, что исключает выдавливание жидкости наружу.

Двухпроцессорное лезвие Xeon Scalable с водоблоками Cool-Flo

Из прочих преимуществ системы Cool-Flo можно назвать низкую стоимость развёртывания и совместимость с существующей инфраструктурой воздушного охлаждения. Серьёзные монтажные работы с привлечением сторонних специалистов требуются только для установки CDU (системы распределения теплоносителя) и внешней башни-градирни, а монтаж стоек и серверов может осуществляться техническим персоналом ЦОД.

Комплект водоблоков Cool-Flo для процессоров Intel в исполнении LGA2011-3. Справа ‒ разъём No-Drip

Технически же в качестве водоблоков Cool-Flo может использовать модернизированные радиаторы воздушного охлаждения ЦП либо версии с теплоотводной пластиной; последний вариант идеально подходит для плотного размещения ускорителей на базе GPU и других чипов с высоким уровнем тепловыделения. В первом случае вентиляторы серверов могут работать на пониженной скорости, создавая дополнительный обдув элементов системы.

Графический ускоритель с дополнительной пластиной охлаждения. Ни одной протечки на более чем 6 тысяч плат

На выставке SC19 Chilldyne продемонстрировала как OEM-комплекты для процессоров Xeon, так и варианты для ускорителей AMD Radeon и NVIDIA Tesla. Переделка сервера, по сути, заключается в установке водоблоков и специальной заглушки с фирменным разъёмом No-Drip, напоминающим двухконтактную силовую розетку и допускающим «горячее» подключение или отключение сервера от главного контура системы.

Стойка с ускорителями, оснащённая системой Cool-Flo

Система распределения теплоносителя Cool-Flo CDU300 выполнена в виде стандартного шкафа, имеющего на передней панели экран с сенсорным управлением. Она рассчитана на температуру жидкости в районе 15‒30 градусов и при разнице температур 15 градусов способна отвести 300 киловатт тепла. Производительность водяных насосов составляет 300 литров в минуту при давлении в главном контуре менее 0,5 атмосфер.

Комплект Cool-Flo для Radeon Fury X. Охлаждается не только GPU, но и силовая часть

Предусмотрена полная система мониторинга (включая контроль качества теплоносителя) и удалённого управления, один шкаф может обслуживать до шести контуров охлаждения. Имеется возможность резервирования: резервный модуль CDU находится в активном режиме, но потребляет минимум энергии, а при необходимости мгновенно включается в работу.

Компания-разработчик считает, что при использовании Cool-Flo в ЦОД можно избавиться от так называемых «горячих рядов», снизить затраты на вентиляцию и кондиционирование воздуха практически до нуля и на 75% снизить мощность, потребляемую вентиляторами серверов. Chilldyne оценивает стоимость 1 мегаватта охлаждения в $580 тысяч, в то время как классическая воздушная реализация может обойтись более чем в $1,2 миллиона.

За четыре года эксплуатации ЦОД, оснащённого системой Cool-Flo экономия может составить почти $100 тысяч, и это не считая вышеупомянутых сниженных затрат на оснащение. С учётом пониженного риска повреждения оборудования в результате возможных протечек выигрыш может быть даже более серьёзным.

Постоянный URL: http://servernews.ru/998096
15.10.2019 [19:59], Владимир Мироненко

GMS представила ИИ-серверы TITAN повышенной надёжности для армии США

Компания General Micro Systems (GMS) представила на конференции Ассоциации армии США (AUSA) первые в отрасли герметичные, безвентиляторные стоечные серверы TITAN с кондуктивным охлаждением, предназначенные для применения в оборонной и аэрокосмических отраслях.

В них используется до четырёх процессоров Intel Xeon Scalable второго поколения с ускорителями NVIDIA Tesla V100, объединённых в шасси 1U или 2U для обеспечения высокой производительности, надёжности и бесшумной работы, необходимых в боевых условиях.

Сервер TITAN доступен в версиях с активным воздушным и пассивным кондуктивным охлаждением. Благодаря отсутствию вентиляторов, версию сервера с кондуктивным охлаждением можно устанавливать в непосредственной близости от операторов, которым больше не нужно носить неудобные средства защиты органов слуха для снижения уровня шума.

Как утверждает производитель, серия TITAN отличается от других стоечных серверов на рынке высокой плотностью и расширяемостью. В одной стойке 1U или 2U сервера TITAN размещается больше компонентов и ядер процессоров, чем у любого другого стоечного сервера форм-фактора 1U или 2U.

Сервер TITAN может иметь следующие опции:

  • До двух сопроцессоров GPGPU корпоративного класса NVIDIA Tesla V100 для рабочих нагрузок ИИ (до 400 Тфлопс)
  • Внешнее хранилище Secure High Speed Storage (SHS) ёмкостью до 64 Тбайт в RAID-массиве с шифрованием
  • Адаптеры 1/10/40 Гбит/с Ethernet с медными или оптоволоконными портами + дополнительный встроенный 20-портовый коммутатор — всё с использованием разъёмов MIL-DTL-38999 или стандартных разъёмов COTS
  • До 10 слотов PCIe 3.0
  • Два (1+1) БП 110/220 В 60 Гц/400 Гц, соответствующих стандарту MIL-STD-704, для каждой пары процессоров
  • Выделенное внешнее удалённое управление через IPMI
  • GMS SourceSafe BIOS и прошивка SecureDNA с функцией безопасной очистки данных
Постоянный URL: http://servernews.ru/995660
04.10.2019 [08:03], Владимир Мироненко

Schneider Electric с Iceotope будут разрабатывать иммерсионные СЖО для ЦОД

Schneider Electric объявила в четверг о заключении соглашения о сотрудничестве с Avnet и Iceotope с целью совместной разработки инновационных решений для иммерсионного жидкостного охлаждения для центров обработки данных (ЦОД).

Объявленное партнёрство объединяет трех крупных игроков: Avnet — в сфере сервисов по интеграции технологий, Iceotope — в разработке иммерсионных технологий охлаждения и Schneider Electric — в создании инфраструктурных решений для ЦОД.

«Приложения, требующие значительных вычислительных ресурсов, такие как искусственный интеллект и Интернет вещей, требуют более высокой производительности чипов. Наш количественный анализ методов жидкостного охлаждения свидетельствуют о его значительных преимуществах для рынка, — заявил Кевин Браун, технический директор и старший вице-президент по инновациям Secure Power, Schneider Electric. — Это партнёрство является следующим шагом в разработке решений, и мы рады сотрудничеству с Avnet и Iceotope».

У Schneider Electric уже имеется опыт сотрудничества с Iceotope в области исследований и разработок жидкостного охлаждения. Iceotope получила в 2014 году инвестиции в размере $10 млн в ходе раунда финансирования серии А во главе с Aster Capital. Эта сделка также способствовала установлению партнёрских отношений между Schneider Electric и Iceotope.

Партнёры говорят о том, что иммерсионное жидкостное охлаждение обеспечивает экономию капиталовложений и эксплуатационных расходов. 

Согласно предварительным расчётам Schneider Electric, решение с иммерсионным охлаждением с полным погружением в жидкость шасси по сравнению с традиционным решением с воздушным охлаждением требует на 15 % меньше капвложений и обеспечивает как минимум 10 % экономии электроэнергии, что приводит к экономии совокупной стоимости владения (TCO) на 20 лет в размере более 11 %.

Постоянный URL: http://servernews.ru/995069
26.09.2019 [23:23], Сергей Юртайкин

Серверы HPE получат иммерсионные СЖО GRC

Производитель иммерсионных СЖО для ЦОД GRC, ранее известный как Green Revolution Cooling, и корпорация Hewlett Packard Enterprise (HPE) объявили о сотрудничестве, в рамках которого технология GRC ICEraQ будет интегрирована с серверами HPE. Клиенты смогу получить комплексное, гибко настраивамое решение. 

Как отметили в GRC, совместное предложение компаний позволит заказчикам легко интегрировать оборудование HPE высокой плотности в любой существующий дата-центр без дополнительных затрат времени и расходов на изменение инфраструктуры ЦОД.

Владельцы серверов HPE с системами иммерсионного охлаждения GRC могут развёртывать оборудование с тепловой нагрузкой 2000 Вт на один юнит. Благодаря этому можно создавать вычислительные зоны высокой плотности практически без тепловых ограничений, которые есть у ЦОДов с воздушным охлаждением, сообщил архитектор GRC Брендон Мур (Brandon Moore).

HPE стала очередным OEM-партнёром GRC. Ранее было начато сотрудничество, например, с Supermicro.

Постоянный URL: http://servernews.ru/994720
18.08.2019 [09:44], Сергей Карасёв

GRC ICEraQ Micro: малая иммерсионная СЖО для ЦОД

Компания GRC (Green Revolution Cooling) анонсировала серверную систему ICEraQ Micro, предназначенную для применения в центрах обработки данных с высокой энергетической эффективностью.

Решение 24U допускает установку серверных модулей различных производителей. Эти аппаратные блоки погружаются в непроводящую нетоксичную охлаждающую жидкость.

Утверждается, что применение системы ICEraQ Micro позволяет сократить энергозатраты приблизительно на 50 процентов  по сравнению с традиционными решениями с воздушным охлаждением. 

Новинка позволяет формировать серверные узлы высокой плотности. Развёртывание таких систем требует относительно немного времени. Габариты ICEraQ Micro составляют 1,17 × 0,87 × 1,44 метра. Обеспечивается отвод до 50 кВт тепла.

Более подробную информацию о технических характеристиках новинки можно найти здесь. Сведений о цене на данный момент нет. 

Постоянный URL: http://servernews.ru/992578
23.07.2019 [18:47], Андрей Созинов

Для нормальной работы Raspberry Pi 4 всё-таки нужно активное охлаждение

Не так давно был представлен новый одноплатный компьютер Raspberry Pi 4, который отличается весьма высокой производительностью. По словам создателей системы, она вполне может обеспечить большинству пользователей уровень производительности как у обычного настольного ПК. Однако вместе с большой мощностью приходит и большой нагрев. И энтузиаст Джефф Гирлинг (Jeff Geerling) рассказал, как можно довольно легко с ним справиться.

Обычно у одноплатных компьютеров наиболее горячим элементом является однокристальная платформа. Однако в случае с Raspberry Pi 4 греется не только главный чип, но и некоторые другие части, в том числе и силовые элементы подсистемы питания. На представленном ниже тепловом изображении видно, как нагревается плата. Причём такая картина наблюдается после пяти минут работы без нагрузки.

Заметим, что центральный тёмный квадрат является процессором, однако его металлическая крышка достаточно эффективно рассеивает инфракрасное излучение по сторонам. Белые пятна в левом нижнем углу — цепи питания, идущие от разъёма USB Type-C. А небольшое красное пятно по правой стороне — USB-контроллер, который под нагрузкой «раскаляется» до белого цвета, соответствующего температурам 60–70 °C.

В итоге, если активно использовать Raspberry Pi 4, нагружая его различными тяжёлыми задачами, то спустя некоторое время температура процессора и других элементом дойдёт до 80 °C и выше. По словам Джеффа Гирлинга, понижение тактовой частоты (троттлинг) происходит уже менее чем через 10 минут работы Raspberry Pi 4 под нагрузкой.

Нагрев усиливается при использовании фирменного корпуса для Raspberry Pi 4, который представляет собой закрытую пластиковую коробку без какой-либо вентиляции. Поэтому Джефф решил доработать этот корпус, проделав в нём отверстие и снабдив его верхнюю крышку вентилятором. Использовался вентилятор Pi Fan, который можно напрямую подключить к контактам GPIO.

Температуры процессора без вентилятора и с вентилятором

Температуры процессора без вентилятора и с вентилятором

После установки вентилятора при часовом стресс-тесте процессора Raspberry Pi 4, его температура держалась на уровне 60 °C и он даже не пытался сбрасывать частоты. Правда есть один недостаток: уровень шума вентилятора составляет примерно 50 дБА на расстоянии 30 см. Но, как отметил Джефф, без вентилятора полноценно использовать Raspberry Pi 4 в фирменном корпусе не получится, уж очень он сильно греется.

Алюминиевый корпус для Raspberry Pi 4

Алюминиевый корпус для Raspberry Pi 4

Альтернативой здесь могут стать металлические корпуса от сторонних производителей, которые пассивно отводят тепло. Заметим, что ранее для новой «малины» был представлен полноценный башенный кулер ICE Tower с алюминиевым радиатором, тепловой трубкой и вентилятором. 

ICE Tower для Raspberry Pi 4

ICE Tower для Raspberry Pi 4

Постоянный URL: http://servernews.ru/991194
19.07.2019 [16:22], Сергей Карасёв

Высота CPU-кулера Dynatron T497 для серверов составляет 30 мм

Производитель серверных систем охлаждения Dynatron анонсировал низкопрофильный кулер T497, рассчитанный на работу с процессорами AMD и Intel.

Высота новинки составляет всего 30 миллиметров. Благодаря этому решение может применяться в серверах и ПК с ограниченным внутренним пространством.

В состав кулера входит алюминиевый радиатор, который пронизывают четыре тепловые трубки. Последние имеют непосредственный контакт с крышкой процессора, что повышает эффективность отвода тепла.

Радиатор обдувается 92-миллиметровым вентилятором со скоростью вращения 3600 оборотов в минуту (±10 %). Формируемый поток воздуха достигает 68 кубических метров в час. Уровень шума не превышает 35,8 дБА.

Общие габариты кулера составляют 93 × 100 × 30 мм. Весит изделие приблизительно 310 г.

Использовать новинку можно с чипами Intel в исполнении LGA1151/1150/1155/1156 и AMD в исполнении AM4/FM2+/FM2/FM1/AM3+/AM3/AM2+/AM2. Максимальное значение рассеиваемой тепловой энергии охлаждаемого процессора не должно превышать 100 Вт. 

Постоянный URL: http://servernews.ru/991033
25.06.2019 [17:56], Владимир Мироненко

ServerCool анонсировала ADHX 35-6B для систем жидкостного охлаждения ЦОД

ServerCool, дочернее предприятие компании Nortek Air Solutions, представило ADHX 35-6B — активный теплообменник задней двери (Active Rear Door Heat Exchanger, ADHX) мощностью 35 кВт для систем жидкостного охлаждения в центрах обработки данных.

ADHX 35-6B представляет собой решение ServerCool ADHX нового поколения, получившее по сравнению с предыдущей версией увеличение запаса мощности, повышение удобства в работе и энергоэффективности без ущерба для дизайна, использовавшегося в предыдущем поколении, и конкурентоспособной стоимости.

Благодаря этим качествам ADHX 35-6B, как утверждается, превосходит другие ADHX в отрасли по критериям совокупной стоимости владения (TCO) и эффективности использования энергии (PUE). Кроме того, устройство занимает меньшую площадь и отличается апробированной конструкцией, благодаря которой снижаются затраты на установку и обслуживание.

Обновлённый агрегат, который может использоваться для модернизированных и новых ЦОД с водяным охлаждением, потребляет менее 500 Вт для обеспечения 35-кВт мощности охлаждения, что способствует повышению коэффициента эффективности использования энергии (PUE) до 1,033.

Обновлённый дизайн ADHX 35-6B включает:

  • резервные датчики температуры на входе и выходе сверхтонкого змеевика для предотвращения перегрева и обеспечения эффективной отказоустойчивости;
  • контроллер с цветным сенсорным экраном с диагональю 4-дюйма (101 мм) с поддержкой промышленных протоколов Modbus и BACnet;
  • регулирующий клапан для эффективного регулирования циркуляции через дверь с возможностью контроля точки росы или конденсации с помощью регулирующего опционального встроенного клапана исполнительного механизма;
  • настраиваемая пользователем светодиодная сигнализация, а также обнаружение и предотвращение утечек;
  • интерфейс plug-and-play для быстрого соединения системы с электроникой сервера и системой управления зданием (BMS);
  • быстрое подключение расходомера змеевика охлаждения.

Система управления ADHX 35-6B также включает регулятор скорости вращения вентилятора.

ADHX 35-6B отличается компактными размерами — 109 × 280 мм (с настраиваемой монтажной рамой) и требует значительно меньше места в центре обработки данных по сравнению с решениями других производителей.

Агрегат совместим с другими устройствами распределения охлаждения (CDU) ServerCool. На ADHX 35-6B предоставляется двухлетняя стандартная гарантия. 

Постоянный URL: http://servernews.ru/989748
Система Orphus