Материалы по тегу: микро-цод

04.07.2023 [15:12], Руслан Авдеев

Crusoe Energy Systems задействует попутный газ для майнинга криптовалют на нефтяных полях Аргентины

Американская Crusoe Energy Systems совместно с инвестирующей в климатические проекты компанией Unblock организует строительство модульных микро-ЦОД на нефтяных полях в Аргентине. В частности, как сообщает DataCenter Dynamics, в Vaca Muerta будут размещены контейнерные дата-центры, питаемые за счёт сжигания попутного «факельного» газа.

Сегодня нефтяные компании обычно просто сжигают такой газ, поскольку применять его каким-либо образом нерентабельно. Grusoe Energy же намерена направить метан из скважин в газовые турбины, как уже делала неоднократно. ЦОД будут ориентированы на майнинг криптовалют, а также ИИ- и HPC-нагрузки. Впрочем, экологи называют такие практики «зелёным камуфляжем» — сжигание метана ведёт к выбросам CO2, менее вредного для климата по сравнению с метаном в краткосрочной перспективе, но всё равно вносящего лепту в парниковый эффект.

 Фото: Crusoe Energy Systems

Фото: Crusoe Energy Systems

Сегодня парк Crusoe включает более 120 контейнерных ЦОД в США, в планах охвата рынков ОАЭ и Омана, а теперь и Аргентины, 12-го по величине «поставщика» метана в атмосферу. Эксклюзивным партнёром компании здесь стал стартап Unblock, занимающийся климатическими проектами в развивающихся странах.

Но у Crusoe, дополняет DataCenter Dynamics, появились проблемы — канадаская компания Upstream Data подала на неё в суд, обвиняя в нарушении патентных прав на технологию использования факельного газа для майнинга криптовалют. У самой Upstream Data только в США имеется более 350 объектов. В компании заявляют, что Crusoe знала о существовании патента, разрабатывая собственный продукт. Впрочем, перспективы процесса туманны — эту же технологию используют множество других компаний.

Постоянный URL: http://servernews.ru/1089337
30.05.2023 [13:22], Сергей Карасёв

Доля мини-ЦОД в России к 2035 году может достичь 30 %

В России ожидается значительный рост востребованности мини-ЦОД — относительно небольших дата-центров, которые могут располагаться вместе с базовыми станциями вблизи жилых домов или промышленных предприятий. Об этом сообщает газета «Ведомости, ссылаясь на проект «Стратегии развития отрасли связи в РФ на 2024–2035 годы».

Говорится, что в России пока нет чётко сформировавшегося рынка мини-ЦОД. По оценкам, на долю таких площадок приходится приблизительно 2–3 % от общего объёма вычислений. Но к 2035-му показатель может вырасти на порядок, достигнув 30 %. По итогам 2022 года затраты в сегменте мини-ЦОД оказались на уровне 1 млрд руб. В ближайшие годы прогнозируется бурное развитие рынка, чему будут способствовать платформы Интернета вещей (IoT) и растущие объёмы передаваемого трафика.

 Источник изображения: Ростелеком-ЦОД

Источник изображения: Ростелеком-ЦОД

Участники рынка говорят, что в России сформировалась двухуровневая архитектура хранения и обработки данных. Первый уровень — это крупные ЦОД на несколько тысяч стоек, которые обычно строятся на окраинах больших городов. Ко второму уровню относятся небольшие дата-центры, необходимые для оперативной обработки ограниченного объёма информации и быстрого отклика современных сервисов.

Такие мини-ЦОД могут развёртываться в том числе в районах массового скопления людей и на площадках операторов связи. Среди ключевых игроков отрасли названы российские производители Datark, Utilex, «Айсо», «НПО инжиниринг» («Телекор»), C3 Solutions, а также интеграторы «Инлайн», «Ланит» и Sitronics.

Ожидается, что мини-ЦОД будут располагаться вдоль федеральных трасс, в городах небольшого размера, в крупных транспортных узлах и местах массовых мероприятий. Драйверами отрасли названы региональная цифровизация, развитие сетей 5G и создание новых доступных решений. Однако развёртывание небольших дата-центров может быть затруднено из-за более высоких затрат на строительство по сравнению с ЦОД большого масштаба.

Постоянный URL: http://servernews.ru/1087566
10.05.2023 [17:09], Руслан Авдеев

В Японии заработал сверхэкологичный микро-ЦОД с питанием от солнца и охлаждением ключевой водой

Японская Japan Renewable Energy Corporation (JRE) сообщила о достижении стабильной работы центра обработки данных, полностью обеспечиваемого электричеством, получаемым с помощью солнечных элементов питания, и охлаждаемого водой из скважины.

Ещё до анонса проекта японские власти рассказали о готовности регионов предложить место для размещения ЦОД подальше от Токио в рамках плана по децентрализации ЦОД — сейчас 60 % из них расположены в сейсмоопасном и уязвимом для цунами районе вблизи Токио, что грозит возможными перебоями в работе сервисов. В июне 2022 года было объявлено о реализации совместного проекта JRE и Morgenrot в префектуре Нагано возле солнечной электростанции, принадлежащей JRE.

 JRE Nagano Omachi Solar Power Plant. Источник изображения: JRE

JRE Nagano Omachi Solar Power Plant. Источник изображения: JRE

Микро-ЦОД контейнерного типа был создан компанией Mirait Corporation и введён в эксплуатацию в декабре 2022 года. ЦОД оптимизирован для ИИ- и HPC-нагрузок. В нём размещено 40 GPU-серверов с ускорителями AMD и NVIDIA. Система охлаждения ЦОД не предусматривает использования ХФУ-хладагентов и потребляет лишь воду из близлежащей скважины. Комплекс имеет PUE на уровне 1,1 и обеспечивает нулевые выбросы CO2 (без учёта выбросов при строительстве и производстве оборудования).

Ресурсами серверов управляет компания Morgenrot, предоставляющая облачный сервис M:CPP (Morgenrot Computing Power Pool). Для Morgenrot это не первый реализованный проект «зелёного» ЦОД — компания имеет схожие мощности с питанием возобновляемой энергией по всему миру. Известно, что солнечная электростанция JRE Nagano Omachi Solar Power Plant имеет установленную мощность 2442 кВт и, как ожидается, сможет выдавать 3,5 млн кВт·ч ежегодно.

Постоянный URL: http://servernews.ru/1086484
08.04.2023 [22:31], Сергей Карасёв

«Утилекс» представил российские микро-ЦОД DataStone

Российский разработчик оборудования для дата-центров «Утилекс» сообщил о начале производства новых микро-ЦОД семейства DataStone, предназначенных для создания распределительных узлов структурированных кабельный сетей (СКС).

Изделие представляет собой герметичный шкаф с шумоизоляцией, выполненный по стандарту IP65. Внутри расположен кондиционер CleverBreeze хладопроизводительностью 3 кВт производства «Утилекс». Он имеет высоту 10U и включает в себя все компоненты прецизионной системы охлаждения, за исключением внешнего конденсаторного блока с вентилятором. Последний может быть установлен на крышу микро-ЦОД либо на внешнюю стену здания.

 Источник изображений: «Утилекс»

Источник изображений: «Утилекс»

В состав представленной платформы также входит система замкнутого ультразвукового адиабатического увлажнения — собственная разработка компании «Утилекс». Она не требует подведения трасс водоснабжения и канализации. Утверждается, что данная система снижает потребление влаги и сокращает расход энергии до 100–200 Вт вместо 2–3 кВт для пароувлажнителей. Кроме того, в отличие от систем пароувлажнения, данное решение повышает эффективность системы охлаждения.

Прочее штатное оборудование включает источник бесперебойного питания и блоки распределения питания, средства автоматического газового пожаротушения (Novec 1230), контроллеры системы дистанционного управления и мониторинга. Есть шесть датчиков температуры и два датчика влажности. Реализованы функции контроля и управления доступом, освещением, гермовводами в крыше и основании шкафа.

«Отличительной особенностью новой модели является увеличенная ширина микро-ЦОД — 750 мм. Такая ширина сохраняет полезное пространство в 19", но позволяет дополнительно поставить сбоку вертикальные органайзеры для коммутации оборудования. Это позволяет применять микро-ЦОД для установки телеком-оборудования с большим количеством подводимых кабелей и кроссировок», — отмечает «Утилекс».

Постоянный URL: http://servernews.ru/1084748
12.07.2022 [00:28], Игорь Осколков

Суперкомпьютер в дорогу: РСК показала на Иннопроме обновлённый мобильный ЦОД

Группа компаний РСК, ведущий российский разработчик суперкомпьютеров и систем для высокопроизводительных вычислений (HPC), дата-центров, облачных платформ и систем хранения данных (СХД) показала на выставке Иннопром-2022 обновлённую версию своей платформы для автономных периферийных вычислений, которая позволяет оперативно, в течение часа силами двух человек, развернуть HPC-кластер практически в любом месте.

 «РСК Мобильный ЦОД»

«РСК Мобильный ЦОД»

Решение упаковано в несколько контейнеров (0,7 × 0,7 × 1,1 м), которые можно транспортировать независимо друг от друга и собирать уже на месте. Один контейнер вмещает собственно вычислительную часть, второй — полностью интегрированный модуль распределения теплоносителя с узлом управления, а третий, опциональный — ИБП с инвертором. Дополняет их компактный внешний модуль охлаждения. Вся система имеет весьма солидный запас по возможности отвода тепла — до 60 кВт.

Правда, сейчас столько и не требуется. Вычислительный блок фактически является уменьшенной копией платформы «РСК Торнадо»: 2 колонны по 10 слотов. Поэтому мобильная платформа позволяет совмещать в одной системе серверы «Торнадо» с процессорами x86-64 (AMD EPYC и Intel Xeon) и «Эльбрус» (сейчас 8С/8СВ, в перспективе 16С) с любым уровнем TDP, GPGPU-серверы (по два PCIe-ускорителя на сервер, без ограничений по TDP) и серверы хранения (до 12 × M.2 All-Flash).

В текущем варианте платформы каждый слот рассчитан на 2 кВт тепловой нагрузки (и столько же по питанию), хотя нынешние серверы укладываются в среднем в 700–800 Вт, а серверы следующего поколения потребуют чуть больше 1 кВт. Подсистема питания имеет два домена, по одному на колонну, и требует однофазный ввод AC 230 В/50 Гц, хотя фактически может работать в диапазоне 105–280 В. Запитать систему можно от генератора, а подстраховать — ИБП. Но возможно и специсполнение с поддержкой 48 В DC.

 Сервер «РСК Торнадо» с «Эльбрус-8СВ»

Сервер «РСК Торнадо» с «Эльбрус-8СВ»

Сетевая подсистема может быть представлена ToR-коммутаторами как двойной (на обе колонны) ширины, так и одиночной. В том числе есть варианты с жидкостным охлаждением. Доступен даже InfiniBand — у Mellanox есть коммутаторы в подходящем форм-факторе, рассчитанные на промышленное применение. Также предоставляется 1 GbE-коммутатор для развёртывания служебной сети.

Самая интересная часть — это охлаждение. Как и в «большой» версии платформы здесь используется фирменная СЖО, которая покрывает все компоненты серверов, так что вычислительная часть не требует активного воздушного охлаждения и способна работать даже с закрытыми крышками контейнера. Защиты по какому-либо классу IP в стандартном варианте не предусмотрено, но опять-таки по заказу возможно специсполнение.

СЖО всё так же поддерживает охлаждение горячей водой, причём на всех компонентах температура не превышает +45 °C. Для запуска вычислительного модуля необходимо, чтобы он находился в помещении с плюсовой температурой и чтобы не было образования конденсата. А вот внешний контур охлаждения менее прихотлив и способен работать при температурах от -65 °C. Верхний же предел — не менее +40 °C. Требования по питанию у него те же, что и у серверов.

 «РСК Мобильный ЦОД»

«РСК Мобильный ЦОД»

Узел управления автоматически отслеживает и регулирует параметры всех компонентов системы во время запуска и работы. По умолчанию используется сценарий защиты оборудования, так что при неблагоприятных условиях серверы могут выключаться. Но возможны и другие сценарии, например, «работа до последнего», когда потеря данных оказывается дороже потери оборудования.

Управляется мобильная платформа фирменной системой оркестрации «РСК БазИС», которая позволяет задействовать все возможности компонуемой, программно определяемой инфраструктуры, в том числе для реализации HCI-платформы. «РСК БазИС» предлагает GUI, CLI, открытые API и SDK для интеграции с другими приложениями. Таким образом, заказчик получает полностью интегрированное программно-аппаратное решение, готовое к быстрому развёртыванию и использованию.

Изначально платформа создавалась для нужд добывающего сектора, но этой сферой её возможности не ограничиваются. Она также подходит для научных экспедиций и промышленных предприятий (срочная обработка больших массивов данных), медиасферы и обслуживания массовых мероприятий (рендеринг, стриминг с множества камер) и т.д. В общем, везде, где на время требуется действительно мощная, но компактная и удобная в доставке, развёртывании и эксплуатации вычислительная платформа.

Постоянный URL: http://servernews.ru/1069873
26.03.2022 [00:48], Владимир Агапов

Микро-ЦОД вместо котельной — Qarnot предложила отапливать дома б/у серверами

«Зелёная» экономика, переход на которую стремится осуществить всё больше стран, требует радикального сокращения вредного воздействия техносферы на окружающую среду. Один из эффективных способов достижения этой задачи связан с включением в полезный оборот побочных продуктов экономической деятельности. В случае дата-центров таким продуктом является тепло.

Великобритания, Дания и другие страны направляют тепло от ЦОД в отопительные системы домов, а Норвегия обогревает им омаровые фермы и планирует обязать дата-центры отдавать «мусорное» тепло на общественные нужды. Французская компания Qarnot решила посмотреть на эту задачу под другим углом, разработав в 2017 г. концепцию электрообогревателя для жилых и офисных помещений на процессорах AMD и Intel.

 Изображение: Qarnot (via DataCenterDynamics)

Изображение: Qarnot (via DataCenterDynamics)

В 2018 г. Qarnot продолжила изыскания и выпустила криптообогреватель QC-1. А недавно она порадовала своих заказчиков следующим поколением отопительных устройств QB, которое создано в сотрудничестве с ITRenew. Новые модули используют OCP-серверы, которые ранее работали в дата-центрах гиперскейлеров. Оснащённые водяным охлаждением, они обогревают помещения пользователей и обеспечивают дополнительные мощности для периферийных облачных вычислений.

Система отводит 96% тепла, производимого кластером серверов, которое попадает в систему циркуляции воды. IT-часть состоит из процессоров AMD EPYC/Ryzen или Intel Xeon E5 в составе OCP-платформ Leopard, Tioga Pass или Capri с показателем PUE, который, по словам разработчиков, стремится к 1,0. При этом вся система практически бесшумная, поскольку вентиляторы отсутствуют.

В компании заявляют, что с февраля уже развёрнуто 12 000 ядер, и планируется довести их число до 100 000 в течении 2022 года. Среди предыдущих заказчиков систем отопления Qarnot числятся жилищные проекты во Франции и Финляндии, а также банк BNP и клиенты, занимающиеся цифровой обработкой изображений.

По словам технического директора Qarnot Клемента Пеллегрини (Clement Pellegrini), QB приносит двойную пользу экологии, используя не только «мусорное» тепло, но и оборудование, которое обычно утилизируется. У ITRenew уже есть очень похожий совместный проект с Blockheating по обогреву теплиц такими же б/у серверами гиперскейлеров.

Постоянный URL: http://servernews.ru/1062792
05.02.2022 [22:28], Владимир Мироненко

Глубоководное облако: Subsea Cloud предлагает размещать дата-центры на дне океана

Полку подводных дата-центров прибыло — стартап Subsea Cloud, в отличие от проектов Highlander и Microsoft Natick, предлагает размещать центры обработки данных (ЦОД) не на мелководье в прибрежных водах, а на морском или океанском дне на глубине до 3000 м. Делается это не только для снижения вредных выбросов, поскольку на охлаждение энергию тратить не придётся, но и для безопасности.

Именно физическая безопасность является одним из ключевых достоинств проекта Subsea Cloud, так как на такой глубине дата-центрам не страшны не то что дайверы, но и подводные лодки — абсолютный рекорд до сих принадлежит лодке К-278 «Комсомолец», погрузившейся в 1985 году на глубину чуть больше километра. А специализированных аппаратов, способных работать в таких условиях, единицы и незаметно провести с их помощью атаку вряд ли получится. Поэтому компания ориентирована на предоставление услуг для заказчиков в сфере здравоохранения и финансов, а также для вооружённых сил.

 Источник изображения: Subsea Cloud

Источник изображения: Subsea Cloud

Всех технических деталей Subsea Cloud пока не раскрывает. Например, не сообщается, как будут обслуживаться глубоководные ЦОД и будут ли вообще, хотя компания говорит, что уже испытала прототип новых ЦОД на надёжность и возможность работы на глубине 3 км, а часть оборудования внутри таких дата-центров будет иметь резервирование. Также упомянуто, что дата-центры будут вмещать до 800 серверов, а сами они сделаны из экологичных материалов, так что даже при разгерметизации они не навредят морской природе.

Основателем Subsea Cloud является Макси Рейнольдс (Maxie Reynolds), которая возглавляет техотдел компании Social Engineer LLC, работающей в сфере информационной безопасности. Ранее она занималась подводной робототехникой в Subsea 7 и даже успела побывать каскадёром. Как сообщает Data Centre Dynamics, в команду Subsea Cloud входят четыре специалиста по подводным технологиям, в том числе основатель Energy Subsea. Среди партнёров компании значатся Chevron, Laborde Marine и Oracle.

Постоянный URL: http://servernews.ru/1059581
15.01.2021 [13:51], Владимир Мироненко

В Китае представили подводный дата-центр Highlander на манер Microsoft Project Natick

В минувшее воскресенье в китайском порту Гаолань в особой экономической зоне Чжухай провинции Гуандун состоялась официальная церемония запуска первого в стране подводного дата-центра (UDC). UDC был разработан компанией Beijing Highlander Digital Technology Co, которая специализируется на разработке и производстве судовой электронной аппаратуры и систем, и крупнейшей судостроительной компанией Китая Guangzhou Shipyard International Co.

По словам вице-президента Highlander Сюй Тань (Xu Tan), строительство подводного дата-центра было завершено в конце прошлого года.

В настоящее время крупные центры обработки данных в основном строятся для использования на суше. Как правило они занимают большую территорию, а их высокие требования к охлаждению означают, что они потребляют много энергии и водных ресурсов. В свою очередь, UDC использует большое количество проточной морской воды для охлаждения электроники через теплообменник, что позволяет сократить расход энергии по сравнению с традиционными методами охлаждения.

К тому же размещение UDC у прибрежных городов позволяет сократить расстояние между потребителями и вычислительными мощностями. Эта концепция была впервые предложена компанией Microsoft в проекте Project Natick, которая в течение двух лет эксплуатировала ЦОД с 12 стойками в прибрежных водах Шотландии.

«UDC занимает очень мало места на берегу, не имеет градирен и не потребляет пресную воду. Он не только поддерживает экологическую деятельность, такую как выращивание и разведение водных организмов, но также поддерживает другую промышленную деятельность, такую как морская ветроэнергетика и эксплуатация нефтяных платформ», — отметила Сюй.

Highlander сообщила о планах построить в течение следующих пяти лет серию подводных центров обработки данных в прибрежных водах, включая порт Хайнань (Hainan Free Trade Port, FTP), регион Большого залива Гуандун-Гонконг-Макао (GBA), дельту реки Янцзы и экономическую зону Bohai Rim Economic Circle (BREC).

В настоящее время она участвует в выборе места установки кабельных коммуникаций и подготовке к вводу в эксплуатацию дата-центра для тестирования, которое продлится с июня 2021 года по май 2022 года. На этом этапе проект будет представлен правительственным организациям, научно-исследовательским и финансовым учреждениям и полностью коммерциализирован во второй половине 2023 года.

В рамках реализации проекта в порту Хайнань Highlander подписала контракт с компаниями China Mobile, Lenovo, China Communications Service Construction и Qi'anxin Technology Group.

Постоянный URL: http://servernews.ru/1030108
15.09.2020 [19:33], Алексей Степин

Microsoft Natick может стать будущим периферийных ЦОД, надёжность доказана

Любой современный ЦОД — это не только помещение, занимающее определённую площадь, но ещё и серьёзные системы питания и, особенно, охлаждения. Ряд компаний считает, что с точки зрения последнего фактора имеет смысл рассмотреть возможность размещения ЦОД под водой, на дне моря, где температура постоянна и достаточно низка. В их числе Microsoft со своей разработкой Project Natick.

Первый прототип Natick, доказавший работоспособность концепции, успешно проработал 105 дней в водах Калифорнийского залива, однако действительно серьёзная мощность была достигнута лишь во второй фазе, о которой и идёт речь в данной заметке. Второй прототип Natick являет собой 12,2-метровый цилиндрический контейнер стандарта ISO 40, внутри размещено 12 стоек с 864 серверами Microsoft (в составе присутствуют ПЛИС-ускорители) и СХД общим объёмом 27,6 Пбайт. Система охлаждения во втором варианте была разработана французской группой Naval Group на основе теплообменников, использующихся в современных подводных лодках.

На этот раз местом размещения подводного ЦОД был выбран район Оркнейских островов в 193 километрах (120 миль) от берега, глубина погружения составляла примерно 35 метров. Для питания и данных использовался общий кабель, содержащий как силовые линии, способные передать около четверти мегаватта, так и оптические волокна. Проект создавался с прицелом на пятилетний срок работы без обслуживания, с прицелом на 20 лет в будущем. Для обеспечения повышенной надёжности внутреннее пространство контейнера заполнено азотом, который практически инертен и способствует уменьшению износа оборудования.

14 сентября Microsoft сообщила об окончании второй фазы Project Natick, которая продлилась два года. Сам контейнер был извлечён из моря ещё летом, и специалисты и эксперты занялись изучением состояния аппаратного обеспечения, входившего в состав второго прототипа автономного ЦОД. Результат проекта признан очень успешным, возглавляющий Project Natick Бен Катлер (Ben Cutler) заявил, что «дело сделано, и второй вариант Natick можно с полным правом назвать подходящим строительным блоком».

Согласно статистике, около 50% населения планеты проживает недалеко от берега моря, поэтому размещение подводных ЦОД в прибрежных областях вполне оправдано, а Европейский центр морской энергетики (Europetn Marine Energy Centre) вообще говорит о возможности использования для питания таких ЦОД приливных турбин и волновых конвертеров, что сделает их практически автономными, не считая оптоволоконного подключения.

 Часть системы охлаждения Natick

Часть системы охлаждения Natick

Тонкости функционирования Natick ещё предстоит изучить, но предварительные результаты оказались несколько обескураживающими: ЦОД в герметичном контейнере, покоившийся на дне моря, и, естественно, лишённый обслуживания, оказался в восемь раз надёжнее, нежели его копия, расположенная на суше. Причины примерно ясны: стабильные температуры, отсутствие окисляющей атмосферной среды, а также каких-либо серьёзных вибраций. Компания считает, что эти данные могут помочь и в проектировании более надёжных наземных ЦОД.

Microsoft признала, что проект всё ещё далёк от завершения, но считает, что стандартный ЦОД Azure в подводном варианте уже может быть создан. Вице-президент отдела Azure по системам класса mission critical Вильям Чэппел (William Chappell) отметил, что его команда особенно заинтересована в пост-квантовых методах шифрования, критичных для такого рода периферийных центров обработки данных.

Также заявлено, что Natick успешно может служить в качестве периферийного ЦОД или ЦОД с повышенной безопасностью; последнее достаточно очевидно — получить доступ к оборудованию, находящемуся под водой, намного сложнее, нежели в обычном ЦОД. Надёжнее в этом плане может быть только сервер на орбите, но по понятным причинам такое решение намного дороже и сложнее, нежели Natick, оно менее мощное, а также не гарантирует постоянной низкой латентности, которая может быть критичной в edge-сценариях использования.

Постоянный URL: http://servernews.ru/1020692
25.11.2019 [16:29], Андрей Созинов

SC19: TMGcore OTTO — автономный роботизированный микро-ЦОД с иммерсионной СЖО

Компания TMGcore представила в рамках прошедшей конференции SC19 свою весьма необычную систему OTTO.

Новинка является модульной платформой для создания автономных ЦОД, которая характеризуется высокой плотностью размещения аппаратного обеспечения, использует двухфазную иммерсионную систему жидкостного охлаждения, а также обладает роботизированной системой замены серверов.

 Версия OTTO на 600 кВт

Версия OTTO на 600 кВт

Первое, что отмечает производитель в системе OTTO — это высокая плотность размещения аппаратного обеспечения. Система состоит из довольно компактных серверов, которые размещены в резервуаре с охлаждающей жидкость. Собственно, использование двухфазной иммерсионной системы жидкостного охлаждения и позволяет размещать «железо» с максимальной плотностью.

 Версия OTTO на 60 кВт

Версия OTTO на 60 кВт

Всего OTTO будет доступна в трёх вариантах, рассчитанных на 60, 120 и 600 кВт. Системы состоят из одного или нескольких резервуаров для размещения серверов. Один такой резервуар имеет 12 слотов высотой 1U, в десяти из которых располагаются сервера, а ещё в двух — блоки питания. Также каждый резервуар снабжён шиной питания с рабочей мощностью 60 кВт. Отметим, что площадь, занимаемая самой большой 600-кВт системой OTTO составляет всего 14,9 м2.

В состав системы OTTO могут входить как эталонные серверы HydroBlades от самой TMGcore, так и решения от других производителей, прошедшие сертификацию «OTTO Ready». В последнем случае серверы должны использовать корпуса и компоновку, которые позволяют использовать их в иммерсионной системе охлаждения. Например, таким сервером является Dell EMC PowerEdge C4140.

В рамках конференции SC19 был продемонстрирован и фирменный сервер OTTOblade G1611. При высоте всего 1U он включает два процессора Intel Xeon Scalable, до 16 графических процессоров NVIDIA V100, до 1,5 Тбайт оперативной памяти и два 10- или 100-гигабитных интерфейса Ethernet либо одиночный InfiniBand 100G. Такой сервер обладает производительность в 2000 Тфлопс при вычислениях на тензорных ядрах.

Мощность описанной абзацем выше машины составляет 6 кВт, то есть в системе OTTO может работать от 10 до 100 таких машин. И охладить столь компактную и мощную систему способна только двухфазная погружная система жидкостного охлаждения. Он состоит из резервуара, заполненного охлаждающей жидкостью от 3M и Solvay, и теплообменника для конденсации испарившейся жидкости.

Для замены неисправных серверов система OTTO оснащена роботизированной рукой, которая способна производить замены в полностью автоматическом режиме. В корпусе OTTO имеется специальный отсек с резервными серверами, а также отсек для неисправных систем. Такой подход позволяет производить замену серверов без остановки всей системы, и позволяет избежать контакта человека с СЖО во время работы.

Изначально TMGcore специализировалась на системах для майнинга с иммерсионным охлаждением, а после перенесла свои разработки на обычные системы. Поэтому, в частности, описанный выше OTTOblade G1611 с натяжкой можно отнести к HPC-решениям, так как у него довольно слабый интерконнект, не слишком хорошо подходящий для решения классических задач. Впрочем, если рассматривать OTTO как именно автономный или пограничный (edge) микро-ЦОД, то решение имеет право на жизнь.

Постоянный URL: http://servernews.ru/998356
Система Orphus