Материалы по тегу: цод

08.07.2020 [14:27], Владимир Мироненко

Synergy: в 2020 году гиперскейлеры открыли 26 новых дата-центров, несмотря на пандемию

Аналитическая компания Synergy Research сообщила, что в этом году, несмотря на пандемию Covid-19, по всему миру было открыто 26 новых центров обработки данных гиперскейлеров.

Согласно данным Synergy Research, общее число ЦОД в мире сейчас составляет 541, что на 41 больше, чем в октябре 2019 года.

«За последние восемь кварталов было открыто 100 новых центров обработки данных гиперскейлеров, причём 26 из них были созданы в первой половине этого года», — заявил Джон Динсдейл (John Dinsdale), главный аналитик Synergy Research Group.

Он добавил, что ещё 176 ЦОД находятся на разных этапах планирования или строительства, и это «является хорошей новостью для поставщиков оборудования для дата-центров и оптовых операторов ЦОД».

США по-прежнему лидируют на этом рынке, обладая 40 % от общего количества ЦОД в мире, но EMEA и Азиатско-Тихоокеанский регион имеют самые высокие темпы роста. Второе место у Китая с 9 %, у Японии — 6 %, за ними следуют Великобритания, Германия и Австралия. На эти шесть стран приходится 67 % от общего числа ЦОД в мире. В США, Южной Корее, Швейцарии, Италии, ЮАР и Бахрейне было зарегистрировано самое большое пополнение новыми ЦОД за последний год.

Быстрее всех строили за последний год Amazon и Google, на которые приходится половина новых ЦОД гиперскейлеров. За ними следуют по уровню активности Microsoft и Oracle. При этом большинство (70 %) ЦОД гиперскейлеров арендуются у операторов или принадлежат партнёрам.

«Компании с самым широким охватом ЦОД являются ведущими облачными провайдерами — Amazon, Microsoft, Google и IBM, — говорится в пресс-релизе Synergy. — Каждая из них имеет 60 или более ЦОД, по крайней мере, три в каждом из четырех регионов — Северной Америке, APAC, EMEA и Латинской Америке. Oracle также имеет достаточно широкое присутствие ЦОД. Остальные фирмы, как правило, размещают свои ЦОД прежде всего в США (Apple, Facebook, Twitter, eBay) или в Китае (Alibaba, Baidu, Tencent)».

Постоянный URL: http://servernews.ru/1015145
02.07.2020 [19:21], Владимир Мироненко

Бывшую базу для подводных лодок превратили в современный дата-центр

Компания Interxion, входящая в состав американского оператора дата-центров Digital Realty, объявила о запуске первой фазы MRS3, своего третьего центра обработки данных в Марселе. Новый ЦОД находится на бывшей базе для немецких подводных лодок времен Второй мировой войны, известной как Martha (Марта) и заброшенной на протяжении десятилетий.

Её стены из армированного железобетона толщиной до 5,5 метров и высотой 12 м не боятся взрыва 10-тонной бомбы. В уникальном в архитектурном отношении здании площадью 7100 м2 размещён ЦОД мощностью 16,5 МВт. За первой фазой ЦОД, размещённой на площади около 2300 м2, последуют ещё две очереди, запланированные к запуску в течение 2021 года. ЦОД последнего поколения MRS3 расположен рядом с ЦОД MRS2, что позволит извлечь преимущества от плотной сети по всему кампусу.

MRS3 и последующие центры обработки данных в этой местности будут охлаждаться водой с температурой 15 °C, которая поступает из бывших рудников Гардана в течение всего года. Отводимое тепло будет использоваться для отопления домов и офисов в новых районах Марселя.

Battlefieldsww2.com

Battlefieldsww2.com

Марсельский регион имеет прямой доступ к 14 подводным кабелям, соединяющим 4,5 млрд пользователей облачных и цифровых сервисов в Европе, Африке, на Ближнем Востоке и в Азии, а в ближайшие пять лет здесь планируется проложить еще 5–10 кабелей.

Это не первый случай использования объектов военного назначения для организации ЦОД. В прошлом году в Германии закрыли нелегальный дата-центр, размещённый в бывшем бункере НАТО. Такие операторы как Cavern Technologies, Iron Mountain, Pionen, DEAC, Lefdal используют каменоломни, шахты или бывшие бункеры для размещения защищённых ЦОД. Кроме того, операторы всё чаще присматриваются к заброшенной недвижимости в городах, в том числе подземной.

Постоянный URL: http://servernews.ru/1014793
02.07.2020 [14:58], Владимир Мироненко

Амстердам возобновляет строительство дата-центров

Мораторий на строительство дата-центров, объявленный Амстердамом год назад, подходит к концу, и город готовится к началу нового бума, ограничив вместе с тем, площадь для новых ЦОД и энергетические ресурсы.

Власти Амстердама выдвинули предложения по строительству ЦОД в конкретных кластерах и в рамках установленных показателей мощности и площади. Эти предложения были разработаны после обсуждения с Ассоциацией центров обработки данных Нидерландов (DDA). Их будут обсуждать в городском совете после летних отпусков. После этого, как ожидается, будет возобновлено строительство ЦОД.

Год назад власти Амстердама и Харлеммермера объявили, что новые ЦОД не будут утверждены до 2020 года, поскольку потребности сектора в электроэнергии и площадях «вышли из-под контроля». Сектор ЦОД в Амстердаме в течение предыдущих семи лет рос на 10–15 % в год, наряду с Франкфуртом, Лондоном и Парижем, представляющими вместе рынок FLAP, которому прочат рекордный год, несмотрая на пандемию.

Городские советы были обеспокоены тем, что у них не было механизма для контроля этого роста, о чём было заявлено в 2019 году: «ЦОД стали жизненно необходимыми объектами почти для всех жителей, предприятий и учреждений, но они также занимают много места и, в связи с высоким энергопотреблением, создают большую нагрузку на электросети».

В результате встреч DDA с муниципалитетами появился план, который обеспечит намеченный рост в данном секторе на следующие десять лет. Харлеммермер и Амстердам выделили по четыре специальных кампуса для центров обработки данных, а также установили ограничения по потребляемой мощности.

Харлеммермер спрогнозировал среднегодовой прирост установленной мощности в 70 МВА, и установил для сектора максимальный уровень потребления мощности в 750 МВА до 2030 года. Между тем Амстердам ожидает среднегодовой прирост установленной мощности в 67 МВА при общей доступности 670 МВА до 2030 года.

Чтобы получить одобрение, ЦОД должны иметь коэффициент эффективности использования энергии (PUE) не выше 1,2 и придерживаться природоохранных мер при строительстве.

Постоянный URL: http://servernews.ru/1014724
02.07.2020 [12:16], Владимир Мироненко

Delta представила новую серию модульных дата-центров SmartNode

Delta Electronics запустила новое модульное решение класса «всё-в-одном» SmartNode для инфраструктуры ЦОД, которое предлагает гибкие системы питания и охлаждения, обеспечивает быстрое развёртывание и масштабируемую ёмкость для универсального внедрения. Решение будет предлагаться в Европе, на Ближнем Востоке и в Африке (EMEA).

Модульные ЦОД SmartNode доступны в пяти вариантах мощности в диапазоне от 33 до 90 кВт. Дополнительные возможности SmartNode включают надёжную энергосистему с высокой нагрузкой на телекоммуникационную стойку (1420 кг на стойку) и управление охлаждением.

По мере того, как телекоммуникационные компании наращивают инфраструктуру 5G и Интернета вещей, операторам требуется всё более высокая скорость передачи данных, большая пропускная способность с меньшими задержками. Операторы связи, предприятия, проектировщики ЦОД, поставщики услуг размещения и облачные сервисы смогут использовать эту новую инфраструктуру ЦОД уровня Tier II (опционально Tier III) для быстрого масштабирования периферийных вычислительных мощностей и обеспечения инфраструктуры, необходимой для Интернета вещей, а также приложений с низкой задержкой.

Delta сообщила, что новая серия продуктов создана для того, чтобы обеспечить малые и средние предприятия сервисами «нового поколения» в таких областях, как виртуальная реальность, дополненная реальность и автономные транспортные средства. «В этом интенсивном ИТ-мире с интенсивным трафиком данных периферийный ЦОД выступает в качестве точки кеширования и агрегации данных между пользователями и более крупными объектами для снижения чрезмерной нагрузки», — отметила Delta в пресс-релизе.

Благодаря пяти стандартным конфигурациям (33, 35, 50, 70 и 90 кВт) для быстрого выбора на основе требований заказчика все подсистемы, такие как модульные ИБП, системы распределения питания, охлаждения, DCIM и другие, являются высокоинтегрированными и надёжными. Дополнительные функции SmartNode включают следующее:

  • Надёжная система питания: интегрированное в ИБП решение по распределению электроэнергии позволяет сэкономить ценное пространство ЦОД и снизить совокупную стоимость его владения.
  • ИТ-стойка с высокой нагрузкой: прочная модульная структура позволяет заказчикам заполнять целые стойки ИТ-оборудованием и использовать полную нагрузку (1420 кг на стойку).
  • Оптимальное управление охлаждением: стандартный диапазон рабочих температур окружающей среды составляет от –15 ℃ до + 48 ℃, и до + 39 ℃ без снижения номинальных значений.
  • Улучшенная внешняя защита: внешние блоки окружены сетчатым каркасом для защиты во время транспортировки и от вандализма на местах.
  • Высокая надёжность: прочная конструкция с пределом огнестойкости EI 60 позволяют использовать систему в широком диапазоне условий окружающей среды.
  • Усовершенствованное решение DCIM (Data Center Infrastructure Management): Delta InfraSuite Manager также доступен в качестве опции для новых сборных ЦОД, что позволяет операторам автоматизировать задачи управления ЦОД и оптимизировать их.
Постоянный URL: http://servernews.ru/1014722
26.06.2020 [13:33], Владимир Мироненко

Keppel и Mitsubishi займутся разработкой водородной электростанции для ЦОД

Keppel Data Centers Holding и Mitsubishi Heavy Industries Asia Pacific (MHI-AP) подписали меморандум о взаимопонимании (MoU) для совместного изучения возможности реализации концепции водородной электростанции для центров обработки данных в Сингапуре.

Цель совместного проекта состоит в том, чтобы изучить, как водородная электростанция класса «Tri-Generation» может поддерживать жизнедеятельность ЦОД экологически безопасным способом. ЦОД будет получать электричество, производимое станцией, и использовать для охлаждения систему воду, поставляемую абсорбционными водоохладителями.

При сжигании водорода энергия производится без выбросов парниковых газов, хотя при его производстве без задействования возобновляемых источников энергии определённое количество углекислого газа всё же выделяется.

В рамках подписанного соглашения Keppel Data Centres и MHI-AP также будут изучать возможность производства водородного топлива для электростанции «Tri-Generation» с использованием процесса паровой конверсии — получения чистого водорода из лёгких углеводородов путём парового риформинга метана (SMR). План состоит в том, чтобы включить возможности улавливания и хранения углерода для обеспечения экологически чистого процесса.

«Являясь ведущим конструктором, разработчиком и оператором центров обработки данных в Азиатско-Тихоокеанском регионе и Европе, Keppel Data Centres стремится создавать устойчивые решения для отрасли. Исследование водородной инфраструктуры является частью нашей стратегии, направленной на декарбонизацию», — заявил Вонг Вай Мин (Wong Wai Meng), генеральный директор Keppel Data Centres.

Одной из возможных областей применения этой концепции водородной электростанции «Tri-Generation» мог бы быть проект парка плавающих центров обработки данных, реализацией которого занимается Keppel Data Centres.

Постоянный URL: http://servernews.ru/1014314
24.06.2020 [20:01], Владимир Мироненко

Видео: 6 уровней безопасности дата-центров Google

Google поделилась в выложенном недавно видео некоторыми подробностями о системах защиты своих центров обработки данных, продемонстрировав 6 уровней обеспечения их безопасности. Примерно такие же меры защиты используют и другие облачные провайдеры и операторы ЦОД, если, конечно, речь не идёт о военных и некоторых государственных дата-центрах.

Уровень 1: информационные указатели и ограждение. Это один из важных элементов безопасности, хотя и наименее впечатляющий. Google построила ограждения вокруг своих центров обработки данных, разместив по периметру и внутри соответствующие информационные указатели.

Уровень 2: безопасный периметр. В безопасном периметре Google может определять ваше местоположение с помощью камер, включая тепловизионные камеры с перекрывающимися полями обзора вокруг объекта. Google также может отслеживать местонахождение человека внутри здания. Google использует ограждение с защитой от перелаза, контрольно-пропускные пункты, есть даже автомобильные барьеры, предназначенные для остановки полностью загруженного грузовика.

Уровень 3: контроль доступа к зданию. Для входа в здание требуется авторизация. Она включает в себя прохождение контрольного пункта безопасности. Для проверки личности и привилегий доступа Google использует персонал службы безопасности, метки RFID и биометрические методы (сканирование радужной оболочки глаза). Внутри здания также надо пройти контрольно-пропускные пункты, прежде чем можно будет получить доступ к более важным зонам.

Уровень 4: центр обеспечения безопасности. Из центра контролируются данные датчиков и камер, находящихся внутри и по периметру объекта.

Уровень 5: доступ внутри ЦОД. Доступ к этажам центра обработки данных ограничен для технических специалистов и инженеров, имеющих доступ к конкретному этажу. Все хранящиеся здесь данные зашифрованы, и клиенты могут использовать свои собственные ключи шифрования. В результате те, кто имеет доступ к физическим устройствам, не имеют прямого доступа к данным, которые находятся на накопителях.

Уровень 6: безопасное уничтожение накопителей. У объектов Google также есть средства для уничтожения жёстких дисков. В это помещение имеет доступ только авторизованный персонал. Во избежание выноса носителей из ЦОД в них размещены сенсоры безопасности и детекторы металла.

Постоянный URL: http://servernews.ru/1014097
24.06.2020 [13:04], Владимир Мироненко

Google инвестирует $2 млрд в польский дата-центр

Компания Google планирует вложить $2 млрд в строительство в Польше центра обработки данных для работы с облачными сервисами, сообщила среду газета Puls Biznesu.

Сообщение об инвестициях Google последовало за объявлением Microsoft в мае о планах инвестировать $1 млрд в польский центр обработки данных, поскольку крупнейшая экономика в восточном крыле Европейского Союза пытается позиционировать себя как региональный технологический центр.

REUTERS/Arnd Wiegmann

REUTERS/Arnd Wiegmann

«Регион Google Cloud в Варшаве является крупнейшей инвестицией в инфраструктуру такого типа в Польше», — цитирует газета Магдалену Дзевгуц (Magdalena Dziewguc), директора по развитию бизнеса Google Cloud в Польше и Центральной и Восточной Европе. «Мы готовимся к тому, что он начнёт действовать в начале 2021 года», — добавила она. В свою очередь, заместитель премьер-министра Польши Ядвига Эмилевич (Jadwiga Emilewicz) заявила, что, по её оценкам, Google может инвестировать в проект от $1,5 до $2 млрд.

О планах Google запустить новый облачный регион в Варшаве (Польша), стало известно осенью прошлого года. Предполагается, что он будет обслуживать Польшу и страны Центральной и Восточной Европы. Новый облачный регион будет иметь три зоны для защиты от перебоев в обслуживании и будет запущен с набором ключевых продуктов Google, таких, как Compute Engine, App Engine, Google Kubernetes Engine, Cloud Bigtable, Cloud Spanner и BigQuery.

Постоянный URL: http://servernews.ru/1014129
22.06.2020 [17:06], Алексей Степин

ISC 2020: платформа NVIDIA UFM Cyber-AI минимизирует простои в ЦОД

Сегодня началась конференция ISC High Performance 2020. К сожалению, в этом году мероприятие приходится проводить в онлайн-формате — победа над COVID-19 ещё не одержана. Но уже анонсирован ряд любопытных решений. Одно из них — новая платформа UFM Cyber-AI, разработанная NVIDIA при участии её нового подразделения Mellanox.

Эта платформа ставит своей целью минимизировать возможные простои в центрах обработки данных из-за проблем с аппаратной частью, сетями, либо информационной безопасностью.

Любой современный ЦОД, суперкомпьютер или кластер представляют собой совокупность большого количества стандартных «строительных блоков», обычно в классическом стоечном формате. Все эти «кубики», включающие в себя вычислительные узлы, системы хранения данных, сетевые коммутаторы, а также подсистемы питания и охлаждения, соединены между собой и работают как единое целое.

Эксплуатация такой системы стоит приличных денег и в интересах её владельца обеспечить максимальное время полезной работы при минимальном времени простоя из-за отказов тех или иных компонентов. По данным ITIC, стоимость часа простоя легко может обойтись более чем в $300 тысяч. Но при таком количестве компонентов не всегда помогает даже дублирование и горячая замена комплектующих. С этим-то и предлагает бороться NVIDIA с помощью современных технологий машинного интеллекта.

Поведение систем, входящих в комплекс ЦОД, подчиняется определённым закономерностям и при должном уровне накопления данных солидную часть потенциальных проблем можно предсказать, а значит, и предотвратить — например, путём опережающей замены того или иного блока. Именно такого рода предсказаниям и должна заниматься система UFM Cyber-AI, созданная на основе разработок Mellanox.

Сама технология не нова, принципы, заложенные в ней, применялись Mellanox в сетевых решениях на базе InfiniBand, очень популярного в мире суперкомпьютеров интерконнекта. Платформа UFM Cyber-AI является расширением UFM Enterprise. За сбор информации отвечает третий компонент, UFM Telemetry. Вместе они отслеживают все имеющие значение параметры, от температур и изменений конфигурации в системе до поведения сетевой части — уровня трафика, загруженности и т.п. Выявляются закономерности, отмечаются моменты проседания производительности и прочие отклонения.

Процесс работы и панели мониторинга и управления комплекса NVIDIA UFM

На основе профиля поведения ЦОД UFM Cyber-AI может предсказывать грядущие проблемы, а значит, их можно избежать и исправить ситуацию, не останавливая работу систем. От этого выигрывают все: владельцы избегают потерь при простое, снижается стоимость эксплуатации, пользователи не страдают от того, что их задачи внезапно перестают выполняться.

UFM — это программно-аппаратный комплекс, аналитика Cyber-AI выполняется на отдельных серверах. Платформа UFM поддерживает интеграцию с уже имеющимися в ЦОД средствами мониторинга и управления, включая Slurm и Platform LFM, также имеется интеграция с OpenStack, Azure Cloud и VMWare. Более подробные описания есть на сайте NVIDIA.

Постоянный URL: http://servernews.ru/1013952
18.06.2020 [15:25], Владимир Мироненко

Из-за пандемии Microsoft Azure пришлось увеличить ёмкость каналов на 110 Тбит/с

Microsoft поделилась информацией о работе, которую пришлось проделать в Azure в связи с введённым из-за пандемии режимом изоляции и переходом многих компаний на удалённый режим работы. В частности, корпорации пришлось ввести круглосуточный график развертывания новых стоек, чтобы удовлетворить спрос на облачные сервисы.

Согласно собственным данным Microsoft, пандемии стала «виновником» нового рекорда, когда за один день в группах было проведено 2,7 млрд минуты совещаний в формате видеоконференции. Впрочем, и этот рекорд вскоре был побит, когда в апреле за день состоялись видеоконференции общей продолжительностью 4,1 млрд минуты.

Чтобы обеспечить достаточную способность и справиться с ситуацией, в первые недели пандемии Microsoft создала удалённую группу, которой было поручено собирать и анализировать данные телеметрии, связанные с тем, как схемы использования команд изменялись с течением времени, когда пандемия охватила Китай и Италию.

«По мере того, как всё больше стран вводило карантин, десятки сотрудников Microsoft из Редмонда собирались каждый воскресный вечер для удалённого просмотра телеметрии, поиска узких мест и устранения неполадок, поскольку беспрецедентное количество удалённых работников в Европе начинало входить в систему утром в понедельник», — говорится в сообщении в блоге корпорации.

Что касается обычных пользователей, то принадлежащая Microsoft игровая платформа Xbox также продемонстрировала 50-процентное увеличение числа игроков, начавших играть в многопользовательские игры, и 30-процентное увеличение пиковых уровней одновременного использования. Обычно такие всплески происходят сезонно или после выхода новых игр.

Xbox тоже использует платформу публичного облака Microsoft Azure, и в ответ компания начала переносить игровые рабочие нагрузки из ЦОД Azure в Великобритании и Азии, где спрос на ёмкость был особенно высок, для предотвращения ухудшения игрового процесса.

Корпорация внедрила систему мер по выполнению замеров, в результате чего доступ к дополнительной ёмкости ЦОД стал приоритетным для использования критически важными группами пользователей и существующими клиентами. В начале апреля она также подтвердила, что работает над «ускорением» создания дополнительных мощностей ЦОД в странах и географических регионах, где спрос на службы Azure, Office и Teams был чрезвычайно высок.

Работа велась 24 часа в сутки, причём сотрудники должны были выполнять меры социального дистанцирования. Их снабдили защитными средствами, а в ЦОД был введён строгий режим дезинфицирования.

«Группы разработчиков продуктов Microsoft работали над поиском дальнейших способов высвободить ресурсы Azure для других клиентов, и компания удвоила ёмкость одного из своих подводных кабелей для передачи данных через Атлантику и провела переговоры с владельцами другого, чтобы открыть дополнительную ёмкость, — сообщается в блоге. — Сетевые инженеры установили новое оборудование и утроили ёмкость кабеля America Europe Connect всего за две недели».

По словам технического директора Microsoft Azure Марка Руссиновича (Mark Russinovich), команда Microsoft Azure Wide Area Network добавила за два месяца 110 Тбит/с ёмкости оптоволоконной сети, которая отвечает за передачу собственных данных Microsoft по всему миру.

«Microsoft также перенесла внутренние рабочие нагрузки Azure, чтобы избежать пиков спроса в разных частях мира и перенаправить трафик из регионов, где наблюдается высокий спрос», — говорится в сообщении в блоге.

Эта работа позволила гарантировать возможность масштабирования критически важных для клиентов Microsoft служб по мере необходимости, не влияя на их стабильность, в то же время позволяя командам облачного инжиниринга компании точно определять области внутри своей инфраструктуры, где можно повысить эффективность, чтобы вычислительные ресурсы могли высвобождаться ещё больше.

Постоянный URL: http://servernews.ru/1013653
15.06.2020 [10:10], Владимир Мироненко

Облако в облаках: в Тибете строится самый высокогорный облачный дата-центр

Китайские государственные СМИ сообщили о завершении первого этапа строительства ЦОД в Лхасе, административной столице Тибетского автономного района. Как утверждают китайские СМИ, это будет самый высокогорный в мире облачный дата-центр. 

Ожидается, что новый ЦОД в Тибете будет полностью построен в течение следующих пяти–шести лет. Его стоимость составит около 11,8 млрд юаней ($1,7 млрд). Теперь, когда начальный этап строительства завершён, объект начнет пробную эксплуатацию, чтобы выйти в дальнейшем на бесперебойную работу. Весь комплекс займёт площадь 645 тыс. кв. м2. Он будет включать несколько зданий общей площадью 400 тыс. кв. м2

Управлять ЦОД и осуществлять надзор за строительством будет частично принадлежащая государству технологическая компания Tibet Ningsuan Technology Group.  На строительство первой очереди было израсходовано около 2,8 млрд юаней ($400 млн), а следующие две очереди обойдутся в 3 млрд юаней ($450 млн) и 6 млрд юаней ($900 млн) соответственно. 

По словам чиновников, на этом объекте будет размещено 70 000 серверных шкафов, и, как ожидается, его выручка будет составлять 10 млрд юаней ($1,7 млрд) в год. В 2018 году китайский гигант электронной коммерции Alibaba подписал соглашение с Ningsuan, согласно которому он будет предоставлять облачные услуги на базе построенного ЦОД. 

Даннная площадка строится в рамках госпрограммы «Пояс и дорога» (Belt and Road), ранее  известного как «Новый шелковый путь» (New Silk Road), направленной на установление более тесных связей Китая, как по морю, так и наземных, с почти 70 странами по всей Юго-Восточной Азии и Европе.

В настоящее время самым высокогорным, правда, не облачным, считается небольшой дата-центр в Чили, построенный на высоте около 5 км над уровнем моря для поддержки комплекса радиотелескопов ALMA (Atacama Large Millimeter Array) в пустыне Атакама.

Постоянный URL: http://servernews.ru/1013391
Система Orphus