Материалы по тегу: switch

11.08.2020 [00:55], Владимир Мироненко

Роботы Switch Sentry будут патрулировать периферийные дата-центры

Последние годы в мире заметно выросло число ЦОД, и, как полагают эксперты, эта тенденция сохранится в обозримом будущем. В связи с этим растёт потребность в необходимом количестве квалифицированных сотрудников для управления ими, в которых уже наблюдается нехватка. Одним из направлений решения этой проблемы является автоматизация процессов.

Робототехника становится частью набора инструментов, поскольку отрасль стремится ускорить автоматизацию. Необходимость социального дистанцирования во время пандемии COVID-19 тоже даёт множество стимулов для более широкого использования робототехники в сценариях управления центрами обработки данных.

Компания Switch, один из крупных операторов ЦОД, создала робота Switch Sentry, которого планирует использовать в своих будущих периферийных ЦОД, а также продавать корпоративным клиентам. Роботы Switch Sentry высотой почти шесть футов (1,8 м) предназначены для обеспечения безопасности критически важных объектов.

Как сообщает Switch, роботы Sentry полностью автономны, могут перемещаться самостоятельно или управляться человеком. Каждый робот может быть оснащён датчиками обнаружения движения, функцией ночного видения и лидарами, а также может использовать 3D-карты для навигации в окружающей среде. Встроенные функции безопасности включают в себя распознавание лиц, определение температуры при коронавирусе и других заболеваниях. Также сообщается о пуленепробиваемом корпусе для сценариев обстрела. Каждый агрегат оснащён двусторонней голосовой и видеосвязью и может разговаривать как мужским, так и женским голосом.

Switch впервые рассказала об устройстве в мае. На прошлой неделе в ходе отчёта Switch о финансовых результатах представители компании заявили, что Switch Sentry является автономным устройство, которое будет предлагаться предприятиям. Выход на коммерческий рынок запланирован в следующем году.

«Одна из проблем при развертывании на перифериифизическая безопасность, — рассказал президент Switch Томас Мортон (Thomas Morton). — Развёртывание круглосуточной охраны в режиме 24×7×365 на периферии нецелесообразно ни с экономической, ни с физической точки зрения. Чтобы решить эту проблему, Роб Рой (гендиректор Switch) разработал роботизированное ИИ-решение для обеспечения безопасности человека в контуре».

Он добавил, что помимо использования на объектах собственного ЦОД компании, Switch Sentry Robot будет предлагаться в качестве автономной платформы безопасности для широкого рынка. По словам Мортона, поначалу предполагалось, что робот станет дополнением к системам безопасности Switch Edge. Однако к Switch начали обращаться компании с просьбой снабдить этими роботами их объекты, поэтому было решено начать поставки Sentry Robot и сторонним предприятиям.

Switch — не единственный участник рынка периферийных вычислений, который пополнил портфолио роботизированными решениями. Поставщик периферийных колокейшн-решений DartPoints заключил отношение о сотрудничестве с компанией TMGcore, специализирующейся на разработке систем охлаждения. Она недавно выпустила решение для ЦОД, в котором используются роботы для замены серверов высокой плотности, погруженных в охлаждающую жидкость. Это одна из самых амбициозных попыток создать автономный ЦОД с внешним управлением.

Постоянный URL: http://servernews.ru/1017895
24.07.2020 [23:03], Игорь Осколков

Аккумуляторы Tesla MegaPack приспособят для питания крупнейшего в мире дата-центра

Оператор дата-центров Switch вместе с фондом Capital Dynamics вложат $1,3 млрд в создание экологичного комплекса выработки и хранения электроэнергии, достаточно мощного для питания дата-центров. Проект подразумевает использование солнечных панелей First Solar и аккумуляторных блоков Tesla MegaPack.

Ничего необычного в таком сочетании нет, но суммарная мощность всего проекта, который называется Gigawatt 1, впечатляет: солнечные электростанции на 555 МВт и 800 МВт∙ч аккумуляторной ёмкости. Комплексы из панелей и батарей будут находиться в нескольких местах на территории Невады, а один их них разместится рядом с бизнес-парком Reno, где находятся крупнейший, по заявлениям Switch, в мире дата-центр Citadel и Гигафабрика Tesla.

Кампус Citadel имеет 690 тыс. м2 для размещения оборудования суммарной мощностью до 650 МВт. Первая очередь ЦОД TAHOE RENO 1 чуть скромнее: 121 690 тыс. м2 и 130 МВт. Он получит солнечную электростанцию мощностью 127 МВт и набор Tesla MegaPack ёмкостью 240 МВт∙ч, которые, к слову, будут изолированы от публичной энергосистемы и питать только Switch, на что потребовалось отдельное разрешение. Компания обещает сохранить цену на уровне 5 центов за кВт∙ч.

Впрочем, дата-центры компании уже несколько лет на 100% снабжаются электроэнергий из возобновляемых источников. Зачастую таковыми являются ГЭС, но гиперскейлеры выбирают их вовсе не из-за экологичности, а просто потому, что стоимость энергии у них одна из самых низких. Солнечные электростанции хороши для засушливых районов, а аккумуляторы помогут сгладить неравномерность выработки энергии. Однако для охлаждения современных дата-центров всё равно требуется достаточно много воды.

Постоянный URL: http://servernews.ru/1016587
10.04.2018 [01:20], Алексей Степин

Тайны коммутатора NVIDIA NVSwitch

На прошедшей недавно конференции GTC (GPU Technology Conference) корпорация NVIDIA представила новый внутренний интерконнект NVSwitch, целью которой является эффективное объединение в сеть множества вычислительных процессоров Volta. Именно NVSwitch является сердцем демонстрационной системы DGX-2, аналоги которой планируется использовать в дальнейшем для постройки суперкомпьютера нового поколения Saturn V. С момента официального анонса новой технологии о ней стали известны новые детали, включая данные о внутренней архитектуре самого коммутатора NVSwitch. Как известно, вычислительные ускорители имеют три фундаментальных ограничения, влияющих на эффективность их работы в составе кластерной системы: производительность подсистемы ввода-вывода, пропускная способность памяти и объём этой самой памяти.

Кристалл NVSwitch

Кристалл NVSwitch

Последние два, впрочем, обходятся достаточно малой кровью: ускорители Volta могут нести на борту до 32 Гбайт памяти типа HBM2, которая, к тому же, может прокачивать до 900 Гбайт/с. Но по мере масштабирования системы проблема I/O встаёт всё острее, поскольку скорости, приведённые выше, сетям и сетевым средам пока недоступны, а значит, на задачах с большой степенью параллелизации главным фактором, ограничивающим производительность, может стать именно сеть. Это подтверждают и результаты тестирования суперкомпьютеров с помощью новой методики, о чём мы недавно рассказывали нашим читателям.

Его функциональные блоки

Его функциональные блоки

Решить эту проблему и призвана технология NVIDIA NVSwitch. Само сердце технологии, чип-коммутатор может работать в разных топологиях. Как уже было сказано, впервые он найдёт применение в системе DGX-2, поставки которой должны начаться в третьем квартале. NVIDIA пока не предполагает использование этого коммутатора для сетевого соединения нескольких «корпусов», то есть, в качестве, «внешнего интерконнекта», но это не значит, что разработчики суперкомпьютеров не решат попробовать новинку и в качестве такого решения.

Выглядит снимок кристалла NVSwitch довольно впечатляюще, что неудивительно, поскольку состоит этот кристалл из 2 миллиардов транзисторов. Предположительно, в его производстве задействован 12-нм техпроцесс класса FinFET, разработанный TSMC, но компания-разработчик хранит по этому поводу молчание, по крайней мере, пока. Архитектурно в составе NVSwitch можно выделить два блока по 8 портов NVLink плюс два дополнительных порта этой шины. Система соединений (кроссбар) работает в неблокирующем режиме, так что любой из портов NVLink в правом или левом модуле может напрямую работать с одним из двух портов в верхнем модуле. Это существенно отличает реальный чип от опубликованных в момент анонса данных о технологии NVSwitch.

Один из слайдов NVIDIA

Один из слайдов NVIDIA

На предыдущих слайдах изображено 16 чипов в 8 парах, соединённых друг с другом на скорости 300 Гбайт/с (150 Гбайт/с в каждую сторону) с тотальной пропускной способностью, достигающей 2,4 Тбайт/с. Но NVSwitch имеет 18 портов, поэтому при подключении 16 процессоров Volta остаётся место для дальнейшего расширения конфигурации. Если блок-схема DGX-2, продемонстрированная на презентации, верна, то в ней имеется 12 коммутаторов NVSwitch, но тогда не все порты остаются задействованными.

Это позволяет предположить, что 16-процессорая версия DGX-2 является пилотной, а дизайн NVSwitch создан с заделом на будущее и позволяет создавать, к примеру, 32-процессорные системы в одном корпусе-узле. Пока этому мешает текущая версия модуля backplane, которой оснащается DGX-2, но архитектурного запрета на создание системы с теми же 32 вычислительными GPU нет. Точных данных о топологии DGX-2 пока нет, на имеющемся слайде видны по шесть «толстых» шин на каждую «половину» кластера. С учётом свободных портов, скорость «общения половин» между собой может достигать 6 Гбайт/с (3 Гбайт/с в каждую сторону). 

Из этого слайда топология DGX-2 не ясна

Из этого слайда топология DGX-2 не ясна

Были различные предположения о топологии, включая схему «двойное кольцо», но в худшем сценарии такая схема соединяет два ГП через шесть «скачков» (hops), а это не лучший вариант с точки зрения латентности. NVIDIA употребляет термин «fully connected crossbar internally» по отношению к NVSwitch, но не говорит этого про систему в целом и про соединение между двумя половинами DGX-2. Если предположить, что для соединения используется пара «верхних» портов коммутатора, то ГП могут быть соединены попарно, но тогда для полноценного соединения всей системы в единое целое потребуются иные механизмы, например, дополнительные соединения PCI Express, что выглядит не слишком осмысленным, если сравнить скорости PCIe и декларируемые NVIDIA цифры, относящиеся к NVLink.

Как оказалось впоследствии и было подтверждено официально, 12 «лишних» портов NVLink в NVSwitch не задействованы в DGX-2. Топология внутренней сети в новой системе проще, и каждый из шести портов в Volta соединён с одним из NVSwitch «сверху». Аналогичным образом подключается восьмёрка ГП «снизу». Такая схема позволяет добиться латентности в два «хопа» между двумя любыми ГП на одной «половине» системы, а если требуется коммуникация между разными половинами, то количество «хопов» увеличивается до трёх.

А так она выглядит на самом деле

А так она выглядит на самом деле

Разумеется, это не единственный сценарий: в данном варианте использовано всего 6 чипов NVLink для каждой половины, но ничто не мешает увеличить их число до, скажем, двенадцати. Новая система весьма эффективна: для демонстрации NVIDIA использовала пару серверов DGX-1 с 8 ГП Volta V100 в каждом. Они были соединены между собой четырьмя каналами InfiniBand с совокупной пропускной способностью 400 Гбит/с. Сравнительные тесты показали более чем двукратное (от 2,4 до 2,7x) превосходство системы DGX-2, использующей новые технологии с NVSwitch во главе.

DGX-2 ставит новые рекорды

DGX-2 ставит новые рекорды

Выглядит новая технология очень многообещающе, но интересно будет взглянуть, как она поведёт себя при увеличении количества вычислительных узлов, ведь модули DGX-2 придётся как-то соединять между собой, и не поглотит ли это все преимущества в случае постройки достаточно крупного кластера? Есть вариант NUMA, но практический предел, достигнутый на сегодня, составляет 128 процессоров; более того, после 32 процессоров в такой схеме критическую роль начинают играть очереди запросов и задержки. Как только DGX-2 начнёт поставляться массово, мы, скорее всего, узнаем ответ.

Постоянный URL: http://servernews.ru/968189
25.10.2012 [08:34], Георгий Орлов

Switch сообщила о рекордных продажах площадей ЦОД SuperNAP-7 в Лас-Вегасе

Компания Switch, управляющая дата-центром SuperNAP-7 и рядом других ЦОД в Лас-Вегасе, продемонстрировала самые высокие месячные результаты, продав размещение серверов в 533 кабинетах и 7,6 МВт мощности в течение 30-дневного периода времени. Рекордные продажи, охватившие примерно 40 новых клиентов, довели использование пространства SuperNAP-7 до 84%. За последний год компания поставила 40 МВт для своих клиентов в кампусе Switch SuperNAP-7.

Ещё не заполнив SuperNAP-7, Switch строит на соседней площадке свой следующий огромный ЦОД, известный как SuperNAP-8. Планируется, что новый объект сможет начать прием арендаторов в мае 2013 года, и, по утверждению компании, в нем будут реализованы несколько новаторских разработок основателя и генерального директора Switch Роба Роя (Rob Roy), который владеет патентами на многие из использующихся в дата-центрах Switch технологий. Уже начата подготовка строительства SuperNAP-9 на юге Лас-Вегаса, а также анонсированы планы нового кампуса ЦОД в северном Лас-Вегасе, которые добавят ещё 27000 м2 пространства.

Компания разработала стандартизированный дизайн, известный как SwitchMOD (Modular Optimized Design), с помощью которого могут быть построены и развернуты модули от 2250 до 9000 м2 пространства. Некоторые строители определяют модульные ЦОД как корпуса заводского изготовления в контейнерном стиле, в то время как другие видят модульность в поэтапном развертывании пространства с использованием высоко стандартизированных компонентов. Switch использует элементы обоих подходов.

Компания считает, что в дискуссии о "крупных" дата-центрах следует использовать показатели, основанные на фактически возможном объёме предоставления услуг и ресурсов, а не свободное пространство фальшпола. По мнению Мисси Янга (Missy Young), исполнительного вице-президента по продажам Switch, ключевые критерии должны включать величину предоставляемой критической нагрузки, обеспеченной бесперебойным питанием и охлаждением. "Никакой другой ЦОД на Земле не может сравниться с SuperNAP-7, обеспечивающим 84 МВт мощности и производительность системы охлаждения 283000 м3 воздуха в минуту. Эти цифры должны закончить дискуссию о том, какой объект является крупнейшим модульным дата-центром в мире", - подчеркнул Янг.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596721
16.07.2012 [03:13], Георгий Орлов

EvoSwitch делает ставку на инновационные и экологичные ЦОД

Компания EvoSwitch всегда позиционировала себя, как поставщика сервисов ЦОД "следующего поколения". Отличилась она и при праздновании своего пятилетнего юбилея, которое было проведено в духе и под музыку сериала "Звездный путь" (Star Trek) с сотрудниками, экипированными в униформу Федерации (но с эмблемой EvoSwitch на груди), и пресс-релизом, напечатанным шрифтом цивилизации Клингонов.

По словам управляющего директора EvoSwitch Эрика Бунстры (Eric Boonstra), таким образом компания выражает свою приверженность к инновационным и экологичным технологиям. Как подчеркнул Эрик Бунстра, компания осознавала, что за таким подходом будущее, уже в момент своего старта пять лет назад, когда еще мало кто в отрасли задумывался об энергоэффективности своих дата-центров и о возобновляемых источниках электроэнергии.

EvoSwitch

EvoSwitch называет свой дата-центр, имеющий полезную площадь примерно в 9300 м2, "климатически нейтральным". Мощность энергоснабжения этого ЦОД, обслуживающего, в частности, ресурс Wikipedia, составляет 20 мегаватт, причем вся эта электроэнергия поступает из возобновляемых источников - солнечных батарей, ветроэнергетических установок и мусороперерабатывающих предприятий, генерирующих биогаз. EvoSwitch, кроме того, сотрудничает с организацией Climate Neutral Group, через которую приобретает квоты на выброс углекислого газа, что позволяет "нейтрализовать" дизель-генераторы аварийного электропитания и парковку с автомобилями сотрудников.

В настоящее время компания постепенно переходит к модели модульных ЦОД, причем модули для EvoSwitch производит DataXenter. Как уже сообщалось, модули DataXenter недавно были развернуты в пятом зале амстердамского дата-центра EvoSwitch, в котором сейчас подготавливаются площади для следующей партии модулей.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596252
13.06.2012 [08:12], Георгий Орлов

DataXenter размещает модули ЦОД в амстердамском дата-центре компании EvoSwitch

Недавно основанная и специализирующаяся на модульных ЦОД компания DataXenter разместила 14 модулей в дата-центре EvoSwitch в Амстердаме. Первые модули DataXenter были развернуты в недавно добавленном пятом зале (Hall Five) дата-центра, в котором остается достаточно пространства для размещения еще десяти модулей. Кроме того, EvoSwitch располагает дополнительным залом, в котором планирует развернуть 20 модулей DataXenter.

Модули DataXenter имеют 12 метров в длину, 6 метров в ширину и 3 метра в высоту. Модули с компонентами энергетической системы и системы охлаждения располагаются на крышах IT-модулей, в каждом из которых может быть размещено до 32-х стоек с серверным оборудованием. Мощность энергоснабжения одного такого комплекса составляет в типичной конфигурации 160 киловатт. Хотя DataXenter работает пока только с EvoSwitch, рано или поздно модули этой компании будут предлагаться и другим клиентам.

Как заметил управляющий директор EvoSwitch Эрик Бунстра (Eric Boonstra), при работе с модулями финансирование также становится модульным - компания может заказать ровно столько модулей, сколько ей нужно именно в данный момент. По его словам, EvoSwitch будет использовать этот подход при своем планируемом расширении за пределами амстердамского рынка. Сейчас компания исследует возможные площадки для своих будущих ЦОД в регионе Франкфурта, а также в США. При этом на территории амстердамского участка EvoSwitch планирует построить еще один дата-центр площадью в 40 тысяч м2. Общая мощность энергоснабжения амстердамского ЦОД EvoSwitch составляет сейчас 25 мегаватт с возможностью масштабирования до 60 мегаватт. Эрик Бунстра также отметил, что вся используемая дата-центром электроэнергии берется из возобновляемых источников, а наружный воздух используется для охлаждения IT-оборудования настолько, насколько это вообще позволяет климат региона.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596078
Система Orphus