Материалы по тегу: switch

01.07.2022 [19:31], Руслан Авдеев

Инвесторы требуют приостановить $11-млрд поглощение оператора ЦОД Switch

Два акционера независимо друг от друга предъявили претензии к грядущей продаже оператора дата-центров Switch структурам DigitalBridge и IFM Investors за $11 млрд. Инвесторы подали иски в федеральный суд Нью-Йорка, обвиняя Switch в том, что та нарушила закон, не раскрыв должным образом информацию. Истцы требуют приостановить закрытие сделки или, если она уже закрыта, отменить её.

Судя по жалобам инвесторов, Switch предоставила собранию акционеров информацию, в которой не упоминались ни показатели, исходя из которых в Goldman Sachs оценивали сделку, ни финансовые перспективы Switch. По данным истцов, когда акционерам предлагается банковская оценка, свидетельствующая о честности сделки, необходимо предоставлять информацию и о методах оценки, и о ключевых вводных данных, которые привели к сделанным выводам, а также о конечной ценности активов, определённой в результате анализа.

 Источник изображения: Joshua Sortino/unsplash.com

Источник изображения: Joshua Sortino/unsplash.com

Кроме того, в обоих исках утверждается, что Switch не раскрыла, в каких отношениях компания находилась с Morgan Stanley, также участвовавшей в оценке сделки, и как много было заплачено за эту услугу. В Switch не раскрыли, работали ли они с данной структурой раньше и не имеет ли Morgan Stanley связей с участвующими в сделке инвесторами. По данным одного из истцов, ложные или вводящие в заблуждение заявления в ходе доклада акционером перед получением доверенности на заключение сделки могли повлиять на решение инвесторов при голосовании по вопросам продажи.

Постоянный URL: http://servernews.ru/1069294
20.05.2022 [15:25], Руслан Авдеев

Оператор ЦОД Global Switch готовится к продаже за $10 млрд

В ближайшие дни могут начаться формальные процедуры по продаже крупного оператора ЦОД Global Switch, управляющего 13 объектами в Европе, Азии и Австралии. Китайский производитель стали Jiangsu Shagang Group взял компанию под контроль ещё во второй половине прошлого десятилетия, а теперь намерен продать её за $10 млрд.

По последним данным Global Switch и её финансовые советники подготовили к рассылке маркетинговые материалы для возможных покупателей, этому предшествовали месяцы неформальных приготовлений и неофициальных переговоров. В числе возможных покупателей называются инвестиционные фирмы Blackstone, KKR, DigitalBridge и Brookfield, а также операторы ЦОД Digital Realty и Equinix, высказавшие интерес к сделке.

 Источник изображения: Global Switch

Источник изображения: Global Switch

Продажа основанной в 1998 году в Лондоне компании Global Switch затянулась из-за дискуссий между Shagang Group и топ-менеджментом оператора о деталях сделки, включая потенциальную стоимость активов. Впервые СМИ сообщили о возможности продажи в январе 2021 года после отменённой попытки выхода Global Switch на фондовый рынок в 2019 году. Потенциальные покупатели выразили интерес к возможному приобретению ещё в ноябре 2021 года.

Если сделка состоится, это будет уже вторым крупным приобретением года. В 2021 году состоялось как минимум три продажи операторов ЦОД по цене $10 млрд и более, а в текущем это будет только вторая сделка такого масштаба — в этом месяце DigitalBridge и IFM приобрели американского оператора Switch за $11 млрд. Известно, что Cyxtera, вышедшая на IPO в 2021 году, тоже начала искать выходы на покупателей.

Постоянный URL: http://servernews.ru/1066362
16.05.2022 [14:04], Владимир Мироненко

Один из крупнейших операторов ЦОД Switch выкуплен частными инвесторами за $11 млрд

Американский оператор центров обработки данных Switch Inc сообщил о заключении окончательного соглашения с частными инвесторами DigitalBridge Group и IFM Investors о продаже всех своих находящихся в обращении обыкновенных акций по цене $34,25/шт.. Сумма сделки составляет около $11 млрд. Сделка была единогласна одобрена советом директоров Switch, но также требуется одобрение акционеров Switch и регулирующих органов.

Основатель и генеральный директор Switch Роб Рой (Rob Roy) заявил, что партнёрство с инвесторами, имеющими опыт работы с цифровой инфраструктурой, закладывает прочную основу для роста и развития компании, а также возможности продолжать удовлетворять спрос клиентов на свою инфраструктуру ЦОД. В свою очередь, DigitalBridge заявила, что создаёт глобальную платформу для инвестиций в цифровую инфраструктуру. Покупка Switch позволит ей расширить портфолио предложений для удовлетворения постоянно растущего спроса на облачную инфраструктуру.

В прошлом году Switch открыла пятый кампус ЦОД Prime в Техасе (США) и заявила, что планирует до 2030 года построить более 1,02 млн м2 дополнительных площадей. Компания утверждает, что все её ЦОД в Северной Америке на 100% обеспечены электроэнергией из возобновляемых источников. Как ожидается, сделка по приобретению Switch частными инвесторами будет закрыта во второй половине 2022 года. Если всё пройдёт гладко, то она попадёт в череду крупных M&A-сделок, поддержав тенденции 2020 и 2021 годов, которые оказались рекордными во всех отношениях.

Постоянный URL: http://servernews.ru/1065975
22.03.2022 [18:40], Игорь Осколков

NVIDIA анонсировала 4-нм ускорители Hopper H100 и самый быстрый в мире ИИ-суперкомпьютер EOS на базе DGX H100

На GTC 2022 компания NVIDIA анонсировала ускорители H100 на базе новой архитектуры Hopper. Однако NVIDIA уже давно говорит о себе как создателе платформ, а не отдельных устройств, так что вместе с H100 были представлены серверные Arm-процессоры Grace, в том числе гибридные, а также сетевые решения и обновления наборов ПО.

 NVIDIA H100 (Изображения: NVIDIA)

NVIDIA H100 (Изображения: NVIDIA)

NVIDIA H100 использует мультичиповую 2.5D-компоновку CoWoS и содержит порядка 80 млрд транзисторов. Но нет, это не самый крупный чип компании на сегодняшний день. Кристаллы новинки изготавливаются по техпроцессу TSMC N4, а сопровождают их — впервые в мире, по словам NVIDIA — сборки памяти HBM3 суммарным объёмом 80 Гбайт. Объём памяти по сравнению с A100 не вырос, зато в полтора раза увеличилась её скорость — до рекордных 3 Тбайт/с.

 NVIDIA H100 (SXM)

NVIDIA H100 (SXM)

Подробности об архитектуре Hopper будут представлены чуть позже. Пока что NVIDIA поделилась некоторыми сведениями об особенностях новых чипов. Помимо прироста производительности от трёх (для FP64/FP16/TF32) до шести (FP8) раз в сравнении с A100 в Hopper появилась поддержка формата FP8 и движок Transformer Engine. Именно они важны для достижения высокой производительности, поскольку само по себе четвёртое поколение ядер Tensor Core стало втрое быстрее предыдущего (на всех форматах).

 NVIDIA H100 CNX (PCIe)

NVIDIA H100 CNX (PCIe)

TF32 останется форматом по умолчанию при работе с TensorFlow и PyTorch, но для ускорения тренировки ИИ-моделей NVIDIA предлагает использовать смешанные FP8/FP16-вычисления, с которыми Tensor-ядра справляются эффективно. Хитрость в том, что Transformer Engine на основе эвристик позволяет динамически переключаться между ними при работе, например, с каждым отдельным слоем сети, позволяя таким образом добиться повышения скорости обучения без ущерба для итогового качества модели.

На больших моделях, а именно для таких H100 и создавалась, сочетание Transformer Engine с другими особенностями ускорителей (память и интерконнект) позволяет получить девятикратный прирост в скорости обучения по сравнению с A100. Но Transformer Engine может быть полезен и для инференса — готовые FP8-модели не придётся самостоятельно конвертировать в INT8, движок это сделает на лету, что позволяет повысить пропускную способность от 16 до 30 раз (в зависимости от желаемого уровня задержки).

Другое любопытное нововведение — специальные DPX-инструкции для динамического программирования, которые позволят ускорить выполнение некоторых алгоритмов до 40 раз в задачах, связанных с поиском пути, геномикой, квантовыми системами и при работе с большими объёмами данных. Кроме того, H100 получили дальнейшее развитие виртуализации. В новых ускорителях всё так же поддерживается MIG на 7 инстансов, но уже второго поколения, которое привнесло больший уровень изоляции благодаря IO-виртуализации, выделенным видеоблокам и т.д.

Так что MIG становится ещё более предпочтительным вариантом для облачных развёртываний. Непосредственно к MIG примыкает и технология конфиденциальных вычислений, которая по словам компании впервые стала доступна не только на CPU. Программно-аппаратное решение позволяет создавать изолированные ВМ, к которым нет доступа у ОС, гипервизора и других ВМ. Поддерживается сквозное шифрование при передаче данных от CPU к ускорителю и обратно, а также между ускорителями.

Память внутри GPU также может быть изолирована, а сам ускоритель оснащается неким аппаратным брандмауэром, который отслеживает трафик на шинах и блокирует несанкционированный доступ даже при наличии у злоумышленника физического доступа к машине. Это опять-таки позволит без опаски использовать H100 в облаке или в рамках колокейшн-размещения для обработки чувствительных данных, в том числе для задач федеративного обучения.


NVIDIA HGX H100

Но главная инновация — это существенное развитие интерконнекта по всем фронтам. Суммарная пропускная способность внешних интерфейсов чипа H100 составляет 4,9 Тбайт/с. Да, у H100 появилась поддержка PCIe 5.0, тоже впервые в мире, как утверждает NVIDIA. Однако ускорители получили не только новую шину NVLink 4.0, которая стала в полтора раза быстрее (900 Гбайт/с), но и совершенно новый коммутатор NVSwitch, который позволяет напрямую объединить между собой до 256 ускорителей! Пропускная способность «умной» фабрики составляет до 70,4 Тбайт/с.

Сама NVIDIA предлагает как новые системы DGX H100 (8 × H100, 2 × BlueField-3, 8 × ConnectX-7), так и SuperPOD-сборку из 32-х DGX, как раз с использованием NVLink и NVSwitch. Партнёры предложат HGX-платформы на 4 или 8 ускорителей. Для дальнейшего масштабирования SuperPOD и связи с внешним миром используются 400G-коммутаторы Quantum-2 (InfiniBand NDR). Сейчас NVIDIA занимается созданием своего следующего суперкомпьютера EOS, который будет состоять из 576 DGX H100 и получит FP64-производительность на уровне 275 Пфлопс, а FP16 — 9 Эфлопс.

Компания надеется, что EOS станет самой быстрой ИИ-машиной в мире. Появится она чуть позже, как и сами ускорители, выход которых запланирован на III квартал 2022 года. NVIDIA представит сразу три версии. Две из них стандартные, в форм-факторах SXM4 (700 Вт) и PCIe-карты (350 Вт). А вот третья — это конвергентный ускоритель H100 CNX со встроенными DPU Connect-X7 класса 400G (подключение PCIe 5.0 к самому ускорителю) и интерфейсом PCIe 4.0 для хоста. Компанию ей составят 400G/800G-коммутаторы Spectrum-4.

Постоянный URL: http://servernews.ru/1062434
19.12.2020 [00:29], Игорь Осколков

Интегрированная фотоника NVIDIA объединит сотни ускорителей в единый кластер

В рамках NVIDIA GTC 2020 China компания поведала о своих достижениях и планах. Одной из тем ключевого доклада конференции стал рассказ о наработках исследовательского подразделения NVIDIA Research в области становящейся всё более и более актуальной интегрированной кремниевой фотоники, без которой вычислительные системы будущего вряд ли обойдутся.

Сейчас скорость передачи данных для электрических соединений, говорит NVIDIA, достигает 50 Гбит/с на пару, в перспективе её можно увеличить до 100-200 Гбит/с, но прыгнуть выше этой планки будет уже очень трудно. Практически единственный путь в этом случае — переход на оптические линии связи. Это предполагает — по крайней мере сейчас, на стадии концепта — смену компоновки. В нынешних системах DGX/HGX на базе A100 максимальная конфигурация платы включает восемь ускорителей, расположенных горизонтально и объединённых NVSwitch.

Суммарная пропускная способность канала NVLink между двумя ускорителями составляет 600 Гбайт/с, а NVSwitch — 4,8 Тбайт/с. Но этим всё и ограничивается — длина NVLink-подключений составляет порядка 0,3 м. За пределы шасси они не выходят, так что сейчас всё в итоге упирается в намного более медленную шину PCIe 4.0 и подключенные к ней адаптеры, которые дают суммарную скорость всего в 500 Гбайт/с.

Такое несоответствие в скорости обмена данными внутри и между шасси ограничивает возможность эффективного масштабирования. Переход, к примеру, на InfiniBand NDR не решит проблему, так как даст лишь удвоение скорости. Поэтому-то NVIDIA видит будущее в интегрированных в ускорители оптических трансиверах на базе кремниевой фотоники.

Они позволят не только увеличить длину подключений до 20-100 м, что позволит объединить ускорители в пределах нескольких стоек, а не только одного шасси, но и вдвое повысить энергоэффективность — с 8 пДж/бит для «меди» до 4 пДж/бит для «оптики». Как обычно, предполагается использование несколько длин волн (DWDM) в одном волокне, каждая из которых будет нести 25-50 Гбит/с, что даст суммарно от 400 Гбит/с до нескольких Тбайт/с.

Для работы с несколькими длинами будут использоваться кольцевые модуляторы. И всё это будет упаковано вместе с другим «кремнием». То есть это, в целом, та же схема, что мы видели ранее у Intel, да и у других вендоров тоже. Правда, NVIDIA пока не приводит ряд других технических характеристик, но уже говорит о возможности объединить до 18 ускорителей в одном шасси благодаря вертикальной ориентации карт и до 9 шасси в стойке, что даст пул из 171 карт. Для связи пулов ускорителей будут использоваться оптические коммутаторы NVSwitch, объединённые в сеть Клоза.

Постоянный URL: http://servernews.ru/1028237
11.08.2020 [00:55], Владимир Мироненко

Роботы Switch Sentry будут патрулировать периферийные дата-центры

Последние годы в мире заметно выросло число ЦОД, и, как полагают эксперты, эта тенденция сохранится в обозримом будущем. В связи с этим растёт потребность в необходимом количестве квалифицированных сотрудников для управления ими, в которых уже наблюдается нехватка. Одним из направлений решения этой проблемы является автоматизация процессов.

Робототехника становится частью набора инструментов, поскольку отрасль стремится ускорить автоматизацию. Необходимость социального дистанцирования во время пандемии COVID-19 тоже даёт множество стимулов для более широкого использования робототехники в сценариях управления центрами обработки данных.

Компания Switch, один из крупных операторов ЦОД, создала робота Switch Sentry, которого планирует использовать в своих будущих периферийных ЦОД, а также продавать корпоративным клиентам. Роботы Switch Sentry высотой почти шесть футов (1,8 м) предназначены для обеспечения безопасности критически важных объектов.

Как сообщает Switch, роботы Sentry полностью автономны, могут перемещаться самостоятельно или управляться человеком. Каждый робот может быть оснащён датчиками обнаружения движения, функцией ночного видения и лидарами, а также может использовать 3D-карты для навигации в окружающей среде. Встроенные функции безопасности включают в себя распознавание лиц, определение температуры при коронавирусе и других заболеваниях. Также сообщается о пуленепробиваемом корпусе для сценариев обстрела. Каждый агрегат оснащён двусторонней голосовой и видеосвязью и может разговаривать как мужским, так и женским голосом.

Switch впервые рассказала об устройстве в мае. На прошлой неделе в ходе отчёта Switch о финансовых результатах представители компании заявили, что Switch Sentry является автономным устройство, которое будет предлагаться предприятиям. Выход на коммерческий рынок запланирован в следующем году.

«Одна из проблем при развертывании на перифериифизическая безопасность, — рассказал президент Switch Томас Мортон (Thomas Morton). — Развёртывание круглосуточной охраны в режиме 24×7×365 на периферии нецелесообразно ни с экономической, ни с физической точки зрения. Чтобы решить эту проблему, Роб Рой (гендиректор Switch) разработал роботизированное ИИ-решение для обеспечения безопасности человека в контуре».

Он добавил, что помимо использования на объектах собственного ЦОД компании, Switch Sentry Robot будет предлагаться в качестве автономной платформы безопасности для широкого рынка. По словам Мортона, поначалу предполагалось, что робот станет дополнением к системам безопасности Switch Edge. Однако к Switch начали обращаться компании с просьбой снабдить этими роботами их объекты, поэтому было решено начать поставки Sentry Robot и сторонним предприятиям.

Switch — не единственный участник рынка периферийных вычислений, который пополнил портфолио роботизированными решениями. Поставщик периферийных колокейшн-решений DartPoints заключил отношение о сотрудничестве с компанией TMGcore, специализирующейся на разработке систем охлаждения. Она недавно выпустила решение для ЦОД, в котором используются роботы для замены серверов высокой плотности, погруженных в охлаждающую жидкость. Это одна из самых амбициозных попыток создать автономный ЦОД с внешним управлением.

Постоянный URL: http://servernews.ru/1017895
24.07.2020 [23:03], Игорь Осколков

Аккумуляторы Tesla MegaPack приспособят для питания крупнейшего в мире дата-центра

Оператор дата-центров Switch вместе с фондом Capital Dynamics вложат $1,3 млрд в создание экологичного комплекса выработки и хранения электроэнергии, достаточно мощного для питания дата-центров. Проект подразумевает использование солнечных панелей First Solar и аккумуляторных блоков Tesla MegaPack.

Ничего необычного в таком сочетании нет, но суммарная мощность всего проекта, который называется Gigawatt 1, впечатляет: солнечные электростанции на 555 МВт и 800 МВт∙ч аккумуляторной ёмкости. Комплексы из панелей и батарей будут находиться в нескольких местах на территории Невады, а один их них разместится рядом с бизнес-парком Reno, где находятся крупнейший, по заявлениям Switch, в мире дата-центр Citadel и Гигафабрика Tesla.

Кампус Citadel имеет 690 тыс. м2 для размещения оборудования суммарной мощностью до 650 МВт. Первая очередь ЦОД TAHOE RENO 1 чуть скромнее: 121 690 тыс. м2 и 130 МВт. Он получит солнечную электростанцию мощностью 127 МВт и набор Tesla MegaPack ёмкостью 240 МВт∙ч, которые, к слову, будут изолированы от публичной энергосистемы и питать только Switch, на что потребовалось отдельное разрешение. Компания обещает сохранить цену на уровне 5 центов за кВт∙ч.

Впрочем, дата-центры компании уже несколько лет на 100% снабжаются электроэнергий из возобновляемых источников. Зачастую таковыми являются ГЭС, но гиперскейлеры выбирают их вовсе не из-за экологичности, а просто потому, что стоимость энергии у них одна из самых низких. Солнечные электростанции хороши для засушливых районов, а аккумуляторы помогут сгладить неравномерность выработки энергии. Однако для охлаждения современных дата-центров всё равно требуется достаточно много воды.

Постоянный URL: http://servernews.ru/1016587
10.04.2018 [01:20], Алексей Степин

Тайны коммутатора NVIDIA NVSwitch

На прошедшей недавно конференции GTC (GPU Technology Conference) корпорация NVIDIA представила новый внутренний интерконнект NVSwitch, целью которой является эффективное объединение в сеть множества вычислительных процессоров Volta. Именно NVSwitch является сердцем демонстрационной системы DGX-2, аналоги которой планируется использовать в дальнейшем для постройки суперкомпьютера нового поколения Saturn V. С момента официального анонса новой технологии о ней стали известны новые детали, включая данные о внутренней архитектуре самого коммутатора NVSwitch. Как известно, вычислительные ускорители имеют три фундаментальных ограничения, влияющих на эффективность их работы в составе кластерной системы: производительность подсистемы ввода-вывода, пропускная способность памяти и объём этой самой памяти.

 Кристалл NVSwitch

Кристалл NVSwitch

Последние два, впрочем, обходятся достаточно малой кровью: ускорители Volta могут нести на борту до 32 Гбайт памяти типа HBM2, которая, к тому же, может прокачивать до 900 Гбайт/с. Но по мере масштабирования системы проблема I/O встаёт всё острее, поскольку скорости, приведённые выше, сетям и сетевым средам пока недоступны, а значит, на задачах с большой степенью параллелизации главным фактором, ограничивающим производительность, может стать именно сеть. Это подтверждают и результаты тестирования суперкомпьютеров с помощью новой методики, о чём мы недавно рассказывали нашим читателям.

 Его функциональные блоки

Его функциональные блоки

Решить эту проблему и призвана технология NVIDIA NVSwitch. Само сердце технологии, чип-коммутатор может работать в разных топологиях. Как уже было сказано, впервые он найдёт применение в системе DGX-2, поставки которой должны начаться в третьем квартале. NVIDIA пока не предполагает использование этого коммутатора для сетевого соединения нескольких «корпусов», то есть, в качестве, «внешнего интерконнекта», но это не значит, что разработчики суперкомпьютеров не решат попробовать новинку и в качестве такого решения.

Выглядит снимок кристалла NVSwitch довольно впечатляюще, что неудивительно, поскольку состоит этот кристалл из 2 миллиардов транзисторов. Предположительно, в его производстве задействован 12-нм техпроцесс класса FinFET, разработанный TSMC, но компания-разработчик хранит по этому поводу молчание, по крайней мере, пока. Архитектурно в составе NVSwitch можно выделить два блока по 8 портов NVLink плюс два дополнительных порта этой шины. Система соединений (кроссбар) работает в неблокирующем режиме, так что любой из портов NVLink в правом или левом модуле может напрямую работать с одним из двух портов в верхнем модуле. Это существенно отличает реальный чип от опубликованных в момент анонса данных о технологии NVSwitch.

 Один из слайдов NVIDIA

Один из слайдов NVIDIA

На предыдущих слайдах изображено 16 чипов в 8 парах, соединённых друг с другом на скорости 300 Гбайт/с (150 Гбайт/с в каждую сторону) с тотальной пропускной способностью, достигающей 2,4 Тбайт/с. Но NVSwitch имеет 18 портов, поэтому при подключении 16 процессоров Volta остаётся место для дальнейшего расширения конфигурации. Если блок-схема DGX-2, продемонстрированная на презентации, верна, то в ней имеется 12 коммутаторов NVSwitch, но тогда не все порты остаются задействованными.

Это позволяет предположить, что 16-процессорая версия DGX-2 является пилотной, а дизайн NVSwitch создан с заделом на будущее и позволяет создавать, к примеру, 32-процессорные системы в одном корпусе-узле. Пока этому мешает текущая версия модуля backplane, которой оснащается DGX-2, но архитектурного запрета на создание системы с теми же 32 вычислительными GPU нет. Точных данных о топологии DGX-2 пока нет, на имеющемся слайде видны по шесть «толстых» шин на каждую «половину» кластера. С учётом свободных портов, скорость «общения половин» между собой может достигать 6 Гбайт/с (3 Гбайт/с в каждую сторону).

 Из этого слайда топология DGX-2 не ясна

Из этого слайда топология DGX-2 не ясна

Были различные предположения о топологии, включая схему «двойное кольцо», но в худшем сценарии такая схема соединяет два ГП через шесть «скачков» (hops), а это не лучший вариант с точки зрения латентности. NVIDIA употребляет термин «fully connected crossbar internally» по отношению к NVSwitch, но не говорит этого про систему в целом и про соединение между двумя половинами DGX-2. Если предположить, что для соединения используется пара «верхних» портов коммутатора, то ГП могут быть соединены попарно, но тогда для полноценного соединения всей системы в единое целое потребуются иные механизмы, например, дополнительные соединения PCI Express, что выглядит не слишком осмысленным, если сравнить скорости PCIe и декларируемые NVIDIA цифры, относящиеся к NVLink.

Как оказалось впоследствии и было подтверждено официально, 12 «лишних» портов NVLink в NVSwitch не задействованы в DGX-2. Топология внутренней сети в новой системе проще, и каждый из шести портов в Volta соединён с одним из NVSwitch «сверху». Аналогичным образом подключается восьмёрка ГП «снизу». Такая схема позволяет добиться латентности в два «хопа» между двумя любыми ГП на одной «половине» системы, а если требуется коммуникация между разными половинами, то количество «хопов» увеличивается до трёх.

 А так она выглядит на самом деле

А так она выглядит на самом деле

Разумеется, это не единственный сценарий: в данном варианте использовано всего 6 чипов NVLink для каждой половины, но ничто не мешает увеличить их число до, скажем, двенадцати. Новая система весьма эффективна: для демонстрации NVIDIA использовала пару серверов DGX-1 с 8 ГП Volta V100 в каждом. Они были соединены между собой четырьмя каналами InfiniBand с совокупной пропускной способностью 400 Гбит/с. Сравнительные тесты показали более чем двукратное (от 2,4 до 2,7x) превосходство системы DGX-2, использующей новые технологии с NVSwitch во главе.

 DGX-2 ставит новые рекорды

DGX-2 ставит новые рекорды

Выглядит новая технология очень многообещающе, но интересно будет взглянуть, как она поведёт себя при увеличении количества вычислительных узлов, ведь модули DGX-2 придётся как-то соединять между собой, и не поглотит ли это все преимущества в случае постройки достаточно крупного кластера? Есть вариант NUMA, но практический предел, достигнутый на сегодня, составляет 128 процессоров; более того, после 32 процессоров в такой схеме критическую роль начинают играть очереди запросов и задержки. Как только DGX-2 начнёт поставляться массово, мы, скорее всего, узнаем ответ.

Постоянный URL: http://servernews.ru/968189
25.10.2012 [08:34], Георгий Орлов

Switch сообщила о рекордных продажах площадей ЦОД SuperNAP-7 в Лас-Вегасе

Компания Switch, управляющая дата-центром SuperNAP-7 и рядом других ЦОД в Лас-Вегасе, продемонстрировала самые высокие месячные результаты, продав размещение серверов в 533 кабинетах и 7,6 МВт мощности в течение 30-дневного периода времени. Рекордные продажи, охватившие примерно 40 новых клиентов, довели использование пространства SuperNAP-7 до 84%. За последний год компания поставила 40 МВт для своих клиентов в кампусе Switch SuperNAP-7.

Ещё не заполнив SuperNAP-7, Switch строит на соседней площадке свой следующий огромный ЦОД, известный как SuperNAP-8. Планируется, что новый объект сможет начать прием арендаторов в мае 2013 года, и, по утверждению компании, в нем будут реализованы несколько новаторских разработок основателя и генерального директора Switch Роба Роя (Rob Roy), который владеет патентами на многие из использующихся в дата-центрах Switch технологий. Уже начата подготовка строительства SuperNAP-9 на юге Лас-Вегаса, а также анонсированы планы нового кампуса ЦОД в северном Лас-Вегасе, которые добавят ещё 27000 м2 пространства.

Компания разработала стандартизированный дизайн, известный как SwitchMOD (Modular Optimized Design), с помощью которого могут быть построены и развернуты модули от 2250 до 9000 м2 пространства. Некоторые строители определяют модульные ЦОД как корпуса заводского изготовления в контейнерном стиле, в то время как другие видят модульность в поэтапном развертывании пространства с использованием высоко стандартизированных компонентов. Switch использует элементы обоих подходов.

Компания считает, что в дискуссии о "крупных" дата-центрах следует использовать показатели, основанные на фактически возможном объёме предоставления услуг и ресурсов, а не свободное пространство фальшпола. По мнению Мисси Янга (Missy Young), исполнительного вице-президента по продажам Switch, ключевые критерии должны включать величину предоставляемой критической нагрузки, обеспеченной бесперебойным питанием и охлаждением. "Никакой другой ЦОД на Земле не может сравниться с SuperNAP-7, обеспечивающим 84 МВт мощности и производительность системы охлаждения 283000 м3 воздуха в минуту. Эти цифры должны закончить дискуссию о том, какой объект является крупнейшим модульным дата-центром в мире", - подчеркнул Янг.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596721
16.07.2012 [03:13], Георгий Орлов

EvoSwitch делает ставку на инновационные и экологичные ЦОД

Компания EvoSwitch всегда позиционировала себя, как поставщика сервисов ЦОД "следующего поколения". Отличилась она и при праздновании своего пятилетнего юбилея, которое было проведено в духе и под музыку сериала "Звездный путь" (Star Trek) с сотрудниками, экипированными в униформу Федерации (но с эмблемой EvoSwitch на груди), и пресс-релизом, напечатанным шрифтом цивилизации Клингонов.

По словам управляющего директора EvoSwitch Эрика Бунстры (Eric Boonstra), таким образом компания выражает свою приверженность к инновационным и экологичным технологиям. Как подчеркнул Эрик Бунстра, компания осознавала, что за таким подходом будущее, уже в момент своего старта пять лет назад, когда еще мало кто в отрасли задумывался об энергоэффективности своих дата-центров и о возобновляемых источниках электроэнергии.

EvoSwitch

EvoSwitch называет свой дата-центр, имеющий полезную площадь примерно в 9300 м2, "климатически нейтральным". Мощность энергоснабжения этого ЦОД, обслуживающего, в частности, ресурс Wikipedia, составляет 20 мегаватт, причем вся эта электроэнергия поступает из возобновляемых источников - солнечных батарей, ветроэнергетических установок и мусороперерабатывающих предприятий, генерирующих биогаз. EvoSwitch, кроме того, сотрудничает с организацией Climate Neutral Group, через которую приобретает квоты на выброс углекислого газа, что позволяет "нейтрализовать" дизель-генераторы аварийного электропитания и парковку с автомобилями сотрудников.

В настоящее время компания постепенно переходит к модели модульных ЦОД, причем модули для EvoSwitch производит DataXenter. Как уже сообщалось, модули DataXenter недавно были развернуты в пятом зале амстердамского дата-центра EvoSwitch, в котором сейчас подготавливаются площади для следующей партии модулей.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/596252
Система Orphus