Материалы по тегу: ix

20.01.2025 [07:53], Владимир Мироненко

SRAM, да и только: d-Matrix готовит ИИ-ускоритель Corsair

Стартап d-Matrix создал ИИ-ускоритель Corsair, оптимизированный для быстрого пакетного инференса больших языковых моделей (LLM). Архитектура ускорителя основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости порядка 150 Тбайт/с. Новинка, по словам компании, отличается производительностью и энергоэффективностью, пишет EE Times. Массовое производство Corsair начнётся во II квартале. Среди инвесторов d-Matrix — Microsoft, Nautilus Venture Partners, Entrada Ventures и SK hynix.

d-Matrix фокусируется на пакетном инференсе с низкой задержкой. В случае Llama3-8B сервер d-Matrix (16 четырёхчиплетных ускорителей в составе восьми карт) может производить 60 тыс. токенов/с с задержкой 1 мс/токен. Для Llama3-70B стойка d-Matrix (128 чипов) может производить 30 тыс. токенов в секунду с задержкой 2 мс/токен. Клиенты d-Matrix могут рассчитывать на достижение этих показателей для размеров пакетов порядка 48–64 (в зависимости от длины контекста), сообщила EE Times руководитель отдела продуктов d-Matrix Шри Ганесан (Sree Ganesan).

 Источник изображений: d-Matrix

Источник изображений: d-Matrix

Производительность оптимизирована для исполнения моделей в расчёте до 100 млрд параметров на одну стойку. По словам Ганесан, это реалистичный сценарий использования LLM. В таких сценариях решение d-Matrix обеспечивает 10-кратное преимущество в интерактивности (время до получения токена) по сравнению с решениями на базе традиционных ускорителей, таких как NVIDIA H100. Corsair ориентирован на модели размером менее 70 млрд параметров, подходящих для генерации кода, интерактивной генерации видео или агентского ИИ, которые требуют высокой интерактивности в сочетании с пропускной способностью, энергоэффективностью и низкой стоимостью.

Ранние версии архитектуры d-Matrix использовали MAC-блоки на базе SRAM-ячеек, дополненных большим количеством транзисторов для операций умножения. Сложение же выполнялось в аналоговом виде с использованием разрядных линий, измерения тока и аналого-цифрового преобразования. В 2020 году компания выпустила чиплетную платформу Nighthawk на основе этой архитектуры. «[Nighthawk] продемонстрировал, что мы можем значительно повысить точность по сравнению с традиционными аналоговыми решениями, но мы всё ещё отстаем на пару процентных пунктов от традиционных решений типа GPU», — сказал EE Times генеральный директор d-Matrix Сид Шет (Sid Sheth).

Однако потенциальным клиентам не понравилось, что при таком подходе возможно снижение точности, так что в Corsair компания вынужденно сделала выбор в пользу полностью цифрового сумматора. ASIC d-Matrix включает четыре чиплета, каждый из которых содержит по четыре вычислительных блока, объединённых посредством DMX Link по схеме каждый-с-каждым, и по одному планировщику и RISC-V ядру. Внутри каждого вычислительного блока есть 16 DIMC-ядер, состоящих из наборов SRAM-ячеек (64×64), а также два SIMD-ядра и движок преобразования данных. Суммарно доступен 1 Гбайт SRAM с пропускной способностью 150 Тбайт/с.

ASIC объединён со 128 Гбайт LPDDR5 (до 400 Гбайт/с) посредством органической подложки (без дорогостоящего кремниевого интерпозера). Хотя текущее поколение ASIC включает только четыре чиплета именно из-за ограничений подложки, в будущем их количество увеличится. Внешние интерфейсы ASIC представлены стандартным PCIe 5.0 x16 (128 Гбайт/с) и фирменным интерконнектом DMX Link (1 Тбайт/с) для объединения чиплетов.

FHFL-карта Corsair включает два ASIC d-Matrix (т.е. всего восемь чиплетов) и имеет TDP на уровне 600 Вт. Ускоритель работает с форматами данных OCP MX (Microscaling Formats) и обеспечивает до 2400 Тфлопс в MXINT8-вычислениях или 9600 Тфолпс в случае MXINT4. Две карты Corsair можно объединить посредством 512-Гбайт/с мостика DMX Bridge. Их, по словам компании, достаточно для задействования тензорного параллелизма. Дальнейшее масштабирование возможно посредством PCIe-коммутации. Именно поэтому d-Matrix работает с GigaIO и Liqid. В одно шасси можно поместить восемь карт Corsair, а в стойку, которая будет потреблять порядка 6–7 кВт — 64 карты.

d-Matrix уже разрабатывает ASIC следующего поколения Raptor, который должен выйти в 2026 году. Raptor будет ориентирован на «думающие» модели и получит ещё больше памяти за счёт размещения DRAM непосредственно поверх вычислительных чиплетов. SRAM-чиплеты Raptor также перейдут с 6-нм техпроцесса TSMC, который используется при изготовлении Corsair, к 4 нм без существенных изменений микроархитектуры. По словам компании, она потратила два года на работу с TSMC, чтобы создать 3D-упаковку для нового поколения ASIC.

Как отмечает EETimes, команда разработчиков ПО d-Matrix в два раза больше команды разработчиков оборудования (120 против 60). Стратегия компании в области ПО заключается в максимальном использовании open source экосистемы, включая PyTorch, OpenAI Triton, MLIR, OpenBMC и т.д. Вместе они образуют программный стек Aviator, который отвечает за конвертацию моделей в числовые форматы d-Matrix, применяет к ним фирменные методы разрежения, компилирует их, распределяет нагрузку по картам и серверам, а также управляет исполнением моделей, включая обслуживание большого количества запросов.

Постоянный URL: http://servernews.ru/1116718
26.12.2024 [16:50], Руслан Авдеев

Equinix предложил ИИ-фабрики на базе систем Dell с ускорителями NVIDIA

Оператор ЦОД Equinix совместно с Dell Technologies предложил частные ИИ-облака на базе Dell AI Factory. Использование комплекса Dell AI Factory with NVIDIA в ЦОД IBX позволяет комбинировать различные продукты, решения и сервисы на нейтральной площадке, где клиенты смогут безопасно и экономически эффективно объединить ресурсы публичных облаков, колокейшн-объектов, а также собственных облачных и локальных инфраструктур.

Dell AI Factory with NVIDIA включает серверы Dell PowerEdge XE9680 с ускорителями NVIDIA, Ethernet-решения NVIDIA Spectrum-X и BlueField-3, а также СХД Dell PowerScale F710. Кроме того, будут доступны и 4U-серверы PowerEdge XE9680L, поддерживающие до восьми новейших ускорителей NVIDIA Blackwell. Решение будет доступно в более чем 260 ЦОД Equinix IBX.

В Equinix объявили, что намерены обеспечить клиентов передовой ИИ-инфраструктурой, отвечающей самым высоким стандартам производительности, безопасности и надёжности, а сотрудничество с Dell и NVIDIA позволит использовать максимум ресурсов систем генеративного ИИ, сохраняя контроль над данными и поддерживая собственные корпоративные цели достижения экоустойчивости.

 Источнки изображения: Dell

Источнки изображения: Dell

Наличие площадок Equinix в более 70 мегаполисах мира, время бесперебойной работы 99,999 %, масштабируемость проектов и сотрудничество с тысячами сетей и провайдеров, а также обеспечение ЦОД на 96 % возобновляемой энергией (100 % на ключевых рынках) в сочетании с платформой Dell AI Factory with NVIDIA, которая уже доступна в ЦОД Equinix в большинстве регионов мира, позволит заказчикам повысить удобство, безопасность и экологичность работы с генеративным ИИ.

Постоянный URL: http://servernews.ru/1115960
25.12.2024 [00:55], Владимир Мироненко

Netflix подал в суд на Broadcom, заявив, что VMware нарушает его патенты в области виртуализации

Стриминговый гигант Netflix подал в понедельник иск к Broadcom в окружной суд США по Северному округу Калифорнии с обвинением принадлежащего ей дочернего предприятия VMware в нарушении пяти патентов, связанных с работой виртуальных машин («патент 424», «патент 707», «патент 891», «патент 893» и «патент 122»).

Как сообщает SiliconANGLE, три из этих патентов касаются использования CPU в виртуальных машинах, а два — запуска по крайней мере одной виртуальной машины с использованием балансировщика нагрузки. Согласно иску, нарушения патентов были допущены в VMware vSphere Foundation, VMware Cloud Foundation, VMware Cloud on AWS и облачных решениях, предлагаемых Microsoft, Google, Oracle, IBM и Alibaba.

В частности, в вышеуказанных продуктах, по словам Netflix, допущены нарушения «патента 424». Netflix заявил, что VMware умышленно нарушает авторские права с 2012 года, когда она узнала об этом патенте. «Патент 424 был процитирован экспертом Бюро по патентам и товарным знакам США при отклонении заявки VMware, которая в конечном итоге была оформлена как патент США № 8 650 564», — указал Netflix в иске.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Учитывая осведомлённость VMware об этом патенте, Netflix утверждает, что Broadcom и VMware занимались «умышленным нарушением», и попросила суд обязать Broadcom возместить убытки, размер которых в иске не указан.

Патентная война Netflix и Broadcom началась в 2018 году, когда Broadcom подала в суд на Netflix, обвинив его в нарушении своих патентов на технологию потокового видео. Дела были возбуждены в Калифорнии, Германии и Нидерландах. Судебное разбирательство по иску Netflix запланировано на июнь 2025 года.

Постоянный URL: http://servernews.ru/1115903
18.12.2024 [13:00], Сергей Карасёв

SK hynix анонсировала 61-Тбайт U.2 SSD серии PS1012 с интерфейсом PCIe 5.0 и QLC-памятью

Компания SK hynix анонсировала SSD семейства PS1012, выполненные в форм-факторе U.2 SFF. Эти накопители большой ёмкости рассчитаны на современные дата-центры, спроектированные для ИИ-нагрузок. Пробные поставки новинок начнутся до конца текущего месяца.

В основу изделий PS1012 положены микрочипы флеш-памяти QLC NAND. Для обмена данными служит интерфейс PCIe 5.0. Заявленная скорость последовательного чтения информации достигает 13 Гбайт/с, что, как утверждается, вдвое больше по сравнению с продуктами предыдущего поколения.

Вместимость новинки составляет 61,44 Тбайт. В разработке также находится вариант ёмкостью 122 Тбайт, который планируется представить в III квартале следующего года. Кроме того, SK hynix намерена вывести на рынок SSD, способные хранить 244 Тбайт информации. В основу этих устройств лягут 321-слойные чипы флеш-памяти 4D NAND.

 Источник изображения: SK hynix

Источник изображения: SK hynix

«По мере стремительного развития ИИ спрос на высокопроизводительные твердотельные накопители корпоративного класса быстро растёт, а технология QLC , обеспечивающая высокую ёмкость, становится отраслевым стандартом. SK hynix следует этой тенденции и представляет новый продукт на 61 Тбайт», — говорится в заявлении компании.

Отмечается, что накопители PS1012 соответствуют стандарту Open Compute Project (OCP) 2.0. Прочие технические характеристики пока не раскрываются. Образцы SSD планируется предоставить ведущим мировым производителям серверов для оценки.

Постоянный URL: http://servernews.ru/1115589
05.11.2024 [11:11], Сергей Карасёв

SK hynix представила первые в отрасли 16-ярусные чипы HBM3E ёмкостью 48 Гбайт

Компания SK hynix на мероприятии SK AI Summit в Сеуле (Южная Корея) сообщила о разработке первых в отрасли 16-ярусных чипов памяти HBM3E, ёмкость которых составляет 48 Гбайт. Клиенты получат образцы таких изделий в начале 2025 года.

Генеральный директор SK hynix Квак Но-Джунг (Kwak Noh-Jung) сообщил, что компания намерена трансформироваться в поставщика ИИ-памяти «полного стека». Ассортимент продукции будет охватывать изделия всех типов — от DRAM до NAND. При этом планируется налаживание тесного сотрудничества с заинтересованными сторонами.

 Источник изображения: techpowerup.com

Источник изображения: techpowerup.com

При производстве 16-Hi HBM3E компания будет применять передовую технологию Advanced MR-MUF, которая ранее использовалась при изготовлении 12-слойных продуктов. Память рассчитана на высокопроизводительные ИИ-ускорители. Утверждается, что 16-ярусные изделия по сравнению с 12-слойными аналогами обеспечивают прирост быстродействия на 18 % при обучении ИИ-моделей и на 32 % при инференсе.

SK hynix намерена предложить заказчикам кастомизируемые решения HBM с оптимизированной производительностью, которые будут соответствовать различным требованиям к ёмкости, пропускной способности и функциональности. Плюс к этому SK hynix планирует интегрировать логику непосредственно в кристаллы HBM4. Ранее говорилось, что компания рассчитывает начать поставки памяти HBM4 заказчикам во II половине 2025 года.

В числе других готовящихся продуктов SK hynix упоминает модули LPCAMM2 (Compression Attached Memory Module 2) для ПК и ЦОД, решения LPDDR5 и LPDDR6 с технологией производства 1c-класса, SSD с интерфейсом PCIe 6.0, накопители eSSD и UFS 5.0 большой вместимости на основе чипов флеш-памяти QLC NAND.

Постоянный URL: http://servernews.ru/1113504
01.11.2024 [19:11], Руслан Авдеев

Tesla надумала закупить у SK hynix серверные SSD на $725 млн

Производитель электромобилей и разработчик других умных машин Tesla обсуждает с южнокорейской SK Hynix возможный заказ SSD корпоративного класса на сумму ₩1 трлн (около $725 млн), передаёт The Korea Economic Daily.

Solidigm, дочерняя компания SK hynix, отмечает, что без ёмких и быстрых SSD работа с ИИ невозможна. Предполагается, что Tesla столь большая закупка SSD нужен как раз для развития ИИ-инфраструктуры. Компания вот-вот запустит ИИ-кластер из 50 тыс. NVIDIA H100. Также у неё есть собственный ИИ-суперкомпьютер Dojo, а в целом в этом году капитальные затраты за год, как ожидается, превысят $11 млрд. Значительная часть из них уйдёт как раз на ИИ ЦОД.

Как уточняет ресурс Blocks & Files, поставщиками All-Flash СХД для обеих систем являются несколько вендоров. В данном случае, судя по всему, идёт закупке QLC-накопителей D5-P5336 ёмкостью 61,44 Тбайт. За указанную сумму можно приобрести порядка 100–200 тыс. накопителей суммарной ёмкостью от 10 Эбайт — конкретные значения будут зависеть от размера скидки, а при такой крупной закупке она обязательно будет.

 Источник изображения: Tesla

Источник изображения: Tesla

На прошлой неделе SK hynix заявила, что в III квартале она практически удвоила прибыль. SK Hynix намерена наращивать инвестиции в чипы, связанные с ИИ-технологиями — SSD и HBM. Ожидается, что спрос на них и в следующем году будет весьма высок. В компании игнорируют опасения отраслевых экспертов, предрекающих «зиму» спроса на чипы памяти. Наоборот, компания рассчитывает на дефицит поставок памяти для ИИ-ускорителей из-за огромного спроса на соответствующую продукцию.

Постоянный URL: http://servernews.ru/1113388
30.10.2024 [16:03], Руслан Авдеев

Equinix открыла первый ЦОД в Южной Африке и намерена построить ещё два в Таиланде

Компания Equinix запустила свой первый в Южной Африке ЦОД IBX. По информации Datacenter Dynamics, впервые анонсированный ещё в декабре 2022 года дата-центр официально заработал на прошлой неделе. Расположенный в городском округе Джермистон ЦОД JN1 Johannesburg IBX Data Center имеет около 1,9 тыс м2 колокейшн-площадей, но со временем площадь должна вырасти до 9,5 тыс. м2.

На начальном этапе речь идёт о 700 серверных стойках, но в итоге их число должно вырасти до 3475. Ёмкость поэтапно вырастет с 4 МВт до 20 МВт. Особенностью ЦОД является поддержка СЖО. Ранее компания заявляла, что намерена инвестировать в проект $160 млн. Первыми резидентами ЦОД названы Liquid Intelligent Technologies, Intelys Technology Group, Seacom и WorkOnline Communications, а также Johannesburg Internet Exchange (JINX), принадлежащая INX-ZA. В числе прочих операторов, действующих в окрестностях Йоханнесбурга — Digital Parks Africa, OADC, Digital Realty (Teraco), Vantage, NTT и Africa Data Centers.

По словам представителя Equinix в Южной Африке, новый ЦОД IBX станет мощной платформой для бизнеса и инноваций и поспособствует процветанию не только ЮАР, но и соседних стран. Новый объект должен стать ключевым центром перекрёстной связи на континенте для ряда наиболее быстро развивающихся стран и бизнесов. Первые шаги на континенте Equinix сделала в декабре 2021 года, купив компанию MainOne, «дочка» которой (MDXi) управляет четырьмя объектами общей площадью 5,95 тыс. м2 в Нигерии, Гане и Кот-д'Ивуаре.

 Источник изображения:  Simon Hurry/unsplash.com

Источник изображения: Simon Hurry/unsplash.com

ЮАР интересы Equinix не ограничиваются — компания расширяет присутствие в Таиланде, намереваясь поэтапно инвестировать здесь около $500 млн в течение следующих десяти лет. На покупку земли в Бангкоке уйдёт $34 млн. Приобретённых участков площадью 18,7 тыс. м2 хватит на строительство двух ЦОД IBX на 3375 стоек. Сроки окончания строительства пока не называются.

В компании утверждают, что Таиланд находится на переднем крае цифрового развития Юго-Восточной Азии и становится ключевым игроком в региональной цифровой экономике. Проект в Бангкоке — ещё один этап стратегии развития связей между Таиландом и остальной частью Юго-Восточной Азии. Новые проекты, предположительно, будут реализованы для обеспечения запросов корпоративных клиентов, а также крупнейших облачных провайдеров — драйвером развития станет близость Таиланда к Камбодже, Лаосу, Мьянме и Вьетнаму, а также «проактивной политике» правительства Cloud First Policy.

Сегодня Equinix уже присутствует в ряде стран и территорий Азиатско-Тихоокеанского региона: Индии, Индонезии, Японии, Сингапуре, Австралии, Южной Корее, Малайзии, в материковом Китае, а также в Гонконге. В Таиланде ведут деятельность и другие операторы ЦОД: Edgnex, Etix Everywhere, NextDC, NTT, STT GDC, CtrlS, Evolution DC, Telehouse, Singtel, True IDC, Digital Edge, Bridge DC, Edge Centres, Supernap и др.

Постоянный URL: http://servernews.ru/1113246
06.10.2024 [22:58], Владимир Мироненко

Cosmos для ИИ: VAST Data сформировала сообщество ИИ-специалистов, к которому уже присоединились NVIDIA, xAI, Supermicro, Cisco и др.

Компания VAST Data, специализирующаяся на разработке инфраструктуры для ИИ, объявила о создании Cosmos — онлайн-сообщества, предназначенного для объединения ИИ-специалистов из разных отраслей. Учитывая стремительный темп изменений на рынке ИИ, оставаться в курсе последних достижений может быть непростой задачей, отметила VAST Data, добавив, что компании спешат внедрить ИИ, чтобы трансформировать свою деятельность. При этом ИИ-специалисты сталкиваются со сложными проблемами, требующими постоянного обучения и адаптации.

VAST Data сообщила, что сообщество Cosmos предоставит специалистам по ИИ возможность общаться, делиться передовым опытом и имеющимися знаниями. Благодаря обсуждениям в реальном времени, практическим занятиям и библиотеке ресурсов Cosmos поможет компаниями добиться успеха в их проектах по развитию ИИ, независимо от их сложности.

В качестве платформы для общения выбран Discord. Для обучения предлагаются практические лаборатории Cosmos Lab, где будет возможность ознакомиться с реальными примерами работы над ИИ под руководством экспертов, которые понимают аспекты развёртывания таких решений. Лаборатории призваны помочь специалистам углубить свои навыки в интерактивной среде. Центральным узлом сообщества станет форум Discourse. Это будет место для объёмного контента, включая подробные статьи, обмен знаниями, календари событий и презентации поставщиков. «Именно здесь Cosmos превращается в нечто большее, чем просто чат — это библиотека знаний, созданная сообществом для сообщества», — отметила VAST Data.

 Источник изображения: VAST Data

Источник изображения: VAST Data

VAST Data также уточнила, что Cosmos предназначено не только для тех, кто уже является экспертом: «Независимо от того, возглавляете ли вы команду ИИ, являетесь ли вы студентом, интересующимся тем, как ИИ повлияет на вашу будущую карьеру, или только начинаете развёртывать свою первую модель, Cosmos предлагает пространство, где вы можете учиться, сотрудничать и расти».

Соучредитель VAST Data Джефф Денворт (Jeff Denworth) сообщил ресурсу The Register, что одной из моделей функционирования нового сообщества является организация Open Compute Project, занимающаяся разработкой оборудования и лучших практик с помощью совместных усилий организаций-членов, выкладывающих свои решения в open source. Ещё один ориентир для Cosmos — Конференция RSA (RSA Conference), на которой обсуждаются технологии современной защиты информационных систем, проблемы безопасности, тенденции развития сетевых угроз и вредоносных программ и т.д.

Денворт также сообщил, что был разработан кодекс поведения участника и начался набор экспертов для руководства контентными треками. На должность менеджера сообщества назначен Джонас Росланд (Jonas Rosland), занимавший должности менеджера сообщества в VMware, CIQ и Dell EMC. К сообществу уже присоединились NVIDIA, xAI, Supermicro, Deloitte, WWT, Cisco, CoreWeave, Core42, NEA, Impetus, Run:AI и Dremio.

 Источник изображения: VAST Data

Источник изображения: VAST Data

Параллельно VAST Data объявила о новом сотрудничестве с NVIDIA, Cisco и Equinix, пишет ресурс Blocks and Files. На прошедшей неделе VAST Data представила решение VAST InsightEngine with NVIDIA для безопасного получения, обработки и извлечения всех корпоративных данных (файлов, объектов, таблиц и потоков) в режиме реального времени. В нём VAST Data интегрировала своё ИИ-хранилище и обработку данных с ускорителями NVIDIA и микросервисами NIM. Теперь ускорители могут напрямую работать с данными в массивах VAST, а микросервисы NIM работают непосредственно внутри программной среды VAST.

В свою очередь, Cisco в рамках сотрудничества с VAST Data планирует предлагать ПО VAST Data Platform на некоторых серверах UCS в качестве готовой интегрированной системы. Серверы Cisco UCS с ПО VAST Data и Cisco Nexus HyperFabric AI будут доступны в I половине 2025 года. А Equinix, которая уже предлагает оборудование Dell, NetApp, PureStorage и Seagate (Lyve Cloud) в 26 объектах IBX, планирует добавить платформу VAST для систем NVIDIA DGX, включая SuperPOD, а также платформу NVIDIA AI Enterprise. Сотрудничество с NVIDIA, Cisco и Equinix позволит VAST Data расширить возможности поставок своего продукта на рынки различных стран.

Постоянный URL: http://servernews.ru/1112064
02.10.2024 [13:11], Руслан Авдеев

Equinix с партнёрами намерена привлечь $15 млрд на новые ЦОД xScale в США

Оператор ЦОД Equinix создал новое совместное предприятие (СП) с сингапурским фондом национального благосостояния GIC и канадским пенсионным фондом Canada Pension Plan (CPP Investments). По информации Datacenter Dynamics, СП намерено привлечь $15 млрд для развития ЦОД xScale гиперскейл-уровня в США.

В Eqinix утверждают, что СП намерено приобрести землю для нескольких кампусов ёмкостью от 100 МВт, а в конечном счёте гиперскейлеры США получат более 1,5 ГВт дополнительной ёмкости. Как заявили в компании, лидеры IT-отрасли нуждаются в инфраструктуре для ИИ и прочих задач, поэтому им требуются оптимизированные для таких нагрузок дата-центры и узлы связи. Объекты xScale и IBX должны удовлетворить эти запросы, позволяя полностью реализовать потенциал ИИ-решений.

 Источник изображения: Equinix

Источник изображения: Equinix

В пресс-релизе Equinix сообщается, что в совместном предприятии CPP Investments и GIC будут контролировать доли по 37,5 %, на саму Equinix придётся 25 %. Партнёрские структуры вложили в проект собственные средства; также СП должно привлечь кредитные деньги на строительство ЦОД. Партнёры ожидают, что СП поможет удовлетворить растущий спрос на ИИ-инфраструктуру, драйвером развития которой стало совершенствование технологий, в том числе ИИ.

Впервые Equinix начала сотрудничать с GIC в октябре 2019 года для разработки объектов гиперскейл-уровня под брендом xScale. До нового анонса структуры вложили более $7,5 млрд в соответствующие ЦОД, открытые в Великобритании, Японии, Франции, Бразилии и Южной Корее. В апреле Equinix анонсировала создание СП на $600 млн с PGIM Investment для открытия ЦОД xScale в Кремниевой долине, он будет иметь ёмкость до 28 МВт.

Канадский CPP Investments неоднократно вкладывал средства в связанные с ЦОД проекты, а недавно совместно с Blackstone договорился о покупке оператора AirTrunk, действующего преимущественно в Азиатско-Тихоокеанском регионе — речь идёт о рекордной сделке в $16,1 млрд. В фонде утверждают, что уже давно получили большой опыт в сфере ЦОД.

Постоянный URL: http://servernews.ru/1111859
23.09.2024 [12:28], Руслан Авдеев

Скромный апдейт — Equinix запустила в Барселоне ЦОД IBX BA2

Оператор дата-центров Equinix запустил второй ЦОД в Барселоне. Как сообщает Datacenter Dynamics со ссылкой на публикации компании в зарубежных социальных сетях, на церемонии ввода в эксплуатацию IBX BA2 к представителям бизнеса присоединились эмиссары Colt Technologies Services и Spanish Data Center Association.

Планы строительства нового ЦОД BA2 для очередного объекта International Business Exchange (IBX) анонсировали ещё в феврале прошлого года. Новый объект обеспечивает ёмкость 3,4 МВт на площади 2,5 тыс. м2 и прилегает к уже действующему дата-центру BA1. Площадь BA1 для колокейшн-клиентов составляет 1,5 тыс. м2. По данным компании, оба объекта имеют доступ к сетям более чем 45 операторов и на 100 % питаются возобновляемой энергией.

 Источник изображения: Equinix

Источник изображения: Equinix

В Испании Equinix управляет ещё двумя IBX-объектами MD1 и MD2 в Мадриде, а также одним в Севилье, полученном в распоряжение в 2017 году, когда Equinix купила локального оператора ЦОД Itconic у Carlyle Group за €215 млн (на тот момент $259 млн). В Мадриде строятся и дополнительные объекты. В Барселоне имеют свои дата-центры и другие операторы: EdgeConneX, Nabiax, AQ Compute, AtlasEdge и EXA Infrastructure. В городе также действуют посадочные станции кабелей 2Africa и Medloop, ещё одна для кабеля Medusa должна заработать в 2025 году.

Equinix активно осваивает и рынки Азиатско-Тихоокеанского региона. В мае она открыла два своих первых ЦОД в Малайзии, а в конце июля появилась новость о покупке трёх ЦОД на Филиппинах, где ранее прямой бизнес-активности Equinix не наблюдалось. Впрочем, именно в Испании наблюдается высокая активность гиперскейлеров. Так, Oracle намерена инвестировать в ЦОД $1 млрд, Microsoft — более $9 млрд, а AWS — почти $17 млрд.

Постоянный URL: http://servernews.ru/1111355
Система Orphus