Материалы по тегу: hardware
|
19.03.2026 [14:25], Руслан Авдеев
Nscale купит 8-ГВт кампус AIPCorp Monarch — Microsoft достанется 1,35 ГВт ИИ-мощностейБританская Nscale подписала соглашение о покупке американской American Intelligence & Power Corporation (AIPCorp). В сделку входит кампус ЦОД в Западной Вирдджинии мощностью до 8 ГВт, сообщает Datacenter Dynamics. Здесь Nscale рассчитывает построить одну из крупнейших в мире ИИ-фабрик. Компания также подписала письмо о намерениях, в соответствии с которым Microsoft с конца 2027 года арендует на новом месте 1,35 ГВт ИИ-мощностей на базе NVIDIA Vera Rubin NVL72, в том числе облачных. AIPCorp основана в начале 2026 года компаниями Fidelis New Energy и 8090 Industries. Кампус Monach Compute Campus занимает более 910 га в Западной Вирджинии, к 2031 году мощность должна составить до 8 ГВт. На первом этапе планируется ввести в эксплуатацию 2 ГВт к 2028 году. Ранее газовые генераторные установки G3500 соответствующей мощности согласилась предоставить компания Caterpillar. Ввод установок в эксплуатацию запланирован на I половину 2028 года. Поначалу кампус Monarch будет питаться от собственной микросети, но со временем он сможет подключиться к магистральной энергосети для возврата в неё излишков энергии. Nscale также рассматривает возможность захвата углерода для компенсации выбросов, связанных с площадкой. Команда AIP и Fidelis New Energy Organization присоединятся к подразделению Nscale Energy & Power, что, как ожидается, поможет поддержать развитие кампуса Monarch.
Источник изображения: Fidelis New Energy По словам Nscale, целью AIPCorp всегда было создание вертикально интегрированной модели, объединяющей генерацию электроэнергии и вычислительные мощности. Комбинация двух факторов позволит Nscale дать быстрорастущему рынку ИИ интегрированную неооблачную платформу без «узких мест», оптимальную для масштабирования. В рамках сделки Nscale выбрала финансовым консультантом Morgan Stanley. У Nscale большие планы экспансии. В конце 2025 года сообщалось, что компания потратит $865 млн на размещение ИИ-оборудования в США, а на днях появилась информация, что Nscale привлекла ещё $2 млрд на свои проекты. Nscale имеет довольно тесные связи с Microsoft. Так, в декабре 2025 года руководитель подразделения ИИ-инфраструктуры Microsoft Нидхи Чаппелл (Nidhi Chappell) перешла в Nscale на аналогичную позицию.
19.03.2026 [13:36], Руслан Авдеев
GMI Cloud развернёт в Японии суверенную ИИ-инфраструктуру стоимостью $12 млрдАмериканская GMI Cloud запускает в Японии суверенный проект по созданию ИИ-инфраструктуры стоимостью $12 млрд. Совместно с Wistron в Кагосиме (Kagoshima) компания планирует запустить ИИ-фабрику для задач «физического ИИ» (робототехника, автономный транспорт, производство), сообщает Datacenter Dynamics. ЦОД в приморском городе на острове Кюсю (Kyushu) будет находиться на территории объекта Kai Shin Digital Infrastructure. Она, в свою очередь, представляет собой совместное предприятие CDIB Capital и Shin-Etsu Science Industry. Впервые Kai Shin Digital Infrastructure объявила о планах строительства ЦОД в Кагосиме в октябре 2025 года. Первоначальная мощность объекта составит 350 МВт с дальнейшим масштабированием до 1 ГВт. Строительство начнётся в конце 2026 года. Известно, что компания является партнёром NVIDIA, но пока подробности об ИИ-оборудовании для площадки почти отсутствуют. Есть данные, что проект будет обеспечивать доступ к ИИ-вычислениям, при этом он должен соответствовать требованиям к суверенитету, определённым для японских организаций. На сайте GMI сообщается, что платформа будет использовать ускорители Vera Rubin.
Источник изображения: GMI Cloud Партнёрство с Wistron тоже началось не вчера. Так, в декабре 2025 года сообщалось, что Wistron потратит $0,9 млрд на расширение производства сетевого и ИИ-оборудования и инвестиции в облако GMI. По данным последней, новый дата-центр будет «зелёным и устойчивым», хотя как именно это будет достигнуто, тоже не сообщается. Судя по одному из рендеров, на крыше зданий будут расположены солнечные панели. GMI рассчитывает использовать для своей суверенной инфраструктурной ИИ-платформы VAST AI от VAST Data, которая позиционируется как первая платформа, созданная с нуля для управления «жизненным циклом» ИИ. Она является единой основой для систем хранения данных, управления базами данных и вычислительной средой. Это избавляет пользователей от необходимости связывать десятки разрозненных инструментов для обучения, инференса, обеспечения работы ИИ-агентов и всех промежуточных этапов.
Источник изображения: GMI Cloud В конце 2025 года GMI представила планы строительства ЦОД на Тайване мощностью 16 МВт за $500 млн. Он должен вмещать около 7 тыс. ИИ-ускорителей NVIDIA GB300 в 96 стойках. Также GMI управляет дата-центрами в США, на Тайване, в Сингапуре, Таиланде и Японии. В данное время компания стремится построить дата-центр мощностью 50 МВт в США. GMI основана в 2023 году и имеет штаб-квартиру в Калифорнии. Первоначально компания работала как оператор ЦОД, обеспечивавший майнинг биткоинов, но с тех пор она изменила профиль деятельности, занявшись реализацией ИИ-проектов. В ноябре 2024 года GMI привлекла $82 млн в рамках раунда финансирования серии А. Согласно официальным данным, на сегодня у неё есть мощности в пяти дата-центрах.
19.03.2026 [12:01], Сергей Карасёв
NetApp выпустила СХД EF50 и EF80 типа All Flash для задач ИИКомпания NetApp анонсировала новые СХД семейства EF-Series, ориентированные на ресурсоёмкие нагрузки, в том числе на задачи ИИ, приложения HPC и транзакционные базы данных. Дебютировали модели EF50 и EF80 типа All Flash в форм-факторе 2U с возможностью установки 24 SSD (NVMe). Устройства оснащены двумя активными контроллерами. Говорится о поддержке Fibre Channel (FC), NVMe/RoCE, iSCSI1 и InfiniBand, а также параллельных файловых систем, таких как Lustre и BeeGFS. Возможно формирование массивов RAID 0/1/5/6/10. Развитые функции защиты данных и диагностические инструменты, по заявлениям NetApp, обеспечивают доступность более 99,9999 %. Старшая из двух новинок, EF80, располагает 64 Гбайт памяти на контроллер, 12 портами 200Gb NVMe/IB, NVMe/RoCE, 24 портами 64Gb NVMe/FC и 24 портами 64Gb SCSI FC. Заявленная максимальная скорость передачи данных при чтении составляет 110 Гбайт/с, при записи — 57 Гбайт/с. Показатель IOPS достигает 5 млн. Максимальное энергопотребление находится на уровне 1758 Вт, типовое — 1235 Вт.
Источник изображения: NetApp Версия EF50 получила 32 Гбайт памяти на контроллер. Реализованы 16 портов 64Gb NVMe/FC и 16 портов 64Gb SCSI FC. Скорость при чтении — до 41 Гбайт/с, при записи — до 30 Гбайт/с. Величина IOPS составляет до 1,7 млн. Максимальное энергопотребление равно 1451 Вт, типовое — 1041 Вт. Обе СХД обеспечивают внутреннюю вместимость до 1,5 Пбайт, а энергоэффективность находится на отметке 63,7 Гбайт/с на кВт. Применяется программная платформа SANtricity OS 12.0; при этом обеспечивается совместимость с клиентскими ОС Windows Server, Linux и macOS.
18.03.2026 [14:17], Сергей Карасёв
Kioxia анонсировала SSD серии GP на базе XL-Flash для ИИ-нагрузокКомпания Kioxia объявила о разработке высокопроизводительных накопителей Super High IOPS SSD семейства GP, ориентированных на ресурсоёмкие ИИ-нагрузки. Пробные поставки этих изделий планируется организовать к концу текущего года. Особенность Super High IOPS SSD заключается в том, что графический ускоритель в составе системы может получать прямой доступ к такому накопителю. В такой конфигурации флеш-память используется для расширения встроенной памяти HBM, объёма которой зачастую оказывается недостаточно для задач ИИ. Скоростные показатели устройств Kioxia GP пока не раскрываются. Отмечается, что новые накопители разработаны в рамках инициативы NVIDIA Storage-Next, которая предполагает создание чипов флеш-памяти NAND и сопутствующих контроллеров следующего поколения. Ранее говорилось, что подобные SSD будут оснащаться интерфейсом PCIe 6.0, а показатель IOPS на первом этапе составит около 25 млн с последующим повышением до 100 млн. В основу изделий Kioxia GP положены высокопроизводительные чипы флеш-памяти XL-Flash (SCM) с низкой задержкой. Новинки будут предлагаться в различных форм-факторах, включая SFF. Kioxia также отмечает, что для масштабных задач инференса подходят её SSD семейства CM9, оборудованные интерфейсом PCIe 5.0. Речь, в частности, идёт о накопителях вместимостью 25,6 Тбайт на основе флеш-чипов TLC. Такие устройства рассчитаны на три полных перезаписи в сутки (3 DWPD). Поставки этих изделий начнутся в III квартале нынешнего года.
18.03.2026 [12:14], Руслан Авдеев
Великобритания выделит £45 млн на ИИ-суперкомпьютер Sunrise для моделирования физики термоядерного синтезаВласти Великобритании намерены выделить £45 млн (порядка $60 млн) на новый ИИ-суперкомпьютер Sunrise, специально предназначенный для моделирования процессов, сопутствующих термоядерному синтезу. Систему планируют ввести в эксплуатацию летом 2026 года в кампусе Управления по атомной энергии Великобритании (UKAEA), сообщает The Register. Sunrise позиционируется как самый мощный ИИ-суперкомпьютер, специально предназначенный для исследований в сфере термоядерной энергетики. Система мощностью 1,4 МВт финансируется министерским Департаментом энергетической безопасности и нулевых выбросов (Department for Energy Security and Net Zero, DESNZ). Она должна заработать в июне и станет первым элементом «Зоны роста ИИ» (AI Growth Zone) в Калхэме (Оксфордшир). Задача Sunrise — объединение HPC- и ИИ-вычислений, оптимизированных для исследования физических процессов. Это позволит более точно моделировать различные события и создавать цифровых двойников сложных термоядерных систем до проведения дорогостоящих экспериментов в реальном мире. Сообщается, что ИИ-производительность составит до 6,76 Эфлопс. Машина получит узлы Dell PowerEdge с AMD EPYC и Instinct (всего 672 шт.), а также хранилище WEKA. По данным UKAEA, за классические вычислительные мощности отвечают 192 двухпроцессорных узла с 56-ядерными Intel Xeon Max (Sapphire Rapids с HBM). Intel является одной из компаний, поддерживающих проект, наряду с образовательными и государственными структурами — Кембриджским университетом и самим UKAEA.
Источник изображения: Kristina Gadeikyte Gancarz/unsplash.com Представители властей подчёркивают, что система поможет решать ключевые задачи, связанные с термоядерным синтезом, от моделирования турбулентности плазмы до разработки материалов для реакторов и совершенствования технологий для получения тритиевого топлива. Кроме того, предполагается создание цифровых двойников оборудования, что позволит снизить затраты и риски. Суперкомпьютер будет работать на ряд британских энергетических инициатив, включая программу LIBRTI (Lithium Breeding Tritium Innovation), призванную решить проблему производства трития, а также флагманский правительственный проект STEP, предполагающий создание прототипа электростанции на основе сферического токамака. Великобритания рассчитывает построить его в Ноттингемшире в 2040-х гг. Sunrise является частью более широкой инициативы британского правительства, предусматривающей расширение мощностей для ИИ и HPC. Ранее в 2026 году правительство страны подтвердило инвестиции £36 млн (порядка $48 млн) в суперкомпьютерный центр в Кембридже. Тем временем кампус в Калхэме, вероятно, станет центром ИИ-вычислений, связанных с исследованиями в сфере энергетики. Пока не известно, поможет ли искусственный интеллект значительно ускорить довольно медленное продвижение к созданию коммерческих термоядерных проектов. Великобритания делает ставку на то, что увеличение вычислительных мощностей поможет решить одну из ключевых задач физики, имеющих важнейшее прикладное значение. Ещё в 2025 году сообщалось, что на появление коммерческих термоядерных реакторов рассчитывает Microsoft, средства в технологию вкладывают и другие компании — например, в сентябре 2025 года Commonwealth Fusion Systems привлекла на развитие своей термоядерной программы ещё $863 млн, а NVIDIA и General Atomics создали виртуальный термоядерный реактор с помощью ИИ. Впрочем, коммерческих версий термоядерных реакторов пока не существует.
18.03.2026 [10:39], Руслан Авдеев
Глава NVIDIA объявил о запуске производства ускорителей H200 для КитаяПосле длительной паузы в торговле на огромном рынке китайских ИИ-проектов NVIDIA готовится к возвращению. Её глава Дженсен Хуанг (Jensen Huang) заявил о том, что компания будет поставлять ИИ-ускорители некоторым клиентам в КНР, сообщает CNBC. По словам Хуанга, компания уже получила заказы из Китая и находится «в процессе» возобновления производства, а цепочка поставок наращивает активность. Хуанг подчеркнул, что ситуация отличается от того, что было три или даже две недели назад. Ранее сообщалось, что поставки NVIDIA H200 одобрили как американские, так и китайские власти. Теперь эти данные подтвердил и Дженсен Хуанг. В своё время на Китай приходилось около 20 % выручки NVIDIA в сегменте продуктов для ЦОД, но компании фактически запретили работать с КНР после того, как в апреле 2025 года администрация США объявила о необходимости для компании получать лицензии на экспорт чипов в Китай и некоторые другие страны. NVIDIA заявила, что экспортные ограничения привели к убыткам в объёме $5,5 млрд. Действовавшие ранее ограничения заставили NVIDIA специально разработать для китайского рынка ослабленные ускорители H20, но даже их продажи были приостановлены. В декабре 2025 года политика изменилась и NVIDIA разрешили поставлять в Китай более производительные ускорители H200 — при условии, что США будут забирать 25 % от выручки.
Источник изображения: NVIDIA При этом в прошлом месяце никаких изменений на рынке не наблюдалось. После публикации финансового отчёта 25 февраля компания сообщила, что американские власти одобрили продажу в КНР «небольшого количества» H200, но никаких поступлений на тот момент ещё не было. Задержка с возвращением на рынок была связана с ужесточением требований к обеспечению безопасности в обеих странах — несмотря на то, что Хуанг активно занимался лоббированием в США, а в начале 2026 года посетил и Китай. Впрочем, даже без учёта продаж в КНР NVIDIA отчиталась о росте выручки в последнем квартале на 73 % год к году — это уже 11-й подряд период роста, превышающего 55 % ежеквартально. В текущем квартале NVIDIA рассчитывает на рост в 77 % и подчёркивает, что таких показателей она намерена добиться без учёта выручки от рынка дата-центров в Китае. Пока в США требования к получению экспортных лицензий остаются весьма обременительными: ограничиваются объёмы поставок, требуется обязательное тестирование продукции сторонними организациями, а доля от продаж, подлежащая передаче в государственный бюджет, остаётся значительной. При этом стоит отметить, что недавно Министерство торговли США отозвало законопроект, ограничивавший новый порядок экспорта ИИ-чипов в любую точку мира без разрешения американских властей.
18.03.2026 [08:44], Сергей Карасёв
NVIDIA выпустила однослотовый ускоритель RTX Pro 4500 Blackwell Server Edition с 32 Гбайт памяти GDDR7Компания NVIDIA анонсировала ускоритель RTX Pro 4500 Blackwell Server Edition, подходящий для решения таких задач, как ИИ-инференс, анализ данных, обработка видеоматериалов и пр. Новинка ориентирована на дата-центры, облачные платформы и периферийные инфраструктуры. Решение выполнено на архитектуре Blackwell. Конфигурация включает 10 496 ядер CUDA, 82 ядра RT четвёртого поколения, а также 32 Гбайт GDDR7 с 256-бит шиной и пропускной способностью 800 Гбайт/с. Задействованы тензорные ядра пятого поколения, которые обеспечивают до трёх раз более высокую производительность по сравнению с более ранними изделиями и предлагают поддержку режима FP4. Карта получила однослотовое исполнение FHFL и пассивное охлаждение. Заявленное энергопотребление составляет 165 Вт. Для подключения служит интерфейс PCIe 5.0 x16. ИИ-быстродействие на операциях FP4 (Tensor Core) достигает 1,6 Пфлопс, FP8 (Tensor Core) — 811 Тфлопс, FP16/BF16 (Tensor Core) — 406 Тфлопс, TF32 (Tensor Core) — 203 Тфлопс. Как отмечает NVIDIA, по сравнению с системами, работающими только на основе CPU, ускоритель RTX Pro 4500 Blackwell Server Edition обеспечивает до 100 раз более высокую производительность при анализе видеоматериалов с помощью алгоритмов ИИ. Благодаря этому компании могут извлекать данные из видеопотока в режиме реального времени, ускоряя работу приложений компьютерного зрения — как в ЦОД, так и на периферии. Предусмотрены три аппаратных движка NVIDIA NVENC девятого поколения. Они имеют поддержку кодирования 4:2:2 H.264 и HEVC, а также улучшают качество при работе с HEVC и AV1. Вместе с тем три движка NVIDIA NVDEC шестого поколения демонстрируют вдвое более высокую пропускную способность при декодировании материалов H.264, а также поддерживают 4:2:2 H.264 и HEVC.
17.03.2026 [22:28], Андрей Крупин
В России утверждён план развития высокопроизводительных вычислений и суперкомпьютерной инфраструктурыПравительство РФ утвердило план мероприятий, в рамках которого будут создаваться дополнительные условия для развития суперкомпьютерных технологий, искусственного интеллекта и вычислительных систем. Документ включает конкретные сроки мероприятий и их исполнителей, а также предполагает десятикратное увеличение совокупной мощности отечественных суперкомпьютеров к 2030 году. Согласно дорожной карте, в ближайшие несколько лет в России должна начаться реализация масштабной программы, включающей комплекс мероприятий, направленных на формирование единых требований к суперкомпьютерным центрам коллективного пользования, определение порядка предоставления доступа к ним научного сообщества и ключевых организаций промышленности, а также перспектив их дальнейшего развития и модернизации. В процессе работы по этому направлению планируется сформировать стратегию дальнейшего развития и правила функционирования национальной исследовательской компьютерной сети нового поколения, которая объединяет сотни ведущих вузов и научных организаций. Предполагается, что развитие коммуникационной инфраструктуры расширит возможности для проведения исследований, требующих обработки и передачи больших объёмов данных.
Суперкомпьютер «Политехник РСК Торнадо» производства группы компаний РСК, установленный в Санкт-Петербургском политехническом университете Петра Великого (источник изображения: «РСК Технологии» / rscgroup.ru) Часть мероприятий дорожной карты направлена на разработку концепции профильной федеральной научно-технической программы, в рамках которой будет предусмотрено создание, развитие и внедрение отечественных алгоритмов, методов и программного обеспечения для проведения суперкомпьютерных вычислений в различных отраслях экономики. Научно-техническая программа в том числе подразумевает формирование новых и развитие имеющихся образовательных и дополнительных профессиональных программ по использованию суперкомпьютерных технологий и высокопроизводительных вычислений. По мнению «К2 НейроТех» (входит в «К2Тех»), утверждение дорожной карты — важный сигнал для всего рынка. Ключевой вызов для промышленного ИИ сегодня — не отсутствие моделей, а дефицит доступных вычислительных мощностей и зрелой инфраструктуры для их эксплуатации. При этом важно разделять два типа нагрузки: обучение моделей, требующее пиковых мощностей, и инференс — постоянную эксплуатацию, которая по мере зрелости рынка будет занимать всё большую долю вычислительных затрат. Без учёта этой специфики даже десятикратный рост мощностей может не дать ожидаемого экономического эффекта: «Особенно важно, что в дорожной карте уделено внимание подготовке кадров и развитию национальной исследовательской сети — без этого даже самые мощные суперкомпьютеры останутся невостребованными».
17.03.2026 [19:23], Руслан Авдеев
Amazon и NVIDIA расширят сотрудничество: в течение года AWS развернёт более 1 млн ИИ-ускорителей NVIDIAAWS и NVIDIA анонсировали расширение технологического сотрудничества. Речь идёт о взаимодействии в сфере ускоренных вычислений, технологий интерконнекта, настройки ИИ-моделей и инференса. План включают развёртывание AWS в облачных регионах по всему миру более 1 млн новых ИИ-ускорителей NVIDIA, в т.ч. семейств Blackwell и Rubin, и сетевых технологий NVIDIA Spectrum. Ведётся подготовка к запуску новых инстансов EC2 на основе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS стала первым крупным облачным провайдером, анонсировавшим поддержку этих ускорителей. Эти инстансы предназначены для аналитики, «говорящих» ИИ-систем, генерации контента, рекомендательных систем, видеостриминга, видеорендеринга и др. Они будут построены на архитектуре AWS Nitro С ростом инфраструктуры ключевой проблемой становится взаимодействие между ускорителями NVIDIA и AWS Trainium. Компании объявили о поддержке NVIDIA Inference Xfer Library (NIXL) и AWS Elastic Fabric Adapter (EFA), что позволяет ускорить распределённый инференс ИИ-моделей на EC2. Подобная архитектура распределённого инференса позволяет эффективно совмещать вычисления и передачу данных, снижать задержки и максимизировать использование ИИ-ускорителей. NIXL с EFA интегрируются с популярными открытыми фреймворками, включая NVIDIA Dynamo, vLLM и SGLang.
Источник изображения: AWS Дополнительно AWS и NVIDIA объявили об использовании Apache Spark в конфигурации Amazon EMR на Amazon EKS с инстансами G7e на основе ускорителей NVIDIA RTX Pro 6000 Blackwell, что втрое ускорит аналитику данных. При этом сохраняется совместимость с имеющимися приложениями Spark. Наконец, компании объявили о расширении поддержки ИИ-моделей NVIDIA Nemotron в Amazon Bedrock с адаптацией моделей для юриспруденции, здравоохранения, финансов и других специализированных областей. Вся инфраструктура управляется Bedrock, что значительно упрощает задачи разработчиков. Вскоре ожидается появление гибридной MoE-модели NVIDIA Nemotron 3 Super для финансовых сервисов, кибербезопасности, ретейла, разработки ПО и др. В целом компании создали полный стек ИИ-инфраструктуры — от ИИ-ускорителей и сетей до управляемых сервисов. Это позволит клиентам быстрее внедрять ИИ-решения, не конструируя инфраструктуру из разрозненных компонентов. Как сообщает Datacenter Dynamics, в феврале 2026 года глава AWS Мэтт Гарман (Matt Garman) заявил, что компания всё ещё использовала устаревшие ускорители NVIDIA A100 в некоторых серверах, поскольку спрос был высок даже на них. Широкий доступ к NVIDIA Blackwell Ultra появился в декабре 2025 года, в скором будущем планируется организовать доступ и к ускорителям Rubin. В то же время компания намерена инвестировать в собственные ускорители Trainium. В феврале OpenAI объявила, что будет использовать 2 ГВт мощностей на основе Trainium и других ускорителей в облаке AWS, во многом благодаря $50 млрд инвестиций со стороны Amazon.
17.03.2026 [16:22], Андрей Крупин
В России прошли первые биржевые торги услугами ЦОДОператор сети дата-центров 3data сообщил о завершении первых биржевых торгов услугами по размещению оборудования (colocation) на Бирже ЦТС, которые состоялись 5 марта 2026 года. Победителем стало АО «Уиллстрим», ведущее деятельность в сфере профессионального аутсорсинга колл-центров. Результатом торгов стало заключение биржевого договора на размещение оборудования в центре обработки данных. Предметом торгов являлись стойко-места 3data, расположенные в московском дата-центре «М8» уровня надёжности Tier III. В аукционе приняли участие российские коммерческие организации, продемонстрировав высокий уровень интереса к данному механизму закупки. Итоговая стоимость единицы лота составила 201,3 тыс. руб. с НДС ежемесячно за стойко-место с подведённой мощностью 5 кВт, включая стойку и два блока розеток (PDU).
Источник изображения: 3data.ru «Первые биржевое размещение услуг colocation открывает принципиально новый этап формирования объективной рыночной стоимости таких услуг. Планируем активно расширять ассортимент предложений от операторов дата-центров и привлекать больше участников торгов», — прокомментировали инициативу компании 3data представители Биржи ЦТС. 3data основана в 2013 году и является одним из крупнейших операторов коммерческих дата-центров в России. В отличие от других игроков рынка компания придерживается концепция «ЦОД шаговой доступности», предполагающей размещение вычислительных площадок не в промзонах, а в деловых районах, рядом с офисами клиентов. В настоящий момент 3data располагает 24 собственными дата-центрами, расположенными в Москве, Московской области, Екатеринбурге, Ставрополе, Новосибирске, Владивостоке и Южно-Сахалинске. |
|

