Лента новостей
|
20.03.2026 [14:52], Руслан Авдеев
1 ГВт в подарок: Google посадит на «диету» свои ИИ ЦОД во время пиковых нагрузок на энергосетиGoogle модернизировала управлением питанием своих ЦОД в США, добавив возможность гибко регулировать их энергопотребление, что позволяет снизить нагрузку на энергосети в пиковые часы, когда электричество особенно востребовано. Не слишком срочные вычислительные нагрузки будут переноситься на другое время или даже в другие ЦОД. Первые эксперименты в этом направлении компания начала ещё в 2023 году. Компания объявила, что в рамках программы контроля спроса интегрировала в свои долгосрочные энергоконтракты с рядом коммунальных компаний на территории США совокупные мощности на 1 ГВт. Возможности Google по оптимизации спроса в зависимости от нагрузок на электросети позволяют ограничивать или переносить выполнение части задач в сфере ИИ и/или машинного обучения в своих ЦОД, чтобы стабилизировать состояние сети. На практике управлять энергией можно не только во время пиковых нагрузок, но и тогда, когда сетям просто не хватает энергии. После того, как компания продемонстрировала свою технологию управления потреблением электричества совместно с энергокомпанией Omaha Public Power District в 2024 году, в 2025 году было объявлено о соглашениях с Indiana Michigan Power (I&M) и Tennessee Valley Authority (TVA). На этот раз подписаны соглашения с Entergy Arkansas, Minnesota Power и DTE Energy, предполагающие взаимодействие для оптимизации управления энергоснабжением.
Источник изображения: Google Системы умного управления энергетикой начали применять во всём мире. Так, в конце 2025 года ведущий оператор электросетей Великобритании National Grid провёл первое в стране испытание «гибкой» системы электроснабжения дата-центров при участии Nebius и с использованием ИИ-системы управления нагрузками и питанием Emerald AI. Последняя смогла обеспечить энергопотребление на заданном уровне, сократить спрос на энергию до −40 % и сохранить исполнение критических нагрузок в штатном режиме.
20.03.2026 [14:52], Руслан Авдеев
Blue Origin подала заявку на запуск более 51 тыс. спутников-ЦОДКомпания основателя Amazon Джеффа Безоса (Jeff Bezos) подала заявку в Федеральную комиссию по связи США (FCC) на вывод на орбиту до 51,6 тыс. спутников, представляющих собой компактные космические дата-центры, сообщает The Register. В поданном 19 марта заявлении утверждается, что «неутолимый» спрос на ИИ-нагрузки означает, что орбитальные ЦОД должны стать дополнением к земной инфраструктуре дата-центров. Правда, многие эксперты утверждают, что подходящих технологий для создания космических ЦОД пока не существуют, так что они, вероятно всего, будут ненадёжными и непрактичными. Blue Origin утверждает, что космические ЦОД позволят американским компаниям, так или иначе связанным с ИИ-проектами, добиться успеха в области машинного обучения, автономных систем, аналитики и др. Компания признаёт, что создать всю необходимую инфраструктуру на Земле будет непросто, но решить проблему способны помочь космические ЦОД. Спутники-ЦОД постоянно работают от солнечных элементов питания, не требуют земли и энергетической инфраструктуры, что значительно снизит издержки на вычислительные мощности в сравнении с наземными альтернативами. Blue Origin в рамках инициативы Project Sunrise намерена развернуть десятки тысяч спутников на солнечно-синхронных орбитах на высоте 500–1800 км. Наклоны орбит составят от 97° до 104°, на каждой орбитальной плоскости будет находиться 300–1000 спутников. Blue Origin заявила, что намерена использовать для связи спутников друг с другом оптическую связь, а для контакта с Землёй будет использоваться разработанная ей же технология космической связи TeraWave.
Источник изображения: NASA Стоит отметить, что Blue Origin пока не запустила ни одного спутника TeraWave и только дважды запускала свою ракету New Glenn, предназначенную для вывода на орбиту космических ЦОД. Согласно документам, первый из более 5 тыс. аппаратов TeraWave должен отправиться в космос до конца 2027 года. Значительная часть поданных материалов касается использования спектра в рамках Project Sunrise и обещаний не создавать проблем другим заинтересованным сторонам. Тем не менее в документах отмечено, что заявление в Международный союз электросвязи (International Telecommunications Union), также имеющий право голоса в подобных вопросах, пока не подано и проект ещё далёк от практической реализации. Стоит отметить, что не так давно заявку на размещение миллиона спутников-ЦОД на орбите подала компания SpaceX, причём заблокировать её одобрение потребовала родственная Blue Origin компания Amazon Leo, назвавшая идею «спекулятивной» и «нереалистичной» и потребовавшая «технических подробностей», хотя сам Безос ратует за космические ЦОД гигаваттного масштаба. Теперь причина такого агрессивного поведения в отношении конкурента более-менее ясна. У Google тоже есть проект создания космических ЦОД — Project Suncatcher.
20.03.2026 [14:20], Руслан Авдеев
Fujikura утроит выпуск оптоволокна в Японии на фоне спроса со стороны ИИ ЦОДЯпонская Fujikura объявила о расширении производство оптоволокна и соответствующих кабелей. Это поможет удовлетворить растущий спрос со стороны ИИ ЦОД, сообщает Datacenter Dynamics. В компании отметили, что в значительной степени спрос формируется США. На каждом из своих предприятий в Японии и Соединённых Штатах Fujikura намерена нарастить производственные мощности приблизительно в три раза в сравнении с текущим уровнем. Всего компания намерена инвестировать до ¥300 млрд ($1,9 млрд) в выпуск оптоволокна, при этом она собирается внимательно отслеживать рыночные тенденции. После того, как в 2025 году между правительствами Японии и США был подписан меморандум о взаимопонимании, на Fujikara легла обязанность поставлять оптоволоконные кабели для удовлетворения растущего спроса на ИИ-инфраструктуру в Соединённых Штатах. Основанная в 1885 году Fujikura имеет многочисленные офисы в Японии и Азии в целом, Европе, Северной Америке и Африке. Fujikura, базирующаяся в Токио, разрабатывает и выпускает продукцию для энергетических и телеком-систем, в том числе устройства для работы с оптоволокном.
Истточник изображения: Sorasak/unsplash.com На днях состоялось заседание совета директоров Fujikura, после которого компания объявила, что решено продолжить инвестиции в расширение производственных мощностей для выпуска оптоволокна и кабелей SWR/WTC (Spider Web Ribbon/Wrapping Tube Cable). Производство оптоволокна будет ускорено благодаря новым мощностям, строящимся на территории её предприятия в г. Сакура (префектура Тиба). Компания заявляет, что новые инвестиции призваны удовлетворить спрос на оптоволоконные кабели на рынке ИИ ЦОД и помогут расширить производство для совершенствования ИИ-инфраструктуры в США. Corning также наращивает продукции — компания построит крупнейшее в мире производство оптоволоконного кабеля для дата-центров в рамках сделки с Meta✴ на $6 млрд. В России же Минпромторг страны выступил с предложением отложить обязательное использование российского оптоволокна в кабелях ВОЛС на два года на фоне проблем с собственными производственными мощностями.
20.03.2026 [14:18], Руслан Авдеев
«Мусорное» тепло заводов охладит ЦОД благодаря цеолитовым блокамВ Нью-Йоркском университете (NYU) разработали необычную систему охлаждения на основе минералов. Благодаря им выделяемое на заводах тепло можно использовать для охлаждения дата-центров, сообщает Datacenter Dynamics. Эксперименты ведутся с цеолитами — эти минералы выступают своеобразными «тепловыми аккумуляторами». Они имеют множество микропор и в сухом виде активно поглощают водяной пар. При нагревании до достаточно высокой температуры цеолит отдаёт накопленную воду. Сушить цеолит можно на промышленных предприятиях с помощью выделяемого «мусорного» тепла с температурой ниже 200°C. Это позволяет «заряжать» цеолитовый теплоаккумулятор, освобождая его от воды и приводя в состояние готовности к поглощению новой влаги в дата-центре. Исследователи утверждают, что такая технология может заменить компрессионные чиллеры, применяемые в классических системах охлаждения ЦОД. Цеолиты уже давно применяются для водоочистки, нефтепереработки и т.п. и стоят не очень дорого. Более того, они не теряют свойства и всегда готовы к поглощению воды. Учёные сравнили решение на основе цеолитовых теплоаккумуляторов с традиционными вариантами с компрессорными чиллерами и предприятиями, отводящими тепло с помощью градирен. Выяснилось, что использование тепла промышленных предприятий для «перезарядки» цеолита позволяет снизить совокупное потребление электричества у ЦОД и завода более чем на 75 %, а дата-центр отдельно может сократить расход электричества на охлаждение до 86 %. В результате показатель PUE улучшится приблизительно на 12 %. Утверждается, что комбинированная система охлаждения потребляет на 15-25 % больше воды, но учёные уверены, что в целом водные ресурсы даже экономятся, поскольку отработанное тепло тратится на «зарядку» теплоаккумуляторов, а не рассеивается в атмосфере. Даже с учётом энергии, расходуемой на перевоз тонн цеолитовых блоков, система всё равно позволяет экономить энергию во многих сценариях, в некоторых случаях — более чем на 40 % при использовании электрических грузовиков. Использование для перевозок железной дороги обеспечивает дополнительную экономию. Пока речь всё ещё идёт лишь о моделировании системы, предстоит решить ещё немало инженерных проблем. Исследователи сообщают, что необходимо создать долговечные, быстро работающие аккумуляторы с возможностью многократного циклического применения. Для координации действий между ЦОД и заводами потребуются новые бизнес-модели. Университет объявил, что уже начались переговоры с несколькими отраслевыми лидерами для возможного масштабирования решения. Согласно исследованиям Калифорнийского университета в Риверсайде без внедрения новых технологий к 2030 году дополнительно может потребоваться 2,6–5,49 млн м3 воды в дни пикового спроса ЦОД в США. Для сравнения: Нью-Йорк за сутки потребляет около 3,8 млн м3. Над альтернативными технологиями охлаждения работают и другие структуры. Так, Karman Industries представила систему охлаждения ИИ ЦОД с углекислым газом.
20.03.2026 [11:44], Сергей Карасёв
Платформа NVIDIA DGX Rubin NVL8 использует процессоры Intel Xeon 6Корпорация Intel сообщила о том, что в составе платформы NVIDIA DGX Rubin NVL8 для агентного ИИ применяются CPU поколения Xeon 6. Эти чипы отвечают за критически важные функции, такие как управление памятью, оркестрация задач и распределение рабочей нагрузки. Система DGX Rubin NVL8 несёт на борту два процессора Xeon 6776P семейства Granite Rapids. Изделия содержат 64 вычислительных ядра с возможностью одновременной обработки до 128 потоков инструкций. Базовая тактовая частота составляет 2,3 ГГц, максимальная — 3,9 ГГц. В режиме Priority Core Turbo (PCT) с восемью ядрами частота достигает 4,6 ГГц. Показатель TDP равен 350 Вт. CPU специально оптимизированы Intel для ИИ-узлов. «Intel Xeon 6 обеспечивает превосходную производительность, эффективность и совместимость с обширной экосистемой программного обеспечения x86, на которую полагаются клиенты при выполнении инференса в масштабе», — говорит Джефф Маквей (Jeff McVeigh), корпоративный вице-президент и генеральный директор стратегических ЦОД-программ Intel.
Источник изображения: NVIDIA В состав DGX Rubin NVL8 входят восемь ускорителей Rubin с суммарным объёмом памяти 2,3 Тбайт (пропускная способность — 160 Тбайт/с). Задействованы восемь однопортовых адаптеров NVIDIA ConnectX-9 VPI (до 800 Гбит/с NVIDIA Infiniband и Ethernet), а также два DPU NVIDIA BlueField-4. Общая пропускная способность шины NVIDIA NVLink достигает 28,8 Тбайт/с. Энергопотребление — приблизительно 24 кВт. Заявленное ИИ-быстродействие на задачах инференса NVFP4 составляет до 400 Пфлопс, при обучении моделей NVFP4 — 280 Пфлопс, при обучении FP8/FP6 — 140 Пфлопс. Среди поддерживаемого софта упомянуты NVIDIA DGX OS, Ubuntu, Red Hat Enterprise Linux, Rocky Linux.
20.03.2026 [11:35], Сергей Карасёв
NVIDIA представила архитектуру хранения данных BlueField-4 STX для ИИ-системКомпания NVIDIA анонсировала модульную эталонную архитектуру BlueField-4 STX, которая поможет предприятиям, облачным провайдерам и операторам дата-центров в создании высокопроизводительных платформ хранения данных, оптимизированных для задач ИИ. Отмечается, что в традиционных ЦОД применяются хранилища общего назначения, обладающие большой вместимостью. Однако они зачастую не способны обеспечивать скорость отклика, необходимую для работы ИИ-агентов: таким системам требуются доступ к информации в реальном времени и контекстная память. Архитектура STX призвана устранить существующие узкие места. Технологической основой STX является DPU NVIDIA BlueField-4, который объединяет Arm-процессор NVIDIA Grace/Vera, 128 Гбайт LPDDR5, 512 Гбайт SSD, сетевой адаптер NVIDIA ConnectX-9 SuperNic (1,6 Тбит/с) и коммутатор PCIe 6.0 с 48 линиями. Используются микросервисы NVIDIA DOCA и программное обеспечение NVIDIA AI Enterprise. Утверждается, что архитектура STX обеспечивает в четыре раза более высокую энергоэффективность по сравнению с традиционными архитектурами хранения, построенными на основе CPU. В целом, как отмечается, STX предоставляет основу для создания универсального механизма обработки данных, ускоряющего полный жизненный цикл ИИ — от обучения и аналитики до инференса на базе агентов. Первой реализацией STX в масштабе стойки является новая платформа хранения NVIDIA CMX с контекстной памятью, которая расширяет память GPU. О поддержке NVIDIA STX сообщили такие компании, как Cloudian, DDN, Dell Technologies, Everpure, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data и WEKA. Производством систем на базе STX займутся AIC, Supermicro и Quanta Cloud Technology (QCT). Внедрить платформу в числе прочих намерены CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, OCI и Vultr. Решения на базе STX станут доступны во II половине текущего года.
19.03.2026 [19:38], Руслан Авдеев
MicroLED вместо лазеров: Microsoft создаёт новое поколение энергоэффективных оптических интерконнектов для ИИ ЦОДИсследователи Microsoft в Кембридже (Великобритания) изучают возможность использования оптических интерконнектов на основе MicroLED-технологий. Это позволяет передавать данные с помощью оптоволокна по тысячам параллельных каналов, на 50 % сокращая энергопотребление интерконнектов и уменьшая расходы на передачу данных, сообщает Datacenter Knowledge. Microsoft и партнёры намерены представить коммерческий вариант технологии уже в 2027 году. Существующие интерконнекты, как медные, так и оптические на основе лазеров, почти достигли пределов дальности действия, энергоэффективности, термоустойчивости и др. Если традиционные оптические интерконнекты передают данные с помощью лазеров по небольшому количеству сверхбыстрых каналов, то MicroLED позволяет распределять данные по тысячам более медленных параллельных каналов, используя специальное оптоволокно, изначально разработанное для медицинской эндоскопии и передачи изображения. Пропускная способность в итоге та же, зато энергопотребление значительно меньше, а дальность работы составляет десятки метров. По мнению HyperFrame Research, использование относительно доступных MicroLED-элементов вместо дорогих лазеров позволит Microsoft значительно снизить капитальные затраты на кластеры ИИ высокой плотности, очень востребованные на рынке. Рабочий прототип уже есть, а сейчас Microsoft с MediaTek и др. заняты доводкой системы. Уже имеются трансиверы размером приблизительно с большой палец, которые объединят MicroLED-излучатели, оптические компоненты и фотодиоды. Microsoft допускает, что технология потенциально способна изменить практически всю вычислительную инфраструктуру. Тем временем лазеры стараниями NVIDIA стали дефицитным товаром. Работы над MicroLED дополняют исследования Microsoft в области полого оптоволокна (HCF), которое от обычного отличается меньшей задержкой и большей дальностью работы. Технологию разработали в Университете Саутгемптона, после чего её доработала Lumenisity, купленная Microsoft в 2022 году. Компания уже развернула HCF в ЦОД Azure, а в сентябре того же года договорилась с Corning и Heraeus о массовом выпуске нового волокна. Сейчас компания занята улучшением характеристик HCF. Если HCF оптимально подходит для магистральных сетей, то MicroLED — для высокоплотных соединений в пределах ЦОД. При этом HCF тоже позволяет снизить требования к инфраструктуре. Datacenter Knowledge подчеркивает, что сетевые характеристики ЦОД перестают быть второстепенным фактором, поскольку из-за них может быть ограничена масштабируемость ИИ-инфраструктуры. Речь в том числе о расходе энергии, охлаждении и стабильности работы сетей. Переход от лазерных систем к стандартным компонентам MicroLED позволит изменить и структуру затрат на ИИ. Кроме того, такие изменения позволят Microsoft масштабировать свои кластеры Azure более эффективно, чем могут масштабировать свои объекты AWS и Google Cloud. Наконец, партнёрство с MediaTek помогает стандартизировать технологию для более быстрого внедрения.
19.03.2026 [15:32], Руслан Авдеев
16 тыс. км без регенерации сигнала: Ciena и Meta✴ установили рекорд дальности и скорости передачи данных по подводному кабелю BifrotstКомпании Ciena и Meta✴ установили мировой рекорд дальности высокоскоростной передачи данных без регенерации сигнала по действующему подводному кабелю на одной несущей — 800 Гбит/с. Речь идёт о системе Bifrost длиной 16 608 км, объединяющей Сингапур, Индонезию, Филиппины, Гуам и США. Тесты проводились на паре волокон, принадлежащих Meta✴. Испытания увенчались успехом благодаря технологии GeoMesh Extreme компании Ciena, она включает когерентную оптическую систему WaveLogic 6 Extreme (WL6e) и компактную реконфигурируемую систему 6500 Reconfigurable Line System (RLS). Ciena заявляет, что установление мирового рекорда дальности передачи с подобными характеристиками связи подтверждает ценность WL6e в качестве технологии, способной обеспечить «800G повсюду». Опыты доказывают, что сверхвысокоскоростную передачу данных можно обеспечить на самых длинных и сложных подводных маршрутах. Компания подчёркивает, что общая пропускная способность оптоволоконных пар составила в ходе испытаний 18 Тбит/с с избыточным эксплуатационным резервом. Использовался компактный SLTE (submarine line terminal equipment) высотой всего 10U, который оказался вдвое энергоэффективнее в сравнении с решением Ciena предыдущего поколения. Партнёры подчеркнули, что результаты имеют исключительное значение с точки зрения эффективности использования пространства и электроэнергии. Это критически важно для посадочных станций. Для Meta✴ проект имеет особое значение, поскольку должен помочь в управлении совместимой с ИИ-оборудованием инфраструктурой на больших расстояниях с уменьшением углеродных выбросов благодаря сниженному энергопотреблению и компактному объёму. Не так давно Ciena сообщала о рекордной для компании выручке $1,43 млрд в I квартале финансового года, на 33 % больше год к году. Компания назвала результата «беспрецедентным». В июне 2025 года сообщалось, что Telxius и Ciena установили рекорд скорости передачи данных между США и Европой по трансатлантическому кабелю Marea.
19.03.2026 [14:25], Руслан Авдеев
Nscale купит 8-ГВт кампус AIPCorp Monarch — Microsoft достанется 1,35 ГВт ИИ-мощностейБританская Nscale подписала соглашение о покупке американской American Intelligence & Power Corporation (AIPCorp). В сделку входит кампус ЦОД в Западной Вирдджинии мощностью до 8 ГВт, сообщает Datacenter Dynamics. Здесь Nscale рассчитывает построить одну из крупнейших в мире ИИ-фабрик. Компания также подписала письмо о намерениях, в соответствии с которым Microsoft с конца 2027 года арендует на новом месте 1,35 ГВт ИИ-мощностей на базе NVIDIA Vera Rubin NVL72, в том числе облачных. AIPCorp основана в начале 2026 года компаниями Fidelis New Energy и 8090 Industries. Кампус Monach Compute Campus занимает более 910 га в Западной Вирджинии, к 2031 году мощность должна составить до 8 ГВт. На первом этапе планируется ввести в эксплуатацию 2 ГВт к 2028 году. Ранее газовые генераторные установки G3500 соответствующей мощности согласилась предоставить компания Caterpillar. Ввод установок в эксплуатацию запланирован на I половину 2028 года. Поначалу кампус Monarch будет питаться от собственной микросети, но со временем он сможет подключиться к магистральной энергосети для возврата в неё излишков энергии. Nscale также рассматривает возможность захвата углерода для компенсации выбросов, связанных с площадкой. Команда AIP и Fidelis New Energy Organization присоединятся к подразделению Nscale Energy & Power, что, как ожидается, поможет поддержать развитие кампуса Monarch.
Источник изображения: Fidelis New Energy По словам Nscale, целью AIPCorp всегда было создание вертикально интегрированной модели, объединяющей генерацию электроэнергии и вычислительные мощности. Комбинация двух факторов позволит Nscale дать быстрорастущему рынку ИИ интегрированную неооблачную платформу без «узких мест», оптимальную для масштабирования. В рамках сделки Nscale выбрала финансовым консультантом Morgan Stanley. У Nscale большие планы экспансии. В конце 2025 года сообщалось, что компания потратит $865 млн на размещение ИИ-оборудования в США, а на днях появилась информация, что Nscale привлекла ещё $2 млрд на свои проекты. Nscale имеет довольно тесные связи с Microsoft. Так, в декабре 2025 года руководитель подразделения ИИ-инфраструктуры Microsoft Нидхи Чаппелл (Nidhi Chappell) перешла в Nscale на аналогичную позицию.
19.03.2026 [13:36], Руслан Авдеев
GMI Cloud развернёт в Японии суверенную ИИ-инфраструктуру стоимостью $12 млрдАмериканская GMI Cloud запускает в Японии суверенный проект по созданию ИИ-инфраструктуры стоимостью $12 млрд. Совместно с Wistron в Кагосиме (Kagoshima) компания планирует запустить ИИ-фабрику для задач «физического ИИ» (робототехника, автономный транспорт, производство), сообщает Datacenter Dynamics. ЦОД в приморском городе на острове Кюсю (Kyushu) будет находиться на территории объекта Kai Shin Digital Infrastructure. Она, в свою очередь, представляет собой совместное предприятие CDIB Capital и Shin-Etsu Science Industry. Впервые Kai Shin Digital Infrastructure объявила о планах строительства ЦОД в Кагосиме в октябре 2025 года. Первоначальная мощность объекта составит 350 МВт с дальнейшим масштабированием до 1 ГВт. Строительство начнётся в конце 2026 года. Известно, что компания является партнёром NVIDIA, но пока подробности об ИИ-оборудовании для площадки почти отсутствуют. Есть данные, что проект будет обеспечивать доступ к ИИ-вычислениям, при этом он должен соответствовать требованиям к суверенитету, определённым для японских организаций. На сайте GMI сообщается, что платформа будет использовать ускорители Vera Rubin.
Источник изображения: GMI Cloud Партнёрство с Wistron тоже началось не вчера. Так, в декабре 2025 года сообщалось, что Wistron потратит $0,9 млрд на расширение производства сетевого и ИИ-оборудования и инвестиции в облако GMI. По данным последней, новый дата-центр будет «зелёным и устойчивым», хотя как именно это будет достигнуто, тоже не сообщается. Судя по одному из рендеров, на крыше зданий будут расположены солнечные панели. GMI рассчитывает использовать для своей суверенной инфраструктурной ИИ-платформы VAST AI от VAST Data, которая позиционируется как первая платформа, созданная с нуля для управления «жизненным циклом» ИИ. Она является единой основой для систем хранения данных, управления базами данных и вычислительной средой. Это избавляет пользователей от необходимости связывать десятки разрозненных инструментов для обучения, инференса, обеспечения работы ИИ-агентов и всех промежуточных этапов.
Источник изображения: GMI Cloud В конце 2025 года GMI представила планы строительства ЦОД на Тайване мощностью 16 МВт за $500 млн. Он должен вмещать около 7 тыс. ИИ-ускорителей NVIDIA GB300 в 96 стойках. Также GMI управляет дата-центрами в США, на Тайване, в Сингапуре, Таиланде и Японии. В данное время компания стремится построить дата-центр мощностью 50 МВт в США. GMI основана в 2023 году и имеет штаб-квартиру в Калифорнии. Первоначально компания работала как оператор ЦОД, обеспечивавший майнинг биткоинов, но с тех пор она изменила профиль деятельности, занявшись реализацией ИИ-проектов. В ноябре 2024 года GMI привлекла $82 млн в рамках раунда финансирования серии А. Согласно официальным данным, на сегодня у неё есть мощности в пяти дата-центрах. |
|
