Материалы по тегу: hardware
|
08.04.2026 [16:02], Руслан Авдеев
TikTok инвестирует ещё €1 млрд в ЦОД в Финляндии для хранения и обработки данных европейских пользователей
bytedance
hardware
tiktok
евросоюз
инвестиции
информационная безопасность
конфиденциальность
финансы
финляндия
цод
Детище китайской ByteDance — социальная сеть TikTok объявила об инвестициях €1 млрд в дата-центр в Лахти (Lahti, Финляндия) в рамках программы расширения защищённой европейской инфраструктуры. В 2025 году компания уже анонсировала миллиардные инвестиции в ЦОД в Коуволе (Kouvola). После того, как заработает ЦОД в Лахти, расширятся возможности по хранению данных европейских пользователей непосредственно в Европе, со строгим контролем доступа и использованием передовых систем мониторинга. Оба вливания средств в финскую инфраструктуру ЦОД — часть евроепйской инициативы Project Clover стоимостью €12 млрд, предполагающей обеспечение региону суверенитета данных. Инициатива призвана обеспечить лучшую отраслевую защиту более 200 млн европейских пользователей TikTok. В рамках Project Clover создан специальный анклав данных с усиленными гарантиями — в техническом, операционном и управленческом аспектах. В рамках Project Clover налажены партнёрские отношения с британской NCC Group, обеспечивающей независимый контроль, проверку и подтверждение эффективности средств защиты информации. Также компания занимается мониторингом потоков данных и уведомляет о любых аномалиях. Независимый контроль касается всей европейской инфраструктуры социальной сети. TikTok заявляет, что Финляндия обеспечивает уникальное сочетание квалифицированной рабочей силы, доступа к «чистой» энергии и развитой цифровой инфраструктуре. Именно поэтому она стала площадкой для расширения европейских мощностей компании, укрепления защиты и хранения данных на региональном уровне.
Источник изображения: Joonas T/unsplash.com Кампус построят в одном из районов Лахти. Утверждается, что проект обеспечит вклад в региональную экономику, создаст рабочие места и будет способствовать развитию местной цифровой экосистемы. Новый этап развития инфраструктуры в Финляндии последовал за ранее анонсированным строительством объекта в Коуволе, работы уже ведутся в соответствии с ранее утверждённым планом. Как заявляет TikTok, вместе объекты укрепляют долгосрочную ориентацию на Финляндию в качестве ключевого региона для развития инфрастрпуктуры данных социальной сети в Европе. В рамках Project Clover TikTok уже получила в своё распоряжение норвежский кампус Green Mountain OSL2-Hamar. Планы обнародовали в марте 2023 года, первый ЦОД закончили строить в декабре того же года, а ввод его в эксплуатацию был намечен на II квартале 2024 года. Правда, переносить европейские данные в новый кампус компания начала только в октябре. Также компания с 2023 года располагает дата-центром в Ирландии. Дополнительно компания рассматривает строительство дата-центра в Бразилии и пообещала потратить $8,8 млрд на цифровую инфраструктуру в Таиланде. В США же бизнес компании продан группе местных инвесторов под давлением американских властей — работу Project Texas не удовлетворила местные власти. Параллельно американская частная инвестиционная компания Bain Capital продала 100 % долю в китайском операторе ЦОД ChinData, ключевым клиентом которого является ByteDance.
08.04.2026 [14:57], Руслан Авдеев
«Нет дата-центрам»: в Индианаполисе обстреляли дом чиновника, одобрившего строительство ЦОДПротесты против строительства дата-центров приобретают в США опасный характер. У дома одного из членов городского совета Индианаполиса, поддержавшего создание ЦОД в округе, прогремели выстрелы, причём инцидент не был случайностью, сообщает The Register. По словам одного из представителей города Рона Гибсона (Ron Gibson), утром в понедельник он проснулся от выстрелов. Выяснилось, что в его дверь выстрелили 13 раз, а на пороге оставили записку «Нет дата-центрам» (No data centers). Как рассказал Гибсон в социальных сетях, пули легли в считанных шагах от того места, где накануне играл с конструктором его восьмилетний сын. Чиновник назвал происшествие «глубоко тревожащим» и подчеркнул, что деятельность властей может вызывать сильные разногласия, но насилие не является решением, особенно в случаях, когда опасности подвергается семья. Ранее Гибсон публично поддержал перезонирование земель, что позволит построить кампус ЦОД за $500 млн на участке площадью более 5,5 га. 1 апреля городские власти утвердили изменение зонирования земли для реализации проекта. Сообщается, что в два крупных объекта на 75 МВт готова инвестировать компания Metrobloks. Она же предлагает покрыть необходимые расходы для модернизации сетей передачи данных и энергетической инфраструктуры для этих объектов. По данным СМИ, против проекта выступили около 100 человек, утверждающих, что ЦОД не создаст новых рабочих мест и не принесёт никакой пользы району Мартиндэйл-Брайтвуд (Martindale-Brightwood). Инцидент со стрельбой произошёл на фоне растущего в обществе недовольства многочисленными проектами ЦОД в США и других странах и сопутствующего строительного бума, связанного с ростом спроса на вычислительные мощности. СМИ сообщали о беспорядках в Вирджинии, Пенсильвании, Северной Каролине и других штатах, результатом которых стал срыв запланированных проектов. По некоторым данным, в Висконсине один из городов пытался сместить мэра после одобрения строительства ЦОД. Отдельно сообщалось, что во II половине 2025 года объём строительства мощностей ЦОД на ключевых рынках США сократился — всё чаще население препятствовало бизнесу в получении разрешений на строительство. Когда проблему озвучили на федеральном уровне, президент США начал требовать от техногигантов гарантий того, что развитие их проектов не повлияет на коммунальные счета рядовых потребителей и не приведёт к истощению водных ресурсов на местах. Протесты в США, связанные со строительством ЦОД, действительно происходят довольно часто. Так, в прошлом августе сообщалось, что проект одного из крупнейших в мире ЦОД Project Sale в Джорджии оказался под угрозой срыва из-за противодействия местных жителей. По этой же причине Energy Storage Solutions не удалось вовремя получить разрешение на строительство крупного объекта, а Applied Digital и вовсе умышленно скрывает местоположение будущих ЦОД.
08.04.2026 [14:36], Сергей Карасёв
Дебютировала машина баз данных Tantor XData Gen3 на платформе AMDКомпания «Тантор Лабс», входящая в «Группу Астра», анонсировала машину баз данных Tantor XData третьего поколения (Gen3). Решение, как сообщается, ориентировано на крупных корпоративных заказчиков, которые ранее не могли перейти на отечественные продукты из-за архитектурных ограничений классического PostgreSQL. «Тантор Лабс» отмечает, что крупный бизнес работает с объёмными и разнородными нагрузками, и при переходе на решения на базе PostgreSQL могут возникать различные сложности. Среди них названы отсутствие нативного горизонтального масштабирования, ухудшение производительности при большом количестве соединений и трудности при работе со смешанными транзакционными и аналитическими операциями. В результате, крупные компании продолжают эксплуатировать платформы Oracle, SAP и IBM, откладывая переход на российские альтернативы. В машине Tantor XData Gen3, как утверждается, описанные ограничения устранены. В частности, не требуется привязка к одному серверу. Базы данных могут расширяться без «архитектурного потолка». При этом происходит линейное масштабирование платформы: то есть подсистемы вычислений и хранения масштабируются независимо друг от друга в соответствии с конкретной нагрузкой. Кроме того, реализовано общее хранилище с высоким показателем IOPS: оно обеспечивает на уровне кластера производительность, сопоставимую с локальными накопителями. Приложение обращается к одной базе, а система самостоятельно балансирует нагрузку и отрабатывает сбои. В основу Tantor XData Gen3 положены процессоры AMD EPYC. Задействована проприетарная распределённая файловая система Tantor PFS, которая работает поверх высокоскоростной сети RDMA (InfiniBand или RoCEv2) и протокола NVMe-oF. Всем узлам кластера доступно единое блочное устройство с задержками, сопоставимыми с использованием локальных SSD. За отказоустойчивость и балансировку отвечает технология Tantor RAC (Real Application Clusters) с одним пишущим и несколькими читающими узлами с автопереключением на реплику с минимальным временем простоя, умным прокси и согласованностью на уровне сессий. Упомянуты конвейерная запись WAL, возможность параллельной обработки запросов на всех узлах кластера, механизм CSN (commit sequence number) для повышения производительности и устранения узких мест при высокой конкуренции транзакций, инструменты балансировки нагрузки и управления соединениями. В целом, как утверждается, машина Tantor XData Gen3 предлагает крупным бизнес-пользователям возможность полноценной одновременной обработки транзакционных и аналитических запросов (HTAP). Решение позиционируется в качестве российской альтернативы Oracle Exadata, SAP HANA и IBM Netezza.
08.04.2026 [12:40], Руслан Авдеев
Иран угрожал США уничтожением ИИ ЦОД OpenAI Stargate в ОАЭВ ответ на ультиматум США, пригрозивших Ирану уничтожением электростанций и мостов, представители иранских властей пообещали сравнять с землёй один из флагманских кампусов ЦОД проекта Stargate в Абу-Даби (ОАЭ), сообщает eWeek. В соцсети X опубликовано заявление с видео скрытого на картах Google кампуса.
Источник изображения: Malik Shibly/unsplash.com Незадолго до этого КСИР назвал 18 американских компаний, включая Apple, Microsoft, NVIDIA и Tesla законными военными целями. При этом конкретные объекты не назывались, кампус Stargate стал первым, о котором упомянули официально. При этом кампус G42, где размещаются мощности Stargate — не просто один из множества, это один из крупнейших кампусов Stargate в мире. Объект стоимостью $30 млрд по плану получит 5 ГВт мощностей и 500 тыс. ИИ-ускорителей NVIDIA. Предполагается, что кампус станет сердцем проекта за пределами США. Облачная и ИИ-инфраструктура, связанная с американскими бизнесами, уже пострадала от иранских ударов. Это коснулось мощностей AWS в ОАЭ и Бахрейне. Как сообщает Datacenter Dynamics, в начале апреля КСИР заявил об атаках на кампус Oracle, также названной в числе «законных целей». По некоторым данным, пострадало здание компании в технопарке Dubai Internet City. Впрочем, официального подтверждения Oracle пока так и не поступало.
08.04.2026 [12:19], Сергей Карасёв
Плата iBase MBB1002 с поддержкой AMD EPYC Embedded 8004 рассчитана на периферийные ИИ-системыКомпания iBase Technology анонсировала материнскую плату MBB1002 типоразмера eATX, предназначенную для построения периферийных систем с функциями ИИ. Новинка выполнена на платформе AMD EPYC Embedded 8004 (Siena), которая дебютировала в конце 2024 года. Плата допускает установку процессора в исполнении AMD SP6 (LGA 4844). Доступны шесть слотов RDIMM для модулей оперативной памяти DDR5-3600/4000/4400/4800 суммарным объёмом до 576 Гбайт с поддержкой ECC (в конфигурации 6 × 96 Гбайт). Предусмотрены четыре порта SATA-3 для накопителей, разъём М.2 2280 для SSD с интерфейсом PCIe 5.0 и два коннектора MCIO (Mini Cool Edge IO) x4. Новинка располагает пятью слотами PCIe 5.0 x16 для карт расширения. Реализованы два сетевых порта 10GbE (контроллер Intel XC710-AT2). За безопасность отвечает чип TPM 2.0. Есть четыре 4-контактных разъёма для подключения вентиляторов охлаждения (один для CPU и три системных). Размеры материнской платы составляют 304 × 244 мм. Интерфейсный блок содержит два порта USB 3.0, два гнезда RJ45 для сетевых кабелей и последовательный порт (RS232 на базе коннектора RJ45). Через внутренние разъёмы могут быть задействованы два порта USB 2.0. Диапазон рабочих температур простирается от 0 до +60 °C. Модель iBase MBB1002 подходит для решения задач в области автоматизации, интеллектуального производства, промышленного интернета вещей, вычислений на периферии, аналитики данных в реальном времени и пр.
08.04.2026 [09:22], Владимир Мироненко
Стране нужен FP64: AMD пообещала повысить HPC-производительность ускорителей Instinct MI430XПосле анализа ограничений эмуляции FP64-вычислений с использованием схемы Озаки разработчики AMD пришли к выводу, что в настоящее время нет замены «сырой» производительности FP64. Как сообщил научный сотрудник AMD Николас Малайя (Nicholas Malaya) ресурсу HPCwire, чтобы обеспечить точность традиционных задач моделирования и симуляции, компания намерена нарастить нативную FP64-производительность ускорителя Instinct MI430X. Ускоритель станет основой суперкомпьютера Discovery, который будет установлен в Национальной лаборатории Ок-Ридж (ORNL) в 2028 году. Как отметил Кацухиса Озаки (Katsuhisa Ozaki) и два других японских исследователя, схема Ozaki — это многообещающая новая техника эмуляции, призванная позволить учёным выполнять высокоточные умножения матриц на оборудовании с поддержкой INT8/FP8, к которому относятся современные ИИ-ускорители, путём многократных вычислений с более низкой точностью. Текущие реализации Ozaki-I и Ozaki-II имеют ограничения, которые исключают их использование в реальных условиях, сообщил Малайя. Он указал на две основные проблемы. Во-первых, ПО не соответствует стандарту IEEE и не даёт того же результата, что и запуск кода на реальном оборудовании с поддержкой FP64. «В некоторых случаях это нормально, — сказал он. — Но во многих распространённых матрицах, которые мы наблюдали, влияние на точность довольно существенно.». Во-вторых, схема Озаки нацелена на квадратные матрицы. Если таковые в расчётах не используется, то итоговая производительность оказывается ниже, чем у нативного FP64-исполнения, говорит Малайя. Кроме того, HPC-приложения традиционно опираются на векторные вычисления, а не на тензорные или матричные, которые характерны для ИИ-нагрузок. Фактически ситуация ещё хуже — менее 10 % реальных HPC-приложений внесли изменения в DGEMM-коды, которые позволяют воспользоваться преимуществами Ozaki. «Насколько мне известно, с Ozaki-I, Ozaki-II или любой другой существующий метод нельзя применить к векторным инструкциям, — говорит Малайя. — Это ключевой нюанс, который, как мне кажется, упускается». На DGEMM действительно уходит много вычислительных ресурсов, что позволяет использовать схему Ozaki, «но она не решает 90 % HPC-задач». AMD собирается поддерживать эмуляцию Ozaki на своих чипах, сообщил Малайя. «Нет причин этого не делать. Это ПО. <…> И у вас могут быть библиотеки, которые позволяют динамически переключаться между нативными расчётами и Ozaki и, вероятно, оценивать его», — сказал он, добавив, что программную эмуляцию можно иметь в виду в качестве резервного варианта для FP64-вычислений. Но в конечном итоге Ozaki не является работоспособной альтернативой «железу» с FP64, сказал Малайя, уточнив, что не он один так считает. В настоящее время компания разрабатывает MI430X, специализированную версию ускорителя следующего поколения MI450, который будет обладать значительной FP64-производительностью. По словам Малайи, она будет значительно больше, чем у ускорителя MI355X, который обеспечивает 78,6 Тфлопс. По факту, это меньше, чем у предыдущей модели MI325X, которая обеспечивала 81,7 Тфлопс — в обоих случаях речь и про векторные, и про матричные FP64-вычисления. В любом случае, у всех этих чипов — от MI325 до MI430 — производительность больше, чем у чипов NVIDIA. И Hopper (34 Тфлопс), и Blackwell (40 Тфлопс) уже были медленнее в векторных FP64-вычислениях, но у Hopper хотя бы были нативные 67 Тфлопс в матричных расчётах, тогда как Blackwell в этом случае уже перешёл к схеме Озаки с «ненативными» 150 Тфлопс. Про Blackwell Ultra, где FP64-производительность упала до 1,3 Тфлопс, NVIDIA в данном контексте вообще не вспоминает, но обещает, что у Rubin будет 33 Тфлопс в векторных FP64-расчётах и 200 Тфлопс в матричных (тоже с Озаки). NVIDIA обосновывает отказ от развития аппаратных FP64-блоков тем, что увеличение собственно вычислительной мощности FP64 на самом деле не ускорит научные приложения, поскольку на практике они упрутся в возможности регистров, кешей и HBM. Rubin обеспечит пропускную способность HBM до 22 Тбайт/с, что в 2,8 раза больше, чем у Blackwell. Instinct MI325X предлагает 6 Тбайт/с, MI355X — 8 Тбайт/с, а у MI430X будет уже 19,6 Тбайт/с, сообщил Малайя. По словам Малайи, лучше всего синхронно «вкладываться» и в HBM, и в количество операций с плавающей запятой. «На самом деле важен коэффициент байт/флопс. С нашей точки зрения, необходимо поддерживать гораздо более близкое соотношение к тому, что мы видим в современных продуктах, — сказал он. — Необходимо значительно приблизиться к этому соотношению с точки зрения увеличения производительности FP64, чтобы сохранить тот же уровень, как это называют, арифметической интенсивности». Поскольку AMD обеспечит 2,5-кратное увеличение ПСП HBM от MI355 до MI430X, аналогичное 2,5-кратное увеличение производительности FP64 также будет оправдано. Таким образом можно примерно прикинуть, что MI430X может обеспечить производительность FP64 от 192 до 204 Тфлопс в зависимости от того, какой из них будет базовым: более новый MI355 или более быстрый MI325, сообщил HPCwire, добавив, что это всего лишь предположение, поскольку компания пока не сообщила точные характеристики будущих чипов. Кроме того, не до конца ясно, будет ли FP64-производительность одинакова для векторных и матричных расчётов. FP64-вычисления «очень важны» для «Миссии Генезис» (Genesis Mission), заявил ранее заместитель министра энергетики США (DoE) по науке и инновациям Дарио Гил (Darío Gil). Он отметил, что и глава AMD Лиза Су (Lisa Su), и глава NVIDIA Дженсен Хуанг (Jensen Huang), выразили твёрдую приверженность FP64, подтвердив, что поддержка формата будет продолжаться. «FP64 имеет решающее значение для поддержки рабочих нагрузок моделирования и симуляции, не только для дальнейшего развития традиционных научных исследований, но и для предоставления исходных данных для обучения новых ИИ-моделей», — добавил Гил. «Всегда существует баланс между тем, сколько требуется FP64- и FP16-вычислений», — сказал Малайя. «AMD утверждает, что нам необходимо поддерживать широкий спектр типов данных в зависимости от их потребностей. Не получится, чтобы всем были нужны FP64, которых хватит для всего.», — отметил он. Малайя сообщил, что всегда бывают исключения. Например, ИИ-симуляции сворачивания белков, такие как AlphaFold и Openfold, используют FP32. Да и некоторым традиционным HPC-задачам, таким как молекулярная динамика, не требуется FP64-точность. Тем не менее, сейчас существует значительный неудовлетворенный спрос на FP64, утверждает учёный. «Что касается высокопроизводительных вычислений, мы считаем, что им по-прежнему потребуется много FP64, — сказал он. — Будут использоваться некоторые коды, которые полностью ограничены пропускной способностью памяти, и им не нужно так много. Но есть, например, коды вычислительной химии и некоторые другие, которые действительно имеют высокую арифметическую интенсивность, и они будут использовать FP64».
07.04.2026 [17:25], Руслан Авдеев
Австралийское неооблако Firmus при поддержке NVIDIA привлекло $505 млн и нарастило капитализацию до $5,5 млрд в преддверии IPOСпециализирующаяся на строительстве и эксплуатации ИИ ЦОД австралийская Firmus Technologies, поддерживаемая NVIDIA, привлекла $505 млн инвестиции при оценке капитализации в $5,5 млрд. Средства получены в ходе нового раунда финансирования перед выходом на IPO на Австралийской фондовой бирже (ASX) в конце 2026 года, сообщает Silicon Angle. Основанная в 2019 году Firmus строит и эксплуатирует ИИ-инфраструктуру на базе кластеров ускорителей. Дата-центры компании оптимизированы для использования с аппаратными решениями NVIDIA. Это позволяет клиентам развёртывать стандартизированные среды как для обучения ИИ-моделей, так и для инференса. Системы распределения питания и охлаждения обеспечивают работу при высоких вычислительных нагрузках. Доступ к вычислительным мощностям Firmus обеспечен через управляемые инфраструктурные экосистемы, в которых развёртывание, настройка и текущая работа осуществляется в рамках единой платформы. Сегодня компания строит флагманский кампус за $1,37 млрд в Лонсестоне (Launceston) на севере Тасмании. Для ЦОД предусмотрено использование систем рециркуляции воды, АКБ, а также питание от местной ГЭС. Предполагается, что ЦОД получит 36 тыс. NVIDIA GB300.
Источник изображения: Michael Jerrard/unspalsh.com Раунд финансирования возглавила Coatue Management при поддержке NVIDIA, играющей активную роль инвестора и стратегического партнёра. Полученные средства используют для масштабирования мощностей ЦОД: строительства новых объектов, развёртывания ИИ-ускорителей и создания необходимой инфраструктуры для энергоснабжения и охлаждения. В 2025 году компания уже привлекла порядка $715 млн, включая раунд на $327 млн в ноябре. В феврале она привлекла $10 млрд в кредит на строительство ИИ-фабрик Project Southgate. Минувший раунд был третьим и последним перед IPO в июне или июле. Оператор рассчитывает привлечь около $2 млрд дополнительных средств. Morgans Financial и Morgan Stanley представят информацию потенциальным инвесторам в ближайшие дни. Если IPO состоится, оно станет одним из крупнейших в Австралии за текущее десятилетие, более того — одним из крупнейших в истории страны, если принимать в расчёт только технологические компании. Обычно австралийские технобизнесы предпочитают для IPO биржи вне континента. Firmus на этом фоне выглядит довольно белой вороной, решившей сделать ставку на Australian Stock Exchange. В конце марта сообщалось, что австралийские власти принимают меры по ужесточению контроля за развитием ИИ-инфраструктуры на территории страны. В частности, они внедряют новую систему, связывающую утверждение проектов новых ЦОД с вливаниями в энергетику, управлением ресурсами и влиянием дата-центров на внутреннюю экономику.
07.04.2026 [16:22], Руслан Авдеев
Инвесторы требуют от Amazon, Microsoft и Google прозрачности отчётов о расходах воды и электроэнергии в ЦОД СШАПомимо давления, по разным причинам оказываемого на Amazon, Microsoft и Google общественностью, более внимательнее к деятельности гиперскейлеров стали и инвесторы, сообщает Reuters. От компаний теперь требуют более подробных отчётов о расходах электроэнергии и воды. Reuters сообщает, что более десятка инвестиционных компаний желают знать об использовании воды и мерах её экономии на фоне желания IT-гигантов расширить вычислительные мощности. Бостонская Trillium Asset Management, управляющая активами на сумму более $4 млрд, в декабре 2025 года обратилась к Alphabet, желая получить ясность относительно достижения гиперскейлером климатических целей, поскольку потребности дата-центров компании только растут. В 2020 году техногигант обещал сократить вредные выбросы вдвое, а к 2030 году перейти на безуглеродные источники энергии, но, по данным Trillium, выбросы выросли на 51 % (а за полтора десятка лет и вовсе на 1515 %), и теперь инвесторам очень интересно, когда компания намерена добиться климатических целей. Инвестфонд Green Century Capital Management сообщил о переговорах с NVIDIA для «вынесения резолюции», в соответствии с которой будут приняты меры для того, чтобы краткосрочные выгоды от ИИ не достигались ценой долгосрочных климатических и финансовых рисков. В первую очередь инвесторы требуют больше информации о расходе воды. По статистике Mordor Intelligence, в 2025 году североамериканские ЦОД использовали без малого 1 млрд м3 питьевой воды, что приблизительно равно годовой потребности Нью-Йорка.
Источник изображения: Parsing Eye/unspalsh.com Хотя Meta✴, Google и Amazon всё активнее используют в своих дата-центрах СЖО с замкнутым контуром, экономно расходующие воду, данные о реальных водных затратах значительно различаются, поскольку нет единых стандартов отчётности. В отчёте Meta✴ за 2025 год раскрыто потребление воды только на принадлежащих и используемых компании участках, но не на тех, которые она арендовала или на объектах в стадии строительства. Общее водопотребление увеличилось на 51 %, с 3,726 млрд м3 в 2020 году до 5,637 млрд м3 в 2024 году. В отчёте Google за 2025 год есть общие данные об объектах, находящихся в собственности или аренде, но информация об объектах, управляемых третьими сторонами отсутствует. По словам Amazon, компания всё чаще раскрывает данные о потреблении воды на конкретных объектах и стремится быть «хорошим соседом», инвестируя в повышение эффективности, ввод в эксплуатацию новых источников энергии и сокращение водопользования. Microsoft заявляет, что экоустойчивость является «основной ценностью» компании и она активно решает проблемы устойчивого развития, в то же время ускоряя разработку решений для достижения долгосрочного эффекта. Инвесторы подчёркивают, что решающее значение имеют именно данные о расходе на отдельных объектах, поскольку партнёры гиперскейлеров могут лучше оценить операционные риски и эффективность управления ресурсами. Так, Calvert Research and Management заявляет, что компании недостаточно подробно рассказывали о потреблении воды и его влиянии на местных жителей. Впрочем, инвесторы обычно ратуют не за экологию, а за надёжный возврат вложенных средств — недостаточная прозрачность отчётов тормозит строительство и развите всё более дорогостоящих ЦОД. Лоббистская группа Коалиция ЦОД (Data Center Coalition), куда входят четыре крупнейших гиперскейлера, заявляет, что улучшение взаимодействия с местными жителями — один из ключевых приоритетов в минувшем году. Жители должны понимать, что проекты не создадут дополнительной нагрузки на местные ресурсы, а люди будут защищены как плательщики коммунальных услуг. По мере того, как число ЦОД растёт, всё чаще случаются и перебои с водой и питанием близлежащих поселений, что вызывает всё большее беспокойство.
07.04.2026 [15:54], Сергей Карасёв
Anthropic развернёт 3,5 ГВт ИИ-мощностей на базе Google TPUАмериканская компания Anthropic, занимающаяся разработками в сфере ИИ, сообщила о расширении использования облачной инфраструктуры Google Cloud, а также ускорителей Google TPU. Это поможет в масштабировании больших языковых моделей (LLM), а также в развитии агентного ИИ и корпоративных приложений. О том, что Anthropic намерена закупить огромную партию чипов Google TPU, стало известно в конце прошлого года. Тогда говорилось, что будут приобретены около 1 млн ускорителей TPU v7 (Ironwood) общей мощностью примерно 1 ГВт. Позднее сообщалось, что часть изделий будет куплена напрямую у Broadcom, которая занимается выпуском TPU для Google. Как теперь отмечается, в общей сложности Anthropic получит доступ к «нескольким гигаваттами мощности на базе TPU»: ввод этих вычислительных ресурсов в эксплуатацию ожидается в начале 2027 года. Доступ к части ускорителей будет осуществляться посредством Google Cloud Platform (GCP). Ресурс The Register уточняет, что в общей сложности Anthropic получит 3,5 ГВт мощностей для ИИ-вычислений с использованием Google TPU. Вместе с тем Anthropic прогнозирует значительное увеличение выручки: ожидается, что в 2026 году она превысит $30 млрд. Недавно компания провела раунд финансирования на $30 млрд, в результате чего её капитализация достигла $380 млрд. Anthropic подчёркивает, что всего за два месяца количество её клиентов, которые платят не менее $1 млн ежегодно, поднялось в два раза, превысив 1 тыс. Сообщается также, что Anthropic продолжает расширять использование облачных сервисов Google Cloud, включая BigQuery, Cloud Run и AlloyDB. Тысячи клиентов получают доступ к ИИ-моделям Anthropic Claude именно через платформу Google Cloud: в числе таких пользователей названы Coinbase, Cursor, Palo Alto Networks, Replit и Shopify.
07.04.2026 [15:52], Руслан Авдеев
Лучше синица в руке: операторы ЦОД всё чаще отказывают неооблакам, предпочитая большой выгоде финансовую устойчивостьНесмотря на отличные условия, предлагаемые многими неооблачными провайдерами операторам ЦОД, последние нередко отказывают в заключении сделок. Дело в том, что перспективы прибыли сводятся на нет высокими рисками, сообщает Datacenter Knowledge. Изменения происходят на фоне исторически низкого уровня свободных площадей в Северной Америке, там спрос продолжает превышать новые предложения. Срывы перспективных сделок свидетельствуют о глубинных изменениях в принципах распределения мощностей. После двух лет дефицита предложения и роста цен поставщики мощностей ЦОД перестали принимать во внимание только ценовые факторы. Вместо этого на первый план выходит кредитоспособность партнёра, прозрачность спроса со стороны конечных потребителей, уверенность в обеспечении долгосрочной нагрузки и устойчивости бухгалтерского баланса в многолетней перспективе. По словам экспертов, минимальным условием для участия в сделках стал кредитный рейтинг инвестиционного класса. Согласно исследованиям Datacenter Hawk, средние ставки на размещение оборудования в ЦОД с 2021 года существенно выросли на фоне роста спроса. Крупномасштабные проекты сегодня обходятся в $140–$155/кВт в зависимости от срока действия договора, плотности размещения, а также профиля рисков. Но деньги — не гарантия сделки. Так, сообщается что один из операторов отказал неооблачному провайдеру, который был готов подписать 15-летний контракт по цене до $160/кВт, чтобы получить 2 МВт сразу и до 12 МВт в течение полутора лет. При этом провайдер был готов заранее оплатить счета за первые полгода использования мощностей и вложиться в постройку инфраструктуры СЖО.
Источник изображения: Artturi Jalli/unsplash.com Сильнее всего страдают неооблачные провайдеры, фактически перепродающие доступ к ИИ-инфраструктуре в виде облачных ресурсов. Сегмент GPU-as-a-Service (GPUaaS) быстро развивается вместе с ИИ-рынком, при этом компании вроде CoreWeave, Lambda Labs и Crusoe выступают «агрегаторами» ИИ-ускорителей для предоставления клиентам по запросу. По данным ABI Research, к 2030 году соответствующий рынок может составить $250 млрд. По данным Datacenter Hawk, доступность электроэнергии для них стала важнейшим фактором при выборе площадки. Но девелоперы в последнее время предпочитают взаимодействовать с гиперскейлерами, а не неооблаками. Как минимум, операторы ЦОД требуют от неооблачных компаний более надёжных финансовых гарантий, от аккредитивов (letters of credit) до гарантий поддержки со стороны материнских компаний — или просто отказывают им в сделках, поскольку обеспокоены их долгосрочной устойчивостью. В отличие от крупных облачных провайдеров, неооблачные решения зависят от многих переменных, включая доступность ИИ-ускорителей, договоры с поставщиками и клиентами и др. При этом структура затрат на развёртывание ИИ-систем высокой плотности становится всё сложнее. Всё более востребованная инфраструктура СЖО добавляет $1,5–$1,6 млн/МВт к первоначальным капиталовложениям. Это приблизительно на 20–25 % больше, чем для традиционного воздушного охлаждения. Речь идёт о крупных капитальных затратах, не включенных в ежемесячную плату, а сроки внедрения составляют 6–9 мес. Чаще всего провайдеры перекладывают расходы на клиентов в обмен на незначительное повышение тарифов. В любом случае, для многомегаваттных проектов приходится вкладывать миллионы долларов ещё до начала развёртывания ИИ-оборудования.
Источник изображения: Jakub Żerdzicki/unsplash.com При этом колокейшн-провайдеры неохотно начинают строительство новых мощностей без заключения соглашений об аренде, а неооблачные компании не рискуют заключать контракты без гарантий предоставления им ИИ-ускорителей и договоров с клиентами. Фактически каждая из сторон ждёт, когда партнёр сделает первый шаг. В результате возникает трёхсторонняя зависимость, способная на месяцы затормозить заключение потенциально перспективных сделок или вообще привести к их срыву. Проблему усугубляют новые масштабы внедрения ИИ. Если раньше проекты на 4–10 МВт считались крупными, то теперь это «отправная точка», всё чаще речь идёт о 50+ МВт, а иногда о 100+ МВт. Причём в большинстве регионов удовлетворить потребность в 50 МВт в разумные сроки в одном месте просто невозможно. Клиенты вынуждены распределять рабочую нагрузку между несколькими площадками и операторами, что затрудняет как заключение контрактов, так и финансирование. По мере роста рынка растут и капитальные затраты, и сроки развёртывания — поэтому предпочтение поставщики ЦОД отдают стабильности, а не потенциальной выгоде. Таким образом, успех неооблачных компаний в краткосрочной перспективе будет определяться не соответствием продукта рынку, а способностью привлекать солидный капитал и качественно реализовать проекты. Одним из главных умений будет и способность грамотно организовать логистику — и так продлится пару лет, пока не выявятся победители. На днях сообщалось, что объём мирового рынка неооблаков достигнет $400 млрд к 2031 году. При этом структура рынка довольно запутанная. Гиперскейлеры сами нередко являются клиентами неооблаков. Например, Google открыто поддерживает и финансово страхует Fluidstack, тогда как CoreWeave до IPO скрывала фактическую зависомость от Microsft и NVIDIA. В то же время и сами гиперскейлеры используют весьма сложные схемы для привлечения средств на развитие ИИ-инфраструктуры. |
|

