Материалы по тегу: ии
|
18.11.2025 [16:55], Владимир Мироненко
d-Matrix привлекла ещё $275 млн и объявила о разработке первого ИИ-ускорителя с 3D-памятью Raptord-Matrix сообщила о завершении раунда финансирования серии C, в ходе которого было привлечено $275 млн инвестиций с оценкой рыночной стоимости компании в $2 млрд. Общий объём привлечённых компанией средств достиг $450 млн. Полученные средства будут направлены на расширение международного присутствия компании и помощь клиентам в развёртывании ИИ-кластеров на основе её технологий. Раунд C возглавил глобальный консорциум, включающий BullhoundCapital, Triatomic Capital и суверенный фонд благосостояния Сингапура Temasek. В раунде приняли участие Qatar Investment Authority (QIA) и EDBI, M12, венчурный фонд Microsoft, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset. Сид Шет (Sid Sheth), генеральный директор и соучредитель d-Matrix, отметил, с самого начала компания была сосредоточена исключительно на инференсе. «Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда. Это финансирование подтверждает нашу концепцию, поскольку отрасль вступает в эпоху ИИ-инференса», — добавил он. d-Matrix разработала ускоритель инференса Corsair на базе архитектуры с вычислениями в памяти DIMC (digital in-memory computing) — процессорные компоненты в нём встроены в память. Ускоритель предлагается вместе с сетевой картой JetStream. Также предлагается референсная архитектура SquadRack, которая упрощает создание ИИ-кластеров на базе Corsair. Она поддерживает до восьми серверов в стойке, каждая из которых содержит восемь ускорителей Corsair. Шасси SquadRack позволяет запускать ИИ-модели размером до 100 млрд параметров, хранящиеся полностью в SRAM. По данным d-Matrix, такая конфигурация обеспечивает на порядок большую производительность по сравнению с чипами с HBM. Вместе с оборудованием компания предлагает программный стек Aviator, который автоматизирует часть работы, связанной с развертыванием ИИ-моделей на ускорителе. Aviator также включает набор инструментов для отладки моделей и мониторинга производительности. В следующем году d-Matrix планирует выпустить более производительный ускоритель инференса Raptor. Это первый в мире ускоритель на базе 3D DRAM. Решение разрабатывается в партнёрстве с Alchip, известной разработками в области ASIC. Благодаря сотрудничеству уже реализована ключевая технология d-Matrix 3DIMC, представленная в тестовом кристалле d-Matrix Pavehawk. По словам компаний, новинка обеспечит до 10 раз более быстрый инференс по сравнению с решениями на базе HBM4, что позволит повысить эффективность генеративных и агентных рабочих ИИ-нагрузок. Также в Raptor будет использоваться процессор AndesCore AX46MPV от Andes Technology. Компании заявили, что их сотрудничество представляет собой конвергенцию вычислений, ориентированных на память, и инноваций в области процессоров на основе открытых стандартов для рабочих ИИ-нагрузок в масштабах ЦОД. Andes AX46MPV будет отвечать за оркестрацию наргрузок, распределение памяти, векторные вычисления и функции активации. AX46MPV — 64-бит многоядерный RISC-V-процессор с поддержкой Linux. Он включает 2048-бит блок векторной обработки (RVV 1.0), высокоскоростную векторную память (HVM) и ряд других аппаратных блоков для работы с массивными вычислениями. В совокупности эти функции обеспечивают запас производительности и гибкость ПО, необходимые для систем инференса уровня ЦОД. Референсные ядра, являющиеся ключевыми для рабочих нагрузок ИИ-трансформеров и LLM, демонстрируют прирост производительности до 2,3 раза по сравнению с предшественником AX45MPV.
18.11.2025 [16:01], Руслан Авдеев
Samsung и Hyundai инвестируют $400 млрд в ИИ-проекты в Южной КорееКомпании Samsung и Hyundai объявили о масштабных инвестициях в размере $400 млрд в ИИ-проекты на территории Южной Кореи, сообщает Datacenter Dynamics. Анонс сделан вскоре после того, как США и Южная Корея договорились о торговой сделке, в рамках которой Южная Корея обязалась инвестировать $350 млрд в различные секторы американской экономики, в том числе полупроводниковую отрасль, энергетику и искусственный интеллект. На внутреннем рынке Samsung намерена инвестировать ₩450 трлн ($308 млрд). Значительная доля средств пойдёт на бизнес, связанный с ЦОД и производством полупроводников. В частности, к 2028 году будет построена пятая производственная линия на заводе в Пхёнтхэке (Pyeongtaek), где выпускаются чипы памяти HBM. Впрочем, практически ничего нового компания не сказала. О переносе строительства говорилось и ранее. Теперь компания добавила, что намерена вкладывать средства в обеспечение стабильного выпуска HBM. Также средства пойдут на строительство в Южной Корее производства для немецкой Flakt, выпускающей системы воздушного охлаждения, которую Samsung купила в начале ноября. Масштабы инвестиций особенно впечатляют, если учесть тяжёлый для выпускающей полупроводники «флагманской» дочерней структуры — Samsung Electronics. В III квартале наметились признаки восстановления бизнеса, и компания объявила о росте консолидированной выручки на 15,4 % квартал к кварталу, а также о рекордно высокой квартальной выручке подразделения, отвечающего за производство памяти. Тем не менее, ещё во II квартале компания столкнулась со значительным спадом, со снижением операционной прибыли на 94 % год к году.
Источник изображения: Yu Kato/unsplash.com Hyundai намерена инвестировать в отечественную экономику ₩125,2 трлн ($85 млрд) в течение пяти лет, начиная с 2026 года. При этом ₩50,5 трлн ($34,5 млрд) потратят на дата-центры, ИИ, электрификацию, робототехнику, водородные технологии и умный транспорт. Мощности ЦОД автопроизводителя будут использовать для обработки данных и эксплуатации ИИ, с особым упором на автономные транспортные средства и ИИ-роботов. По-видимому, именно об этом говорилось в соглашении с NVIDIA на поставку 50 тыс. ускорителей для создания ИИ-фабрики. Переговоры о тарифах между Южной Кореей и США оказались сложными. Президент США Дональд Трамп потребовал, чтобы Южная Корея вложила в экономику США $350 млрд. Депортация южнокорейских инженеров с аккумуляторного завода в США только подлила масла в огонь. Корейские власти заявили, что такой шаг поставит страну в положение, в котором она оказалась во время финансового кризиса 1997 года. Пока что американские пошлины на южнокорейские автомобили и автозапчасти снижены с 25 % до 15 %, а для полупроводников гарантируется режим не менее благоприятный, чем у других стран с развитой соответствующей отраслью.
18.11.2025 [13:36], Сергей Карасёв
ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлажденияКомпания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL. Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена. Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub. За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей. Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.
18.11.2025 [12:43], Руслан Авдеев
Crusoe завершила строительство последнего здания первого кампуса StargateЗавершено возведение последнего, восьмого по счёту объекта первого американского кампуса мегапроекта OpenAI Stargate в Абилине (Abilene, Техас). Отвественная за строительство Crusoe выразила благодарность партнёрам и инвесторам за поддержку проекта, а также 7 тыс. электриков, строителей и квалифицированных рабочих. В Crusoe подчеркнули, что гордятся этим важным достижением. Дата-центры строятся Crusoe на территории кампуса Lancium Clean. Эпохальное строительство ведётся с 2024 года. В сентябре Crusoe сообщила, что два первых здания ЦОД ввели в эксплуатацию. Они используются Oracle Cloud Infrastructure (OCI) в интересах OpenAI. Площадь зданий составляет более 91 тыс. м2, общая мощность IT-ресурсов — более 200 МВт. В марте 2025 года начались работы над второй очередью проекта, в рамках которого было запланировано строительство ещё шести зданий. Это увеличит общую площадь объектов до более 371 тыс. м2, а их мощность — до 1,2 ГВт. В полном объёме работы планируется завершить к середине 2026 года. Кампус получит 450 тыс. ускорителей NVIDIA. В октябре 2025 года глава Oracle Ларри Эллисон (Larry Ellison), подтвердил, что проект Stargate будет использовать все мощности кампуса Crusoe. Кампус станет первым из введённых в эксплуатацию объектов Stargate. При этом компания уже сделала ряд объявлений о создании дата-центров «франшизы» на территории США и в других странах, от Аргентины до Южной Кореи и ОАЭ.
17.11.2025 [16:09], Руслан Авдеев
Программный «ускоритель» Huawei обещает практически удвоить производительность дефицитных ИИ-чиповКитайский техногигант Huawei Technologies инфраструктурное ПО для повышения эффективности использования ИИ-ускорителей, сообщает гонконгская SCMP со ссылкой на государственные СМИ КНР. По имеющимся данным, технология позволит поднять эффективность использования ИИ-чипов, включая GPU и NPU, до 70 % по сравнению с нынешними 30–40 %. Это будет ещё одним крупным достижением в области «компенсации отставания в аппаратном обеспечении за счет совершенствования программного». Новая технология, премьера которой должна состояться на одной из посвящённых ИИ-тематике конференций, позволит «унифицированно управлять» не только ускорителями самой Huawei, но и NVIDIA, а также моделями прочих разработчиков. В самой Huawei от комментариев пока воздержались. Это особенно актуально в свете недоступности актуальных ускорителей NVIDIA, из-за чего китайские компании скупают чипы прошлых поколений. Важность оптимизации использования имеющихся ресурсов наглядна показала «революция DeepSeek». Если информация подтвердится, технология может значительно улучшить продажи ИИ-чипов семейства Huawei Ascend в Китае (возможно, и за его пределами). Это может снизить зависимость КНР от чипов NVIDIA и других американских разработчиков. Утверждается, что новая технология Huawei будет аналогична продукту, разрабатывавшемуся израильским стартапом Run:ai и купленному NVIDIA в 2024 году за $700 млн. Его ПО позволяет организовать оркестрацию крупномасштабных ИИ-нагрузок между массивами ИИ-ускорителей. При этом и сама NVIDIA постоянно оптимизирует собственное ПО, повышая производительность исполнения рабочих нагрузок ИИ. Новость может стать хорошим дополнением к сентябрьскому анонсу. Тогда компания поделилась планами выпуска ИИ-ускорителей Ascend следующего поколения. Готовящиеся изделия призваны составить конкуренцию передовым чипов NVIDIA и подготовке мощных ИИ-систем SuperPOD, объединяющих 8192 и 15 488 ускорителей Ascend. На основе таких платформ будут формироваться суперкластеры, насчитывающие до 500 тыс. и более экземпляров Ascend.
17.11.2025 [10:02], Сергей Карасёв
ИИ-производительность японского суперкомпьютера FugakuNEXT превысит 600 ЭфлопсКомпания Fujitsu поделилась информацией о суперкомпьютере следующего поколения FugakuNEXT (Fugaku Next), который создаётся совместно с японским Институтом физико-химических исследований (RIKEN). Проект реализуется при поддержке Министерства образования, культуры, спорта, науки и технологий Японии (MEXT). FugakuNEXT придёт на смену вычислительному комплексу Fugaku, который в 2020 году стал самым высокопроизводительным суперкомпьютером в мире. В рейтинге ТОР500 от июня 2025 года эта НРС-система занимает седьмое место с FP64-быстродействием приблизительно 442 Пфлопс (теоретическая пиковая производительность достигает 537,21 Пфлопс). Разработку архитектуры FugakuNEXT планируется полностью завершить к середине 2028 года, после чего начнутся производство и монтаж суперкомпьютера. В эксплуатацию система будет введена не ранее середины 2030 года. Известно, что в основу FugakuNEXT лягут Arm-процессоры Fujitsu MONAKA-X, при производстве которых предполагается использовать 1,4-нм технологию. Чипы получат до 144 вычислительных ядер. Кроме того, в состав машины войдут ИИ-ускорители NVIDIA, для связи которых с CPU планируется задействовать шину NVLink Fusion. Платформа также получит новые интерконнекты для горизонтального и вертикального масштабирования. В материалах Fujitsu говорится, что FugakuNEXT получит в общей сложности свыше 3400 узлов CPU и GPU. Их объём памяти превысит 10 ПиБ (Пебибайт). Агрегированная пропускная способность памяти в случае CPU-блоков составит более 7 Пбайт/с, GPU-модулей — свыше 800 Пбайт/с против 163 Пбайт/с у нынешней системы Fugaku. Кроме того, раскрываются ожидаемые показатели ИИ-быстродействия FugakuNEXT. У CPU-секции производительность превысит 48 Пфлопс в режиме FP64, 1,5 Эфлопс на операциях FP16/BF16 и 3 Эфлопс в режиме FP8. В случае GPU-раздела быстродействие FP64, FP16/BF16, FP8 и FP8 Sparse составит более 2,6 Эфлопс, 150 Эфлопс, 300 Эфлопс и 600 Эфлопс соответственно.
17.11.2025 [09:00], Сергей Карасёв
«Базис» представляет новую версию Basis Dynamix Enterprise с поддержкой программно-определяемых сетей и зон доступностиКомпания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, объявляет о выпуске версии 4.4.0 высокопроизводительной платформы серверной виртуализации Basis Dynamix Enterprise. Обновление включает более 110 улучшений и исправлений, направленных на расширение сетевых возможностей платформы, повышение гибкости управления инфраструктурой и углубление автоматизации критически важных процессов. Поддержка программно-определяемых сетейКлючевым нововведением версии 4.4.0 стала полностью нативная интеграция с платформой Basis SDN — программно-определяемой системой управления сетями, которую компания представила в мае этого года. Теперь Basis Dynamix Enterprise может использовать расширенные возможности Basis SDN для создания и управления виртуальными сетями. В платформу были интегрированы новые программные интерфейсы для управления сетевыми настройками. Узлы с поддержкой SDN позволяют администраторам создавать изолированные сетевые среды с гранулярным контролем трафика между виртуальными машинами. При создании ресурсной группы с привязкой к SDN Access Group сетевая конфигурация автоматически ограничивается совместимыми типами интерфейсов, обеспечивая полную изоляцию трафика на уровне гипервизора. Это позволяет специалистам заказчика развёртывать с помощью Basis Dynamix Enterprise мультитенантные среды с гарантированной сегментацией данных различных проектов. Создание изолированных сред внутри платформыРазработчики Basis Dynamix Enterprise реализовали механизм работы с зонами (zone) — логической группировкой вычислительных узлов с заданными границами размещения. Нагрузки выполняются только на узлах своей зоны; при необходимости поддерживается контролируемая миграция между зонами (например, для обслуживания или балансировки). К зоне могут быть привязаны виртуальные машины, внутренние и внешние сети, балансировщики нагрузки, базовые службы и кластеры Kubernetes. Политики платформы фиксируют их размещение в пределах зоны и упрощают соблюдение требований по сегментации и локализации данных. Группы безопасности и транковые сетиВ релизе 4.4.0 была значительно улучшена собственная сетевая подсистема Basis Dynamix Enterprise. Реализованы группы безопасности (security groups), работающие на уровне виртуальных сетевых коммутаторов; правила меняются через API без перезапуска ВМ, что даёт администратору гибкое управление политиками безопасности виртуальных узлов. Поддержка транковых сетей добавлена через новый тип интерфейса «trunk». Функция включается явно в настройках аккаунта или ресурсной группы; она упрощает разделение сетевого трафика и уменьшает количество виртуальных сетевых адаптеров при работе с несколькими сетями. Классы обслуживания дисковВ Basis Dynamix Enterprise 4.4.0 при создании виртуальных машин, дисков, образов и кластеров Kubernetes можно указать ID политики хранения, автоматически применяющей установленные лимиты производительности. Политики настраиваются через API с поддержкой добавления и удаления пулов хранения. В тенантах теперь можно задавать квоты потребления для создаваемых политик; вместе с существующими квотами это даёт многоуровневый контроль СХД. Онлайн-миграция дисков между СХДДля обеспечения непрерывности бизнес-процессов в версии 4.4.0 реализован механизм миграции одного или нескольких дисков между системами хранения без перемещения виртуальной машины на другой вычислительный узел. Механизм работает без остановки виртуальной машины при условии, что узел является узлом потребления (consumer) в обеих СХД. Реализованные API-методы обеспечивают полный контроль над процессом переноса данных. Миграция возможна только между включёнными узлами (Enabled), что позволяет переносить рабочие тома в рабочее время и ускоряет вывод из эксплуатации устаревших массивов. Поддержка Guest AgentПлатформа теперь поддерживает интеграцию с QEMU Guest Agent через набор соответствующих API-методов. Они позволяют управлять функциями агента на уровне отдельных ВМ. При наличии установленного QEMU Guest Agent в гостевой ОС администраторы могут выполнять команды в гостевой системе, управлять доступными возможностями агента и собирать расширенную телеметрию. Доступность и мониторингBasis Dynamix Enterprise 4.4.0 предлагает расширенные возможности автоматизации критически важных процессов. Реализованы два новых режима работы: uptime-daemon обеспечивает автоматическую изоляцию проблемных узлов с настраиваемым таймаутом до 90 секунд; uptime-monitor переводит узел в режим техобслуживания без подтверждения выключения узла через IPMI. Для DPDK-узлов добавлен сервис мониторинга с экспортом метрик в систему визуализации Grafana. «В мае мы выпустили уникальный для российского рынка полностью импортонезависимый standalone продукт Basis SDN, отечественное коробочное решение для работы с программно-определяемыми сетями. Продукт вызвал живой интерес у заказчиков, поэтому в новом релизе Basis Dynamix Enterprise мы уделили особое внимание глубокой совместимости нашей флагманской платформы и SDN-решения. Помимо поддержки программно-определяемых сетей, в релизе 4.4 мы добавили зоны доступности и политики хранения, которые наши заказчики также давно ждали. Эти функции позволяют строить более гибкую инфраструктуру и эффективнее управлять имеющимися ресурсами, избегая при этом простоя и сохраняя полный контроль над данными», — отметил Дмитрий Сорокин, технический директор компании «Базис».
16.11.2025 [17:38], Руслан Авдеев
Ни доходов, ни рабочих мест: льготы для дата-центров не приносят ничего хорошего большинству штатов США, но отказаться от них трудноАмериканская индустрия ЦОД получает немалые субсидии на уровне штатов, но процедура не всегда прозрачна, а некоторые штаты даже теряют деньги на этом, сообщает некоммерческая организация Good Jobs First. По данным НКО, налоговые льготы для развития ЦОД и облачных вычислений предоставляют 36 штатов, но лишь 11 из них раскрывают, какие именно компании их получают. В остальном всё крайне непрозрачно: лишь в немногих штатах говорят, о каких объёмах льгот идёт речь, и раскрывают информацию о том, выполняют ли компании обещания о капиталовложениях и создают ли рабочие места. В документе «Облачные данные, дорогостоящие сделки: как неохотно штаты раскрывают субсидии центрам обработки данных» (Cloudy Data, Costly Deals: How Poorly States Disclose Data Center Subsidies) приводятся некоторые детали, передаёт The Register.
Источник изображения: zanck FL/unsplash.com В частности, из 11 штатов, раскрывающих информацию об освобождении от налогов с продаж и использования, ни один не разглашает конечных бенефициаров таких послаблений. Тем временем Amazon, Google, Microsoft, Meta✴ и Apple регулярно «прячутся» за дочерними компаниями. Только 5 из 11 штатов раскрывают вероятные или фактические объёмы субсидий, причём с запозданием. Лишь четыре штата — Иллинойс, Индиана, Невада и Огайо — рассказывают о том, сколько рабочих мест обещают создать операторы ЦОД. Ни один из штатов не отчитывается о фактически созданных рабочих местах, хотя налоговые льготы часто связывают именно с появлением новых вакансий. Наконец, только Невада сообщает, какие зарплаты платят сотрудникам в субсидируемых проектах. По словам НКО, во многих штатах речь идёт о двойных стандартах. Большинство проектов, получающих субсидии, освещаются довольно хорошо, но только не дата-центры. В апреле 2024 года Good Jobs First сообщала, что только освобождение дата-центров от налога с продаж и использования ежегодно обходится бюджетам штатов в миллиарды долларов недополученных доходов. В 2025 финансовом году Техас потерял $1 млрд из-за ЦОД, но штат публикует только названия субсидируемых компаний без каких-либо деталей. Вирджиния, крупнейший в стране рынок ЦОД, тоже теряет почти $1 млрд, но какие компании получают льготы и в каком объёме, не раскрывает. Более того, в нескольких штатах чистые убытки составляют от ¢52 до ¢70 с каждого $1 налоговых субсидий.
Источник изображения: Good Jobs First ЦОД, как считается, возглавляют список наиболее неэффективно субсидируемых отраслей в 2025 году. В исследовании рекомендуется резко сократить объёмы расходов штатов на дата-центры, отменив или пересмотрев налоговые льготы. В Джорджии и Огайо уже проголосовали за приостановку или отмену этих льгот, но вето на оба законопроекта наложили губернаторы. В любом случае, как считают в Good Jobs First, штаты должны обеспечить полную прозрачность данных о том, какие компании получают льготы, в каких объёмах и что получают взамен. При этом в исследовании даже не касались других послаблений вроде льгот по налогу на имущество и корпоративную прибыль или же скидки на оплату электроэнергии и воды — эти данные также крайне редко раскрываются. Стоит отметить, что JPMorgan недавно спрогнозировал гигантские расходы на дата-центры в ближайшие пять лет и «астрономический» спрос на соответствующую инфраструктуру, поэтому руководство штатов, возможно, просто не может отказаться от участия в «гонке ЦОД».
16.11.2025 [12:31], Владимир Мироненко
Google инвестирует $40 млрд в строительство трёх ЦОД в ТехасеGoogle объявила об инвестициях в размере $40 млрд в инфраструктуру в Техасе, которые будут направлены в период до 2027 года на строительство трёх новых ЦОД в дополнение к двум имеющимся в Далласе. Как сообщает Bloomberg со ссылкой на Сундара Пичаи (Sundar Pichai), генерального директора холдинга Alphabet, в который входит Google, один из ЦОД будет построен в округе Армстронг (Armstrong), в западной части Техаса, а два других — в округе Хаскелл (Haskell), на участке Западного Техаса недалеко от Абилина (Abilene). Один из ЦОД компании в Хаскелле будет расположен рядом с новой солнечной электростанцией и аккумуляторной станцией, что позволит снизить нагрузку на энергосистему штата. Google подчеркнула, что подходит с всей ответственностью к развитию своей инфраструктуры, подключая новые источники энергии к сети, оплачивая расходы, связанные с её деятельностью, и поддерживая общественные инициативы по повышению энергоэффективности. В Техасе её инициативы включают новый фонд Energy Impact Fund в размере $30 млн для развёртывания и ускорения внедрения энергетических инициатив, а также более 6,2 ГВт новых генерирующих мощностей по соглашениям о закупке электроэнергии с энергетическими компаниями. Сундара Пичаи заявил на пресс-конференции в пятницу, что «инвестиции создадут тысячи рабочих мест, обеспечат профессиональную подготовку студентов и электриков, а также ускорят реализацию инициатив по обеспечению доступности энергии по всему Техасу». Так, Альянс по обучению электриков (Electrical Training Alliance, ETA) при её поддержке обучит существующих электриков и более 1700 стажёров в Техасе к 2030 году, что более чем вдвое увеличит приток новых специалистов. В Техасе расположено не менее 411 дата-центров, это один из крупнейших рынков ЦОД в США, который быстро растёт. Здесь, в округе Шакелфорд (Shackelford) ведёт строительство нового кампуса Frontier площадью более 485 га и мощностью 1,4 ГВт компания Vantage Data Centers. Стоимость проекта составляет более $25 млрд. В Абилине к концу 2025 года должны завершить строительство первой очереди ЦОД кампуса Stargate стоимостью в $1,1 млрд — буквально вчера Crusoe объявила о работах над последним, восьмым по счёту объектом кампуса. Арендатором выступит Oracle, которая предоставит вычислительные мощности компании OpenAI. В Эль-Пасо (El Paso) строит ЦОД мощностью 1 ГВт компания Meta✴ Platforms. Как ожидается, объект стоимостью более $1,5 млрд будет введён в эксплуатацию в 2028 году. Немного ранее, в I квартале 2027 года в Западном Техасе компаниями Poolside и CoreWeave будет построен кампус ЦОД Project Horizon мощностью 2 ГВт. В Амарилло (Amarillo) будет построен 11-ГВт кампус ИИ ЦОД HyperGrid компании Fermi America. Ожидается, что его первая очередь мощностью 1 ГВт будет введена в эксплуатацию в конце 2026 года. Ранее стало известно, что Google инвестирует в течение четырёх лет €5,5 млрд в дата-центры в Германии, планирует построить ИИ ЦОД на австралийском Острове Рождества (Кристмас) в Индийском океане, а также намерена развернуть ИИ-инфраструктуру в космосе в рамках проекта Project Suncatcher. В минувшем квартале Google объявила о $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд — в Бельгии и по $9 млрд — в Южной Каролине, Оклахоме и Вирджинии (США).
16.11.2025 [12:05], Руслан Авдеев
Не жили богато: капитальные затраты Tencent в III квартале сократились на четверть из-за недоступности ИИ-ускорителейКапитальные затраты китайской Tencent стремительно сокращаются. Виной тому — невозможность закупить столько ИИ-ускорителей, сколько нужно компании, сообщает Datacenter Dynamics. В ходе отчёта за III квартал 2025 года руководства Tencent отметило, что капитальные затраты снижаются из-за изменений доступности ИИ-чипов, а также ограничений в цепочках их поставок. В минувшем квартале капитальные затраты составили всего ¥13 млрд ($1,83 млрд), на 24 % меньше год к году и меньше, чем во II квартале ($2,49 млрд). Ожидается и дальнейшее снижение. Для сравнения, американские облачные гиганты Microsoft, Google и Amazon (AWS) отчитались о капитальных затратах в аналогичной квартале в объёме $34,9 млрд, $24 млрд и $34,2 млрд соответственно. Компании регистрируют значительный рост капитальных затрат в связи с активными инвестициями в ИИ-инфраструктуру. В Tencent уверяют, что у компании достаточно ускорителей для выполнения задач, но отмечено «ограниченное влияние» на доходы от облачных услуг из-за отсутствия достаточного количества ресурсов, доступных клиентам. В то же время американские конкуренты растут двухзначными темпами год к году, во многом благодаря ИИ-бизнесу, и жалуются на недостаток энергии для питания ускорителей.
Источник изображения: Donald Wu/unsplash.com Tencent заявила, что намерена создавать усовершенствованные ИИ-модели — это даст возможность обойти ограничения, связанные с дефицитом чипов. Утверждается, что компании не требуется больше ускорителей для обучения искусственного интеллекта и обновления моделей. Попутно внедряется немало программных улучшений, оптимизирующих инференс, в результате на том же количестве чипов можно обеспечить большие нагрузки. Tencent не раскрывает детальной статистики прибыли в разных сегментах её бизнеса, но в целом он растёт. Общая выручка за квартал составила ¥192,9 млрд ($27,12 млрд), на 15 % больше год к году. Ограничения на доступ китайского бизнеса к ИИ-ускорителям существуют уже довольно давно. Ранее в ноябре президент США Дональд Трамп (Donald Trump) заявил, что самые передовые чипы не достанутся никому, кроме США. По его словам, Китаю позволят сотрудничать с NVIDIA, но покупать придётся устаревшие или ограниченные модели. Впрочем, сейчас, по данным самой NVIDIA, доля её продукции на китайском рынке упала с 95 % практически до нуля, а многие китайские компании научились обходить ограничения, пользуясь зарубежными, в том числе американскими облаками. Некоторые чипы доступны китайским покупателям, не попадающим под санкции, NVIDIA и AMD ранее согласились выплачивать правительству США 15 % выручки от них. Однако теперь уже правительство КНР противодействует их закупкам, продвигая китайские решения на домашнем рынке. |
|
