Материалы по тегу: hardware
|
30.04.2026 [18:18], Руслан Авдеев
Reliance потратит $17 млрд на крупнейший в Индии кластер ЦОД мощностью 1,5 ГВтГруппа Reliance Industries (RIL) намерена инвестировать в Индии более $17 млрд в создание кластера дата-центров, а также собственный проект, посвящённый солнечной энергетике, в Вишакхапатнаме (Visakhapatnam, штат Андхра-Прадеш), сообщает портал Inc42. По имеющимся данным, новый кампус ЦОД одобрен Комитетом по содействию инвестициям штата. RIL запросила для проекта около 380 га, из них на первом этапе используют более 120 га. К октябрю 2028 года ожидается запуск кампуса ЦОД мощностью 500 МВт. К 2030 году в районах, прилегающих к аэропорту Вишакхапатнама, будут построены дополнительные мощности на 1 ГВт. По имеющимся сведениям, ещё 0,4 га компания запросила для кабельной посадочной станции и более 32 га — для строительства на территории кампуса опреснительной установки. RIL инвестирует ₹1,08 трлн в кластер ЦОД, а оставшиеся ₹513 млрд — в проект, связанный с возобновляемой энергетикой, который также одобрен властями. Он предусматривает строительство солнечной электростанции и аккумуляторных энергохранилищ, снижающих зависимость от магистральных электросетей. В конце 2025 года власти штата заявляли, что Reliance построит в Вишакхапатнаме ЦОД мощностью 1 ГВт. Позже было объявлено, что совместное предприятие Brookfield Asset Management, RIL и Digital Realty — Digital Connexion потратит около $11 млрд в Андхра-Прадеш к 2030 году, построив ИИ ЦОД на 1 ГВт. Компания подписала с властями штата меморандум о взаимопонимании, предусматривавший приобретение более 160 га для этого проекта. Тогда же Digital Connexion отметила, что кампус будет работать на возобновляемой энергии и будет применять передовые системы охлаждения и энергоэффективные решения для снижения расхода электричества. Судя по последним новостям, проект RIL в Вишакхапатнаме станет крупнейшей на сегодня инвестиционной инициативой, касающейся создания ЦОД в стране. В 2025 году Google объявила о намерении потратить $6 млрд на строительство здесь дата-центра мощностью 1 ГВт в рамках инвестиционного плана на $15 млрд, в дополнение к уже имеющемуся ЦОД на 500 МВт, построенного компанией Sify, и ЦОД на 300 МВт, построенного Anant Raj Cloud. На днях компания начала строительство нового ИИ ЦОД. Также властями подписаны меморандумы о взаимопонимании с компаниями RMZ и Tillman Global Holdings, касающихся проектов мощностью 1 ГВт и 300 МВт соответственно. Другие штаты также получат свою «долю пирога». В Джамнагаре (Jamnagar, штат Гуджарат) RIL строит ИИ ЦОД мощностью 1 ГВт для предоставления доступных ИИ-сервисов в Индии (ранее сообщалось о создании «крупнейшего в мире» ЦОД на 3 ГВт). Проект — часть планов Reliance по инвестициям ₹10 трлн в ИИ-инфраструктуру страны в следующие семь лет. Adani также вложит $100 млрд в создание 5 ГВт «зелёных» ИИ ЦОД в Индии.
30.04.2026 [17:31], Руслан Авдеев
SoftBank готовится отправить роботов строить дата-центрыЯпонский техногигант SoftBank намерен использовать роботов для ускоренного строительства дата-центров, в первую очередь в США. Для этого планируется создать дочернюю структуру Roze AI, сообщает Datacenter Dynamics. Подробностей пока мало, но источники сообщают, что японский бизнес намерен включать в рабочие процессы автономных роботов, объединив под «зонтиком» Roze AI некоторые энергетические, земельные и инфраструктурные активы. Ожидается, что SoftBank выведет новую компанию на IPO уже во II половине 2026 года. Компания рассчитывает на капитализацию в объёме $100 млрд. В самой SoftBank новость пока не комментируют. Какую именно долю SoftBank намерена сохранить себе после IPO, станет известно позже. По некоторыми данным, внутри компании отдельные сотрудники скептически относятся к перспективам IPO из-за сложной ситуации в мире. Риски только усиливаются от того, что на торги скоро, возможно, выйдут «конкуренты», способные оттянуть на себя часть средств покупателей акций — OpenAI, SpaceX и Anthropic.
Источник изображения: Phillip Glickman/unspalsh.com Роботы в современных дата-центрах — явление не особенно редкое, они применяются на ряде объектов по всему миру, и будут использоваться даже на орбите. В некоторых случаях в индустрии использовалась и другая современная техника, включая строительные 3D-принтеры. Недавно Foxconn заявила о планах использования человекоподобных машин для производства серверов. А гиперскейлеры так и вовсе будут рады целиком заменить людей на роботов. В практической плоскости у SoftBank имеются в портфолио некоторые наработки в сфере робототехники. В 2025 году она приобрела подразделение ABB, разрабатывающее роботов, за $5,4 млрд. Имеются и другие инвестиции в робототехнику — компании SoftBank Robotics Group, Berkshire Grey, AutoStore Holdings, Agile Robots SE и Skild AI. В прошлом года компанией представлена «бескабельная» серверная стойка, позволяющая использовать роботов для обслуживания ЦОД. Новая конструкция должна помочь роботам выполнять задачи вроде установки и демонтажа серверов, замены неисправных модулей и проведение проверок оборудования.
30.04.2026 [17:07], Сергей Карасёв
Giga Computing представила 4OU-сервер TO46-SD3 на базе NVIDIA HGX B300 с СЖОGiga Computing, подразделение Gigabyte Group, анонсировала OCP-сервер TO46-SD3-LA07 для ресурсоёмких ИИ-нагрузок. Новинка выполнена на платформе NVIDIA HGX B300 в форм-факторе 4OU и наделена прямым жидкостным охлаждением. Говорится, что применённая СЖО охватывает и секцию GPU, и зону CPU. Предусмотрена функция обнаружения утечек. Система несёт на борту два процессора Intel Xeon 6 6500/6700 поколения Granite Rapids-SP. Доступны 32 слота для модулей DDR5 RDIMM/MRDIMM. Во фронтальной части расположены восемь отсеков для SFF-накопителей (NVMe) с возможностью горячей замены. Кроме того, могут быть установлены два SSD типоразмера M.2 с интерфейсом PCIe 5.0 x4 и PCIe 5.0 x2. Сервер оборудован четырьмя слотами PCIe 5.0 x16 для карт расширения формата FHHL. Говорится о совместимости с DPU NVIDIA BlueField-3. Могут быть реализованы восемь OSFP-портов InfiniBand XDR с пропускной способностью до 800 Гбит/с или сдвоенные 400GbE-порты на базе NVIDIA ConnectX-8 SuperNIC. Кроме того, есть два сетевых порта 10GbE на основе контроллера Intel X710-AT2. Интерфейсные разъёмы, включая гнёзда RJ45 для сетевых кабелей и порты USB Type-A, сосредоточены во фронтальной части. Giga Computing отмечает, что сервер TO46-SD3-LA07 подходит для решения таких задач, как обучение крупных ИИ-моделей и инференс. Система построена с применением открытых стандартов и модульных принципов, обеспечивая масштабируемость и эффективность в рамках корпоративных инфраструктур и дата-центров гиперскейлеров.
30.04.2026 [15:18], Владимир Мироненко
Lumai анонсировала «оптические» ИИ-серверы Iris с фотонными ускорителями инференсаБританский ИИ-стартап Lumai анонсировал семейство серверов для инференса Lumai Iris с использованием оптических вычислений, предназначенное для исполнения в реальном времени больших языковых моделей (LLM) с миллиардами параметров. Семейство Lumai Iris включает серверы Nova, Aura и Tetra. Lumai Iris Nova уже доступен для оценки гиперскейлерами, неооблачными платформами, предприятиями и исследовательскими институтами. Lumai заявил, что использование Lumai Iris позволяет ускорить выполнение задач инференса, используя свет вместо кремниевой обработки. Оптическая вычислительная система Lumai обеспечивает более быстрый инференс, более высокую эффективность выполнения и до 90 % меньшее энергопотребление по сравнению с традиционными архитектурами, при этом являясь более экологичными по сравнению с традиционными системами на базе GPU. Впрочем, технические детали оптических ИИ-ускорителей пока не раскрыты.
Источник изображений: Lumai Компания отметила, что спрос на вычисления для ИИ смещается от обучения моделей к крупномасштабному инференсу, когда модели используются в реальных приложениях. По мере роста объёмов вычислительных задач ЦОД сталкиваются с жёсткими ограничениями по энергопотреблению и масштабируемости, с которыми традиционные кремниевые архитектуры с трудом справляются. Компания заявила, что семейство Iris призвано решить проблемы с энергопотреблением и стоимостью ИИ-инфраструктуры за счёт повышения производительности на киловатт. Традиционные кремниевые архитектуры сталкиваются с фундаментальными физическими ограничениями в масштабируемости, энергопотреблении и тепловой эффективности. Каждое новое поколение кремниевых чипов предлагает небольшие улучшения, но при этом требует значительно больше энергии и средств для масштабирования. «По мере перехода отрасли в эру инференса мы одновременно пересекаем порог посткремниевой эры, — сказал Сяньсинь Го (Xianxin Guo), генеральный директор и соучредитель Lumai. — Переходя от электронно-фотонной вычислительной парадигмы к фотонной, Lumai может обеспечить увеличение производительности на порядок при значительной экономии энергии». ![]() Lumai отметила, что оптические вычисления позволяют значительно повысить эффективность выполнения обработки ИИ-нагрузок. Технология оптических вычислений Lumai, разработанная на основе исследований в Оксфордском университете, использует свет в трёхмерном среде, тогда как обычные чипы «живут» в 2D. Благодаря использованию массового пространственного параллелизма, миллионы операций выполняются одновременно, обеспечивая низкую стоимость и высокую пропускную способность токенов при выполнении ресурсоёмких вычислительных задач. Технология Lumai также показала свою эффективность на этапе предварительного заполнения дезагрегированных архитектур инференса, обрабатывая токены с максимальной эффективностью и масштабированием. Iris Nova выполняет инференс в реальном времени моделей Llama 8B и 70B с помощью гибридного процессора. Его гибридная архитектура сочетает цифровую обработку для управления системой и ПО с оптическим тензорным движком для основных математических операций. Такой подход обеспечивает бесшовную интеграцию серверов в ЦОД.
30.04.2026 [12:24], Руслан Авдеев
ИИ-облако Verda развернёт процессоры Arm AGI в своих ЦОДФинская компания Verda намерена предложить клиентам новые решения в сфере ИИ и доступ к новейшему процессору AGI, разработанный компанией Arm. По словам Arm, Verda является самым быстрорастущим поставщиком неооблачных решений в Европе. В настоящее время компания работает над развёртыванием Arm AGI в комбинации с решениями NVIDIA GB300 и, в перспективе — с NVIDIA Vera Rubin. Предполагается, что взаимодействие с NVIDIA обеспечит совместную работу стоек разных типов и поколений в одном дата-центре. Сотрудничество с техногигантом позволяет добиться большей согласованности ПО и серверов и дать ИИ-агентам возможность автономно распределять рабочие нагрузки. Подробности о масштабах развёртывания и сроках доступности процессоров будут объявлены позже. Verda сообщает, что управляет ИИ-облаком, работающим на возобновляемой энергии и созданном для команд, занимающимся машинным обучением (ML). Сочетание Arm AGI с NVIDIA GB300 и готовящимися к выпуску VR200 обеспечит клиентам эффективноcть, необходимую для агентного ИИ. Фактически Arm AGI создан специально для современных систем агентного ИИ и будет выполнять роль «координатора», работая вместе с ускорителями и управляя потоками данных и взаимодействием компонентов в больших ИИ-системах. Чип создан в по 3-нм техпроцессу TSMC и включает 136 ядер. Verda, ранее известная как DataCrunch, основана в 2020 году и сегодня имеет дата-центры в Финляндии, работающие на 100 % возобновляемой энергии. Также она управляет ЦОД в Исландии и намерена построить ЦОД в Латвии.
30.04.2026 [12:10], Сергей Карасёв
До 128 Тбайт памяти: Majestic Labs анонсировала ИИ-сервер нового типа PrometheusСтартап Majestic Labs анонсировал сервер нового типа Prometheus, призванный решить проблему «стены памяти» в современных ИИ-системах, оперирующих моделями с огромным количеством параметров. Утверждается, что Prometheus может обеспечить производительность, сопоставимую с несколькими стойками традиционных серверов, одновременно снижая энергопотребление и общую стоимость владения. Компания Majestic Labs вышла из скрытого режима (Stealth) в ноябре прошлого года. Стартап отмечает, что в современных ИИ-системах наблюдается разрыв между объёмом и производительностью памяти и вычислительными возможностями ускорителей. Majestic Labs предлагает решить проблему путём внедрения новой архитектуры, предполагающей разделение памяти и вычислительных ресурсов. Речь идёт об использовании специализированных ИИ-ускорителей и блоков быстрой памяти, объём которой составит до 128 Тбайт в рамках одного сервера. В составе Prometheus задействованы проприетарные чипы AI Processing Units (AIU) под названием Ignite. Они объединяют CPU-ядра на базе Arm с векторными и тензорными движками RISC-V. При этом используется единое пространство памяти. Говорится о поддержке популярных фреймворков, таких как PyTorch, vLLM и OpenAI Triton, что позволяет запускать существующие рабочие нагрузки без изменения кода. По заявлениям Majestic Labs, платформа Prometheus способна работать с ИИ-моделями с огромными контекстными окнами и триллионами параметров. При этом отсутствуют фрагментация и узкие места, присущие традиционным ИИ-серверам. Среди сфер применения названы смешанные экспертные системы, ИИ-агенты, графовые нейронные сети и пр.
29.04.2026 [21:36], Руслан Авдеев
ИИ ЦОД Project Jupiter для OpenAI запитают от топливных элементов Bloom Energy мощностью 2,45 ГВт
bloom energy
hardware
openai
oracle
stargate
сша
топливные элементы
цод
экология
электропитание
энергетика
Масштабный кампус ИИ ЦОД Project Jupiter, строящийся в округе Донья-Ана (Doña Ana, Нью-Мексико) компанией BorderPlex Digital Assets для Oracle в интересах проекта OpenAI Stargate, будет запитан от топливных элементов Bloom Energy мощностью 2,45 ГВт, сообщает Converge! Digest. Оценочная стоимость Project Jupiter составляет $165 млрд, совокупная мощность — до 2,45 ГВт. Кампус из четырёх ЦОД займёт территорию около 567 га, где также разместятся электрическая микросеть, энергохранилище и установка по опреснению воды. Генерация «за счётчиком» обеспечит кампус автономное питание. Основой стало расширенное соглашение между Oracle и Bloom, предполагающее развёртывание топливных элементов в США общей мощностью 2,8 ГВт. Oracle объявила, что решения Bloom позволяют сократить как выбросы, так и водопотребление, в то же время обеспечивая надёжную подачу электричества для ресурсоёмких ИИ-задач. Также компания подтвердила, что возьмёт расходы на электроснабжение проекта на себя, а работа нового кампуса не скажется на местных тарифах на электричество. Предполагается создание около 1,5 тыс. постоянных рабочих мест. А инвестиции в местное сообщество должны составить $416,9 млн. Oracle сообщает, что для охлаждения будет использоваться «непитьевая» вода — в системе замкнутого цикла с минимальной необходимостью пополнения, единовременная заправка системы потребует порядка 3,6 тыс. м3, а ежедневно потребуется около 75 м3 и до 227 м3 на пике. Для топливных элементов в норме воды не требуется. На системы водоснабжения и сопутствующую инфраструктуру потратят $50 млн. Проект более не предусматривает использования газовых турбин или резервных дизельных генераторов. Основное внимание уделяется обретению независимости от магистральных электросетей, снижению водопотребления и снижению выбросов. Впрочем, выбор элементов Bloom Energy может быть объяснён банальной нехваткой газовых турбин. Project Jupiter — ещё одна инициатива, предусматривающая отказ от использования централизованных электросетей для энергоснабжения ИИ-инфраструктуры, особенно для регионов, где электроэнергия в дефиците. Газовые топливные элементы обеспечивают быстрое внедрение, но ключевыми факторами остаются экономическая целесообразность в долгосрочной перспективе и вопросы поставок «голубого» топлива. Летом 2025 года аналитики Bloom Energy утверждали, что к 2030 году более четверти ЦОД в США обзаведутся собственными электростанциями.
29.04.2026 [15:34], Сергей Карасёв
Китай анонсировал 2,5-Эфлопс Arm-суперкомпьютер LineShine на домашних процессорахКитайский национальный суперкомпьютерный центр в Шэньчжэне (NSCCSZ) анонсировал проект вычислительного комплекса LineShine (LingSheng), производительность которого после полноценного ввода в эксплуатацию окажется на уровне 2 Эфлопс. Особенностью системы является то, что её конфигурация предполагает применение исключительно CPU-серверов — без ускорителей на базе GPU. Как отмечает ресурс HPC Wire, LineShine будет создаваться в несколько этапов. Одна из секций нового суперкомпьютера получит серверы Huawei Kunpeng с десятками тысяч вычислительных ядер. Предусмотрено использование 428 узлов хранения с суммарной вместимостью 650 Пбайт. Заявленная пропускная способность — 10 Тбайт/с. Вторая секция LineShine предполагает применение 20480 вычислительных узлов, каждый из которых будет оснащён двумя процессорами LX2 на архитектуре Armv9. Конструкция чипов LX2 включает два вычислительных кристалла со 152 ядрами (в сумме 304 ядра) и восемь стеков памяти HBM (32 Гбайт, 4 Тбайт/с). Каждый кристалл использует 128 Гбайт внешней памяти DDR. За обмен данными между блоками DDR и HBM отвечает специальный механизм SDMA. Каждый кристалл поделён на четыре NUMA-домена (38 ядер и 4 Гбайт HBM). Узлы соединены между собой высокоскоростным интерконнектом LingQi, обеспечивающим пропускную способность до 1,6 Тбит/с на узел. Говорится о поддержке режимов FP64/FP32/FP16/INT8. Заявленная производительность LX2 достигает 60,3 Тфлопс на операциях FP64 и 120,6 Тфлопс на операциях FP32. Таким образом, пиковая теоретическая FP64-производительность составляет 2,47 Эфлопс.
Источник изображения: South China Morning Post Для сравнения, самый быстрый на сегодняшний день суперкомпьютер в мире по версии TOP500 — американский комплекс El Capitan — обладает быстродействием 1,809 Эфлопс с пиковым значением 2,821 Эфлопс, но в нём применяются как CPU, так и ускорители (AMD Instinct MI300A). Таким образом, LineShine станет самым мощным НРС-комплексом, построенным исключительно на базе CPU. Другой особенностью машины станет то, что в её составе будут применяться только китайские компоненты, включая процессоры, накопители и сетевое оборудование. При этом официально КНР не участвует в TOP500 уже пять лет, да и в целом не любит рассказывать о своих самых мощных суперкомпьютерах. Нужно отметить, что в Китае действует другой суперкомпьютер экзафлопсного класса — система China New-generation Intelligent Supercomputer (CNIS). Этот комплекс имеет гетерогенную конфигурацию с 5632 вычислительными узлами. Каждый из них наделён двумя 64-бит серверными процессорами на базе CISC с 64 ядрами (2,4 ГГц) и восемью ускорителями GPGPU с архитектурой SIMT с 64 Гбайт HBM (1,8 Тбайт/с). Задействованы 8-канальная подсистема памяти DDR5-6400. Каждый GPGPU обеспечивает пиковую производительность 32,7 Тфлопс в режиме FP64, 65,5 Тфлопс на операциях FP32 и 470 Тфлопс в режиме FP16, что в сумме даёт пиковую теоретическую FP64-произвоидительность на уровне 1,47 Эфлопс.
29.04.2026 [14:46], Руслан Авдеев
Юта одобрила гигантский 9-ГВт ИИ ЦОД Stratos — весь штат потребляет вдвое меньшеНа днях Управление по развитию военных объектов штата Юта (Military Installation Development Authority, MIDA) одобрило строительство 9-ГВт кампуса ЦОД Project Strator гиперскейл-уровня в рамках проекта Wonder Valley. При этом в среднем штат целиком сейчас потребляет около 4 ГВт, сообщает Tom’s Hardware. Похожая ситуация складывается и Вайоминге. Реализацией проекта Stratos занимается компания O'Leary Digital — инфраструктурное подразделение, подконтрольное инвестору Кевину О’Лири (Kevin O'Leary). Объект будет размещён на территории более 16 тыс. га частной земли, в ведении компании будут и 485 га военной и государственной собственности. Уже на первом этапе потребуется приблизительно 3 ГВт, после полного завершения строительства мощность достигнет 9 ГВт. Всю генерацию организуют на месте благодаря близкому расположению трубопровода Ruby Pipeline протяжённостью более 1 тыс. км, пересекающему север Юты по пути из Вайоминга в Орегон. По данным MIDA, новый объект «не будет забирать ни одного электрона» из имеющейся электросети и даже сможет подавать в неё избыточную энергию. Ставка на автономное энергоснабжение позиционирует Stratos в одном ряду с растущим списком ИИ ЦОД, для которых строятся собственные электростанции, без необходимости годами ждать подключения к имеющимся электросетям. Например, запланированный в Огайо кампус SoftBank рассчитан на 10 ГВт с использованием газовой генерации, а недавно Meta✴ решила профинансировать семь новых газовых электростанций для 7-ГВт объекта в Луизиане.
Источник изображения: Arturo Rivera/unsplash.com При этом разработчики обратили особое внимание на меры, принимаемые для минимизации воздействия на бассейн Большого Солёного озера, в том числе использование воздушных систем охлаждения вместо жидкостных. Впрочем, продолжаются переговоры о праве на использование и водных ресурсов. Сам О'Лири привёл совету директоров MDIA «неотразимый» довод в пользу мега-ЦОД, сославшись на активные инвестиции Китая в ИИ-инфраструктуру. Он сообщил, что за последние 24 мес. КНР построила электростанции общей мощностью 400 ГВт, большая часть используется для питания ИИ ЦОД. Инвестор прямо сказал, что соревноваться приходится именно с ними. Также под патронажем О'Лири и его структур планируется строительство кампуса Wonder Valley в Канаде мощностью до 7,5 ГВт. Для привлечения гиперскейлеров MDIA снизило налог на энергетику со стандартных 6 % до 0,5 % и готово вернуть 80 % налогов на недвижимость, уплаченных O'Leary Digital в связи с реализацией проекта. Впрочем, даже при таких низких ставках прогнозируются ежегодные поступления для округа Бокс-Элдер (Box Elder), где разместится ЦОД, в объёме $30 млн/год на начальном этапе и более $100 млн/год после выхода объекта на запланированную мощность. MIDA рассчитывает, что только налог с продаж от ЦОД достигнет $250 млн/год.
29.04.2026 [12:47], Руслан Авдеев
Core Scientific переделает свою 300-МВт биткоин-ферму в 1,5-ГВт ИИ ЦОДКриптомайнинговая компания Core Scientific решила полностью сменить профиль деятельности. Недавно она объявила о намерении «переформатировать» майнинговые мощности в Пекосе (Pecos, Техас) на 300 МВт — вместо них появится кампус ИИ ЦОД на 1,5 ГВт, сообщает The Register. Недавно Core Scientific рассказала о намерении продать высокодоходные облигации на сумму $3,3 млрд, это должно упростить переход. Пожалуй, больше всех от смены профиля деятельности выиграла CoreWeave. Она давно арендует объекты у Core Scienetific и даже намеревалась купить её, но акционеры последней отказались от продажи, причём уже не в первый раз. CoreWeave рассматривается ключевым арендатором компании, которая будет занимать её объекты не только в Техасе, но и в Джорджии, Оклахоме и Северной Каролине. По информации Datacenter Dynamics, Core Scientific зарезервировала более 80 га на расширение своих проектов. Помимо Техаса, Core Scientific реализует проекты в Кентукки, Северной Дакоте и Алабаме. По некоторым данным, она имеет 520 МВт доступных для аренды мощностей на существующих площадках и ещё 700 МВт «скрытых резервов». Строительство нового объекта Core Scientific в Пекосе начато в начале 2026 года, первый зал рассчитывают ввести в эксплуатацию в начале 2027 года. После завершения строительства объект предоставит более 1 ГВт доступной для аренды мощности. Впрочем, пока неизвестно, сможет ли компания получить достаточно электроэнергии. Она уже зарезервировала дополнительные 300 МВт у местной энергетической компании, которые планируется дополнить неким решением «за счётчиком» для прямого питания ЦОД энергией. Ранее сообщалось, что в округе появится автономная 5-ГВт газовая электростанция GW Ranch от Pacifico Energy, которая строится исключительно для питания ИИ ЦОД. В последние годы компании активно внедряют необычные технологии генерации и хранения энергии. Google, Oracle и AWS делают ставку на малые модульные реакторы (SMR). Тем временем Meta✴ подписала соглашение с Overview Energy о передачи 1 ГВт солнечной энергии с космической орбиты, хотя система заработает не раньше 2030 года. Вероятным кандидатом на обеспечение ЦОД электричеством остаются менее экзотические технологии — например, топливные элементы Bloom Energy. Крайне востребованы и мобильные газовые турбины, подобные тем, что используются суперкомпьютером Colossus компании xAI. |
|

