Материалы по тегу: i

22.08.2025 [17:23], Руслан Авдеев

Google: медианный промпт Gemini потребляет 0,24 Вт·ч энергии и 0,26 мл воды

Компания Google опубликовала документ, в котором описывается методология измерения потребления энергии и воды, а также выбросов и воздействия на окружающую среду ИИ Gemini. Как утверждают в Google, «медианное» потребление энергии на одно текстовое сообщение в Gemini Apps составляет 0,24 Вт·ч, выбросы составляют 0,03 г эквивалента углекислого газа (CO2e), а воды расходуется 0,26 мл.

В компании подчёркивают, что показатели намного ниже в сравнении со многими публичными оценками, а на каждый запрос тратится электричества столько же, сколько при просмотре телевизора в течение девяти секунд. Google на основе данных о сокращении выбросов в ЦОД и декарбонизации энергопоставок полагает, что за последние 12 месяцев энергопотребление и общий углеродный след сократились в 33 и 44 раза соответственно. В компании надеются, что исследование внесёт вклад в усилия по разработке эффективного ИИ для общего блага.

Методологии расчёта энергопотребления учитывает энергию, потребляемую активными ИИ-ускорителями (TPU), CPU, RAM, а также затраты простаивающих машин и общие расходы ЦОД. При этом из расчёта исключаются затраты на передачу данных по внешней сети, энергия устройств конечных пользователей, расходы на обучение моделей и хранение данных.

 Источник изображений: Google

Источник изображений: Google

Впрочем, по мнению некоторых экспертов, данные вводят в заблуждение, поскольку часть информации не учитывается. Так, не принимается в расчёт «косвенное» использование воды, поскольку считается только вода, которую ЦОД применяют для охлаждения, хотя значительная часть водопотребления приходится на генерирующие мощности, а не на их потребителей. Кроме того, при учёте углеродных выбросов должны приниматься во внимание не купленные «зелёные сертификаты», а реальное загрязняющее действие ЦОД в конкретной локации с учётом использования «чистой» и «обычной» энергии в местной электросети.

OpenAI также недавно оказалась в центре внимания экспертов и общественности, поскольку появилась информация, что её новейшая модель GPT-5 потребляет более 18 Вт·ч электроэнергии, до 40 Вт·ч на ответ средней длины. Сам глава компании Сэм Альтман (Sam Altman) объявил, что в среднем на выполнение запроса тратится около 0,34 Вт∙ч и около 0,32 мл воды. Это несколько больше, чем заявленные показатели Google Gemini, однако, согласно расчётам исследователей, эти цифры, скорее всего, актуальны для GPT-4o.

Постоянный URL: http://servernews.ru/1128088
18.08.2025 [14:09], Владимир Мироненко

OpenAI намерена потратить триллионы долларов на ИИ-инфраструктуру, но для начала их надо где-то найти

Генеральный директор OpenAI Сэм Альтман (Sam Altman) рассчитывает, что со временем компания потратит на создание ИИ-инфраструктуры триллионы долларов — однако нужно найти способ привлечь такие средства для реализации его планов, пишет Bloomberg.

«Следует ожидать, что OpenAI потратит триллионы долларов на строительство ЦОД в “недалёком будущем”», — заявил Альтман журналистам в ходе брифинга. Он добавил, что «кучка экономистов» назовёт это безрассудством, на что будет ответ: «Знаете что? Позвольте нам заниматься своим делом». По словам Альтмана, стартап разрабатывает новый способ финансирования. «Мы можем разработать очень интересный новый вид инструмента для финансов и вычислений, который мир ещё не изобрел», — сказал он. Ранее было объявлено, что в течение четырёх лет на инфраструктурный проект Stargate будет израсходовано $500 млрд, но Альтман предполагает выйти далеко за рамки этой суммы.

 Источник изображения: Levart_Photographer/unsplash.com

Источник изображения: Levart_Photographer/unsplash.com

Альтман также сообщил, что видит параллели между нынешним инвестиционным ажиотажем в области ИИ и пузырём доткомов в конце 1990-х годов. По его словам, в обоих случаях «умные люди» были «чрезмерно воодушевлены» новой технологией. Но в каждом случае, по его мнению, эта технология была «реальной» и в конечном итоге должна была оказать долгосрочное влияние на деловой мир и общество.

Глава OpenAI заявил, что считает развитие ИИ-технологий самым важным событием за очень долгое время, отметив, что «общество в целом» вряд ли пожалеет об огромных инвестициях в ИИ, но также признал, что считает некоторые текущие оценки стартапов «безумными» и «иррациональными»: «Кто-то на этом обожжётся». Несмотря на то, что OpenAI «потратит много денег», в конечном итоге это окупится и принесёт «огромную прибыль», пообещал Сэм Альтман: «Для нас очень разумно продолжать инвестировать прямо сейчас».

Планы OpenAI также включают первичное публичное размещение акций в будущем, но Альтман отказался назвать конкретные сроки проведения IPO. «Я думаю, что когда-нибудь нам, вероятно, придётся выйти на биржу», — сказал гендиректор, отметив, что он не очень «хорошо подходит» для должности гендиректора публичной компании. В настоящее время OpenAI завершает сложную корпоративную реструктуризацию, которая продолжается уже несколько месяцев, отмечает Bloomberg.

Постоянный URL: http://servernews.ru/1127803
14.08.2025 [17:29], Руслан Авдеев

Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие модели

Недавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют.

По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч.

Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США.

 Источник изображения: Dean Brierley / Unsplash

Источник изображения: Dean Brierley / Unsplash

В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3.

Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений.

 Источник изображения: Tim King / Unsplash

Источник изображения: Tim King / Unsplash

Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o.

Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.

Постоянный URL: http://servernews.ru/1127619
14.08.2025 [13:57], Руслан Авдеев

Windows 365 Reserve предложит на время облачный ПК на случай проблем с физическим

Пользователи Windows 11 смогут пользоваться виртуальными копиями своих компьютеров в облаке в случае поломки ПК. Компаниям предлагается доступ к виртуальным машинам в облаке Azure, если откажет железо или программное обеспечение, сообщает The Register.

По словам Microsoft, в условиях постоянного подключения к Сети сбой даже одного устройства может негативно сказаться на работе всей организации, что снизит производительность, создаст дополнительную нагрузку на IT-отделы и др. Как заявляют в компании, если возможные сбои умножить на тысячи сотрудников, последствия станут «колоссальными».

Для тех, кто хочет сохранить работоспособность IT-инфраструктуры в любых условиях, предлагается сервис Windows 365 Reserve. Он позиционируется как современное, безопасное и масштабируемое решение, помогающее сотрудникам сохранять продуктивность и быть на связи даже в непредвиденных обстоятельствах. Сервис предназначен для бизнес-пользователей, при этом подписка Reserve не связана с основным продуктом Windows 365.

 Источник изображения: Jonathan Borba/unspalsh.com

Источник изображения: Jonathan Borba/unspalsh.com

Клиенты могут получить доступ к «временному, безопасному и выделенному облачному ПК», пользоваться которым можно будет до 10 дней, если основная машина выйдет из строя. Виртуальные машины размещаются на облачной платформе Microsoft и управляются через Microsoft Intune, так что их можно предварительно настроить для быстрого развёртывания. Проблема в том, что для использования такого облачного ПК всё равно потребуется ещё одно устройство, имеющее хотя бы рабочий веб-браузер — желательно… ещё один ПК.

Ещё одно препятствие для пользователей Windows 365 Reserve — проблема «масштабирования» в случаях, когда неудачное обновление, атака вируса или другая масштабная проблема одновременно оставит без возможности использовать традиционные ПК сразу несколько пользователей. В Microsoft признают, что Windows 365 Reserve ограничен ёмкостью облака Azure и, конечно, требует сетевого подключения для использования виртуального ПК.

Пока желающие протестировать Windows 365 Reserve могут подать заявку для доступа к закрытой бета-версии. Участвовать могут только избранные: клиенты Microsoft, MVP-эксперты или партнёры компании, у которых есть лицензии Windows E3, Intune и Azure Active Directory P1 (AADP1).

Участники бета-теста Windows 365 Reserve должны выполнить набор тестовых сценариев — как для администраторов, так и для конечных пользователей, предоставив обратную связь о своём опыте использования нового сервиса. Соискателям с одобренными заявками будет предоставлен бесплатный доступ к платформе на срок до 12 недель.

Постоянный URL: http://servernews.ru/1127628
08.08.2025 [12:44], Руслан Авдеев

OpenAI похвасталась, что на GPT-5 «ушло» 200 тыс. ИИ-ускорителей, а с 2024 года её вычислительные мощности выросли в 15 раз

Одновременно с премьерой новейшей ИИ-модели GPT-5 компания OpenAI рассказала некоторые подробности о своей инфраструктуре. В частности, появилась информация о том, что с 2024 года компания нарастила вычислительные мощности в 15 раз, сообщает Datacenter Dynamics.

По словам представителя компании, только за последние 60 дней было развёрнуто более 60 кластеров, сформирована цифровая магистраль, пропускающая больше трафика, «чем целые континенты», а также задействовано более 200 тыс. ИИ-ускорителей для запуска LLM GPT-5 для 700 млн человек. Дополнительно ведётся подготовка ещё 4,5 ГВт мощностей для «сверхразума».

Стало известно и о вакансиях для проекта Stargate, курируемого OpenAI. Было заявлено, что сегодня небольшая команда строит ИИ-инфраструктуру планетарного масштаба беспрецедентными темпами. Она нанимает специалистов в сфере обработки данных, энергетики, ЦОД, планирования новых мощностей, развития бизнеса, финансов и др.

 Источник изображения: Felix Mittermeier/unsplash.com

Источник изображения: Felix Mittermeier/unsplash.com

При этом компания «агрессивно» нанимает людей в команду Stargate, при этом преимущественно полагаясь на Oracle. Так, в июле компании подтвердили сделку по аренде 4,5 ГВт для проекта Stargate в США. Как ожидается, сделка будет обходиться в $30 млрд ежегодно. Впрочем, не так давно сообщалось, что OpenAI по-прежнему планирует самостоятельно строить собственные дата-центры.

Также компания намерена построить кампус ЦОД Stargete в Объединённых Арабских Эмиратах (ОАЭ) при участии других IT-гигантов, включая Oracle, NVIDIA, Cisco, SoftBank и G42. В Европе компания уже работает над дата-центром в Норвегии совместно с Nscale. Кроме того, она ищет площадки для новых инициатив по всему миру. При этом развитием инфраструктуры занимается в основном сама OpenAI, а сам проект Stargate развивается не так быстро, как планировалось.

Постоянный URL: http://servernews.ru/1127321
07.08.2025 [16:00], Владимир Мироненко

В Yandex Cloud AI Studio появились открытые модели OpenAI

Yandex B2B Tech открыла API-доступ на платформе Yandex Cloud AI Studio к новым рассуждающим open source моделям OpenAI gpt-oss-120b и gpt-oss-20b. С помощью новых моделей можно создавать агентские системы для выполнения различных задач, например, для автоматизации рекрутмента и технической поддержки, анализа и обработки документов и первичной коммуникации с клиентами, говорит компания.

Доступность новых моделей по API позволяет российскому бизнесу использовать технологии OpenAI в бизнес-процессах без задействования собственной инфраструктуры. Использовать ИИ-модели напрямую у разработчика российским компаниям вряд ли удастся, так как для этого нужно передавать данные для обработки за рубеж, что идёт вразрез с требованиями российского законодательства. Как отметила Yandex B2B Tech, при использовании Yandex Cloud AI Studio данные компаний хранятся и обрабатываются в российских ЦОД, и её сервис полностью соответствует требованиям закона «О персональных данных».

 Источник изображения: Yandex Cloud

Источник изображения: Yandex Cloud

Сообщается, что указанные нейросети сопоставимы по качеству с ведущими моделями OpenAI o3-mini и o4-mini, и в некоторых сценариях превосходят GPT-4o и o1. В них допускается регулировка интенсивности рассуждений и скорости генерации ответа. Вскоре для этих моделей будет доступен вызов функций для взаимодействия с внешними приложениями, что позволит осуществлять поиск информации в интернете при генерации ответа.

Постоянный URL: http://servernews.ru/1127267
06.08.2025 [10:11], Сергей Карасёв

MSI выпустила ультратонкий индустриальный компьютер MS-C926 на базе Intel Alder Lake-N и Twin Lake

Компания MSI анонсировала компьютер небольшого форм-фактора MS-C926, предназначенный для использования в индустриальной и коммерческой сферах. Устройство подходит для периферийных вычислений, систем промышленного контроля и пр.

В основу новинки положена аппаратная платформа Intel Alder Lake-N/Twin Lake. На выбор предлагаются чипы Intel Processor N97 (четыре ядра; до 3,6 ГГц; 12 Вт), Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт), Intel Processor N250 (четыре ядра; до 3,8 ГГц; 6 Вт) и Core i3-N355 (восемь ядер; до 3,9 ГГц; 15 Вт). Поддерживается до 16 Гбайт оперативной памяти DDR5-4800 в виде одного модуля SO-DIMM.

Компьютер заключён в ультратонкий корпус толщиной 19 мм. Применено пассивное охлаждение, а ребристая внешняя поверхность выполняет функции радиатора. Диапазон рабочих температур простирается от -10 до +50 °C. Возможен монтаж посредством крепления VESA.

 Источник изображений: MSI

Источник изображений: MSI

Внутри есть посадочное место для одного SFF-накопителя (SSD или HDD). Кроме того, предусмотрены слот M.2 B-Key 2242/3042/2280 (PCIe x1/SATA, USB 3.2 Gen2, USB 2.0, Nano-SIM) для SSD или модема 4G/5G, а также коннектор M.2 E-Key 2230 (PCIe x1, USB 2.0) для адаптера Wi-Fi. Устройство оснащено двумя сетевыми контроллерами Intel I226-V стандарт 2.5GbE, звуковым кодеком Realtek ALC897 HD Audio и TMP-чипом Infineon SLB9672VU2.0.

Допускается вывод изображения одновременно на три дисплея через два интерфейса DisplayPort и разъём HDMI 2.0: во всех случаях поддерживается разрешение до 4096 × 2304 точки (60 Гц). Упомянуты два гнезда RJ45 для сетевых кабелей, три порта USB 3.2 Gen1 и один порт USB 2.0, аудиовыход на 3,5 мм и последовательный порт. Питание в диапазоне 12–24 В подаётся через DC-разъём. Общие габариты составляют 180 × 255 × 19 мм, масса — 1,3 кг. Заявлена совместимость с Windows 10/11 IoT Enterprise LTSC и Linux.

Постоянный URL: http://servernews.ru/1127171
06.08.2025 [10:10], Сергей Карасёв

Кластер на ладони: Sipeed NanoCluster позволяет объединять до семи модулей Raspberry Pi CM4/CM5

Компания Sipeed, по сообщению CNX-Software, начала продажи изделия NanoCluster — специализированной платы, которая позволяет формировать мини-кластеры на основе таких вычислительных модулей (SoM), как Raspberry Pi CM4, Raspberry Pi CM5, Sipeed LM3H, Sipeed M4N и др.

Новинка оснащена семью сдвоенными коннекторами M.2 M-Key для подключения SoM. В случае CM4, CM5 и M4N установка осуществляется через специальные адаптеры, на обратной стороне которых имеется слот для SSD в форм-факторе M.2 с интерфейсом PCIe. Таким образом, в максимальной конфигурации могут быть объединены до семи вычислительных модулей и до семи твердотельных накопителей.

 Источник изображения: CNX-Software

Источник изображения: CNX-Software

NanoCluster располагает интерфейсом HDMI (подключён к слоту №1), сетевым портом 1GbE (RJ45), двумя портами USB 2.0 Type-A, а также разъёмом USB Type-C PD (до 60 Вт). За обмен данными между вычислительными модулями отвечает 8-портовый коммутатор JL6108 Gigabit Ethernet на базе RISC-V. Опционально может быть реализована поддержка PoE с бюджетом мощности 60 Вт. Предусмотрен 2-контактный коннектор для вентилятора охлаждения диаметром 60 мм. Размеры платы NanoCluster составляют 88 × 57 мм, а полная сборка с установленными SoM и кулером имеет габариты 100 × 60 × 60 мм.

Несмотря на наличие семи слотов, при работе с Raspberry Pi CM5 рекомендуется использовать только четыре–пять модулей из-за проблем с питанием и охлаждением, особенно при подключении M.2 SSD. В частности, может наблюдаться троттлинг. Мини-кластер подходит для обучения и экспериментов с распределёнными и периферийными вычислениями, Kubernetes, Docker и пр. Цена собственно платы NanoCluster составляет около $50, а, например, комплект с четырьмя модулями Sipeed M4N обойдётся в $700.

Постоянный URL: http://servernews.ru/1127163
05.08.2025 [17:27], Руслан Авдеев

Honda и Mitsubishi запитают японский ЦОД от б/у водородных элементов

Японский автоконцерн Honda начинает реализацию демо-проекта, в рамках которого дата-центр будет питаться за счёт электростанции, использующей топливные элементы, отработавших свой срок службы в электромобилях Honda CR-V e:FCEV. Речь идёт об элементах, использующих водород, получаемый в качестве побочного продукта в промышленности, сообщает Datacenter Dynamics. Проект, анонсированный в январе прошлого года, реализуется совместно с Tokuyama Corporation и Mitsubishi Corporation.

Водород для таких элементов получается в процессе электролиза солёной воды компанией Tokuyama. Элементы будут применяться для питания распределённого ЦОД Mitsubishi в городе Сюнан (Shunan) префектуры Ямагути. Проект намерены реализовать с августа 2025 года по март 2026 года.

В рамках демонстрационной генерации компании намерены изучить, как выведенные из эксплуатации топливные системы электромобилей можно повторно использовать в «стационарных» условиях — возможно, это сократит расходы пользователей и будет способствовать переходу на «чистую» энергию. Энергия в ходе демонстрации будет от электростанции на топливных элементах, энергосети, стационарного аккумуляторного хранилища и возобновляемых источников. Это позволит выявить самые эффективные конфигурации электропитания для разных режимов работы ЦОД.

 Источник изображения: Honda

Источник изображения: Honda

В частности, водородные элементы можно будет применять в качестве резервного или основного питания, для ограничения потребления в моменты пиковых нагрузок на сеть и для балансировки спроса и предложения в сети, включая возврат энергии в электросеть. Система питания может включать до четырёх 250-кВт модулей (суммарно до 1 МВт). Время запуска элементов составляет менее 10 секунд, использование водорода обеспечивает нулевой уровень выбросов. Более того, решение можно масштабировать в соответствии с потребностями клиентов. Общая мощность ЦОД и всех топливных элементов пока не названа.

Электромобили на водородных элементах пока слабо распространены, в основном из-за относительно низкой эффективности технологии. Однако всё чаще они используются в качестве источника энергии для дата-центров, особенно в США. Там, например, Bloom Energy уже подписала соглашение с Oracle о внедрении элементов в своих ЦОД, и ожидается, что внедрение будет завершено в ближайшие три месяца. В мае DataVolt и Supermicro анонсировали сделку на $20 млрд по ускоренному развёртыванию экологичных ИИ ЦОД с использованием водородной энергетики.

В Азиатско-Тихоокеанском регионе активность не так высока, но в июле FuelCell Energy совместно с Inuverse изучала возможность развернуть электростанцию на водородных элементах мощностью до 100 МВт в ЦОД в Тэгу (Daegu), Южная Корея.

Постоянный URL: http://servernews.ru/1127124
05.08.2025 [12:11], Руслан Авдеев

Hyundai поможет Fermi America построить в Техасе «ядерный» ЦОД HyperGrid

Ядерная энергетика в США переживает своеобразное возрождение — гиперскейлеры и компании поменьше столкнулись с ненасытными аппетитами ИИ. На этом фоне Fermi America выбрала южнокорейскую Hyundai для поддержки развёртывания до 6 ГВт ядерных мощностей в рамках проекта HyperGHrid в Амарилло (Amarillo, Техас), сообщает The Register. Проект строительства «крупнейшего в мире энергетического кампуса» поддержан политиками и инвесторами. Его цель — превратить Техас в крупнейший энергетический и вычислительный центр США.

Строительство в Амарилло первого из четырёх реакторов Westinghouse AP1000 планируется начать в 2026 году. Согласно меморандуму, к 2032 году АЭС будет снабжать электричеством ЦОД напрямую. Пока нет гарантий, что проект площадью 2,3 тыс. га действительно будет реализован полностью, но курировать его в любом случае будет Hyundai. Компания хорошо разбирается в атомной энергетике и уже участвовала в развёртывании 22 реакторов.

Проект будет довольно дорогим. Один реактор AP1000 оценивался два года назад в $6,8 млрд. Впрочем, с масштабами проектов гиперскейлеров и облачных гигантов это несопоставимо — они ежегодно тратят десятки миллиардов долларов. Правда, строительство может оказаться не таким уж дешёвым и быстрым. Например, на строительство двух аналогичных реакторов в Джорджии ушло 15 лет и более $36 млрд. Конечно, ситуацию не улучшило и банкротство Westinghouse в 2017 году, в самый разгар строительства.

 Источник изображения:  Gabriel Tovar/unsplash.com

Источник изображения: Gabriel Tovar/unsplash.com

Как именно Fermi America намерена оплатить строительство хотя бы одного реактора AP1000, не говорится. Известно, что Hyundai также поддержит развертывание газовых электростанций с парогазовым циклом мощностью 4 ГВт, 1 ГВт солнечных электростанций и накопителей, а также малых модульных реакторов (SMR) на 2 ГВт. Кто именно будет поставщиком SMR, пока не сообщается. На данный момент только NuScale ближе всех к запуску своего первого SMR.

Пока Fermi America и Hyundai решают вопросы с регуляторами относительно ядерного проекта, строительство «газовой» части 11-ГВт мегапроекта уже началось. В июле Fermi America сообщила о намерении купить газогенераторы мощностью 600 МВт для поддержки первых дата-центров, которые должны быть запущены до конца текущего года. Речь идёт о шести газовых турбинах Siemens Energy SGT800, и одной паровой турбине SST600, которые в совокупности обеспечат 478 МВт. Также Fermi America объявила о покупке «восстановленных» турбин GE Frame 6B мощностью 135 МВт. По словам компании, новые генераторы на треть «чище» традиционных, а использование специальных каталитических систем дополнительно сократит выбросы. К концу 2026 года Fermi America намерена довести генерацию до 1 ГВт.

Впрочем, это далеко не первая компания, предложившая концепцию «атомных» ЦОД. За последние годы появилось множество подобных инициатив. Ещё в 2023 году Green Energy Partners представила концепцию строительства огромного ЦОД в Вирджинии, полностью работающего на SMR и водородных генераторах. Не так давно Amazon потратила $650 млн, чтобы приобрести объекты Cumulus Data у АЭС Susquehanna. Microsoft намерена возродить АЭС Three Mile Island, Мета выкупила всю энергию АЭС Clinton Clean Energy Center на 20 лет вперёд, а Oracle заявлила о намерении развернуть три SMR общей мощностью более 1 ГВт.

Постоянный URL: http://servernews.ru/1127106

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus