Материалы по тегу: цод
|
14.10.2025 [20:58], Владимир Мироненко
Oracle анонсировала крупнейший в мире зеттафлопсный ИИ-кластер OCI Zettascale10: до 800 тыс. ускорителей NVIDIA в нескольких ЦОД
800gbe
ethernet
hardware
hpc
nvidia
oracle
oracle cloud infrastructure
stargate
ии
интерконнект
кластер
сша
цод
Oracle анонсировала облачный ИИ-кластер OCI Zettascale10 на базе сотен тысяч ускорителей NVIDIA, размещённых в нескольких ЦОД, который имеет пиковую ИИ-производительность 16 Зфлопс (точность вычислений не указана). OCI Zettascale10 — это инфраструктура, на которой базируется флагманский ИИ-суперкластер, созданный совместно с OpenAI в техасском Абилине (Abilene) в рамках проекта Stargate и основанный на сетевой архитектуре Oracle Acceleron RoCE нового поколения. OCI Zettascale10 использует NVIDIA Spectrum-X Ethernet — первую, по словам NVIDIA, Ethernet-платформу, которая обеспечивает высокую масштабируемость, чрезвычайно низкую задержку между ускорителями в кластере, лидирующее в отрасли соотношение цены и производительности, улучшенное использование кластера и надежность, необходимую для крупномасштабных ИИ-задач. Как отметила Oracle, OCI Zettascale10 является «мощным развитием» первого облачного ИИ-кластера Zettascale, который был представлен в сентябре 2024 года. Кластеры OCI Zettascale10 будут располагаться в больших кампусах ЦОД мощностью в гигаватты с высокоплотным размещением в радиусе двух километров, чтобы обеспечить наилучшую задержку между ускорителями для крупномасштабных задач ИИ-обучения. Именно такой подход выбран для кампуса Stargate в Техасе. Oracle отметила, что помимо возможности создавать, обучать и развёртывать крупнейшие ИИ-модели, потребляя меньше энергии на единицу производительности и обеспечивая высокую надёжность, клиенты получат свободу работы в распределённом облаке Oracle со строгим контролем над данными и суверенитетом ИИ. Изначально кластеры OCI Zettascale10 будут рассчитаны на развёртывание до 800 тыс. ускорителей NVIDIA, обеспечивая предсказуемую производительность и высокую экономическую эффективность, а также высокую пропускную способность между ними благодаря RoCEv2-интерконнекту Oracle Acceleron со сверхнизкой задержкой. Acceleron предлагает 400G/800G-подключение со сверхнизкой задержкой, двухуровневую топологию, множественное подключение одного NIC к нескольким коммутатором с физической и логической изоляцией сетевых потоков, поддержку LPO/LRO и гибкость конфигурации. DPU Pensando от AMD в Acceleron место тоже нашлось. OCI уже принимает заказы на OCI Zettascale10, который поступит в продажу во II половине следующего календарного года. В августе NVIDIA анонсировала решение Spectrum-XGS Ethernet для объединения нескольких ЦОД в одну ИИ-суперфабрику, которым, по-видимому, воспользуется не только Oracle, но и Meta✴.
14.10.2025 [17:24], Руслан Авдеев
ABB поддержит NVIDIA во внедрении 800 В питания для мегаваттных ИИ-стоекКомпания ABB Group, специализирующаяся на электрификации и автоматизации, объявила об ускоренной разработке новых решений для дата-центров совместно с NVIDIA. В первую очередь речь идёт о создании и внедрении передовых энергетических решений, необходимых для эффективной и масштабируемой подачи энергии, сообщает пресс-служба ABB. ABB будет развивать платформу 800 В DC для мегаваттных серверных стоек. Прогнозируется, что мировой спрос на ЦОД вырастет с 80 ГВт в 2024 году до около 220 ГВт к 2030 году. Капитальные затраты, по мнению экспертов, превысят $1 трлн, сообщает Dell'Oro Group. На рабочие нагрузки ИИ придётся порядка 70 % этого роста. Чтобы эффективно обеспечивать мощность такого уровня, потребуются новые технологии и архитектура распределения электроэнергии. Будущие ЦОД получат комбинацию источника бесперебойного питания среднего напряжения (MV) и систему распределения постоянного тока в серверных с использованием твердотельных преобразователей, заменяющих классические трансформаторы и иные компоненты.
Источник изображения: Frames For Your Heart/unsplash.com В ABB заявляют, что компания возглавляет разработку новых технологий распределения электричества, позволяющих создавать дата-центры нового поколения. Утверждается, что она одной из первых стала инвестировать в новые ИБП, DC-системы и твердотельные компоненты. Портфолио решений ABB для дата-центров включает интеллектуальные системы распределения электроэнергии, специальные решения для резервного питания ЦОД, средства цифрового мониторинга и прочие ключевые технологии, обеспечивающие бесперебойную работу оборудования и оптимизирующие использование энергии для ИИ-серверов. Около 40 % научных исследований ABB в сфере электроснабжения приходится на тематики, имеющие решающее значение для ЦОД нового поколения — это касается работ в области электрической архитектуры, систем защиты, распределения постоянного тока и охлаждения. В конце мая сообщалось, что Infineon Technologies объединит усилия с NVIDIA для разработки централизованной архитектуры высоковольтного питания постоянным током (HVDC) на 800 В для нужд ИИ ЦОД.
14.10.2025 [13:26], Руслан Авдеев
«Нервная система» ИИ-фабрик: Meta✴ и Oracle развернут сетевые платформы NVIDIA Spectrum-X Ethernet в своих ЦОДNVIDIA объявила, что Meta✴ и Oracle развернут в своих ИИ ЦОД Ethernet-платформы NVIDIA Spectrum-X. В NVIDIA подчёркивают, что модели на триллионы параметров трансформируют дата-центры в ИИ-фабрики гигаваттного уровня, а лидеры индустрии стандартизируют использование решений Spectrum-X Ethernet в качестве одного из драйверов промышленной революции. По словам компании, речь идёт не просто о быстром Ethernet, а о «нервной системе» ИИ-фабрик, позволяющей гиперскейлерам объединять миллионы ИИ-ускорителей в гигантские кластеры для обучения крупнейших за всю историю моделей. Oracle намерена строить ИИ-гигафабрики из ускорителей NVIDIA Vera Rubin с интерконнектами Spectrum-X Ethernet. В Oracle подчёркивают, что инфраструктура Oracle Cloud «с нуля» строится для ИИ-задач, и партнёрство с NVIDIA способствует лидерству Oracle в сфере ИИ. Использование Spectrum-X Ethernet позволит клиентам связывать миллионы ускорителей и быстрее обучать, внедрять и пользоваться благами генеративных и «рассуждающих» ИИ нового поколения. Meta✴ намерена интегрировать коммутаторы в свою сетевую инфраструктуру для программной платформы Facebook✴ Open Switching System (FBOSS), как раз разработанной для управления и контроля массивами сетевых коммутаторов. Интеграция решений ускорит масштабное внедрение для повышения эффективности ИИ-проектов. Интеграция NVIDIA Spectrum Ethernet в коммутатор Minipack3N и использование FBOSS позволит повысить эффективность и предсказуемость, необходимые для обучения крупнейших в истории ИИ-моделей и доступа к ИИ-приложениям миллионам людей.
Источник изображения: NVIDIA Платформа NVIDIA Spectrum-X Ethernet включает как собственно коммутаторы Spectrum-X Ethernet, так и адаптеры Spectrum-X Ethernet SuperNIC. Spectrum-X Ethernet уже продемонстрировала рекордную эффективность, позволившую крупнейшему в мире суперкомпьютеру Colossus компании xAI добиться использования 95 % возможной полосы, тогда как обычные Ethernet-платформы обеспечивают лишь 60 %, утверждает NVIDIA.
Источник изображения: Meta✴ В июне сообщалось, что продажи Ethernet-коммутаторов NVIDIA за год выросли на 760 % благодаря росту спроса на ИИ, а в последнем квартале рост составил +98 %. Акции Arista, одного из ключевых поставщиков коммутаторов для Meta✴, упали после анонса NVIDIA и объявления Meta✴, что коммутаторы Minipack3N теперь используют ASIC Spectrum-4 и производятся Accton.
14.10.2025 [12:46], Владимир Мироненко
OpenAI и Broadcom совместно разработают и развернут ИИ-ускорители на 10 ГВтOpenAI и Broadcom объявили о заключении соглашения о стратегическом сотрудничестве с целью совместного создания и дальнейшего развёртывания кастомных ИИ-ускорителей общей мощностью 10 ГВт. Речь идёт об вертикально интегрированных решениях уровня стоек и ЦОД. OpenAI отметила в пресс-релизе, что при разработке собственных чипов и систем сможет интегрировать имеющиеся достижения в создании передовых моделей и продуктов непосредственно в аппаратное обеспечение. «Стойки, полностью масштабируемые с использованием Ethernet и других сетевых решений Broadcom, удовлетворят растущий глобальный спрос на ИИ и будут развёрнуты на объектах OpenAI и в партнёрских ЦОД», — сообщила компания. Начало развертывания систем запланировано на II половину 2026 года, а завершение — на конец 2029 года. «Партнёрство с Broadcom — критически важный шаг в создании инфраструктуры, необходимой для раскрытия потенциала ИИ и предоставления реальных преимуществ людям и бизнесу», — заявил Сэм Альтман (Sam Altman), соучредитель и генеральный директор OpenAI. Он отметил, что разработка собственных ускорителей дополняет более широкую экосистему партнёров, которые вместе создают потенциал, «необходимый для расширения возможностей ИИ на благо всего человечества». Чарли Кавас (Charlie Kawwas), президент группы полупроводниковых решений Broadcom сообщил, что кастомные ускорители «прекрасно сочетаются со стандартными сетевыми решениями Ethernet для масштабирования и горизонтального масштабирования», позволяя создать оптимизированную по стоимости и производительности ИИ-инфраструктуру нового поколения. По его словам, стойки будут включать комплексный набор решений Broadcom для Ethernet, PCIe и оптических соединений. Как пишет The Register, президент OpenAI Грег Брокман (Greg Brockman) рассказал, что при разработке ускорителя компания смогла использовать собственные ИИ-модели, которые позволили оптимизировать и ускорить процесс. По его словам, благодаря этому удалось увеличить плотность размещения компонентов. «Вы берёте компоненты, которые уже оптимизированы людьми, просто указываете для них вычислительные мощности, и модель сама предлагает решение», — цитирует Брокмана SiliconANGLE. Компании не уточнили, какие именно продукты Broadcom будут использоваться в рамках партнёрства. Вполне возможно, что это будет анонсированный на прошлой неделе Ethernet-коммутатор TH6-Davisson, оптимизированный для ИИ-кластеров и обеспечивающий пропускную способность до 102,4 Тбит/с, что, по заявлению компании, вдвое превышает показатели изделий ближайшего конкурента. Также Broadcom поставляет линейку PCIe-коммутаторов серии PEX и ретаймеры. Ранее в этом месяце OpenAI заключила соглашение с AMD на поставку ИИ-ускорителей AMD нескольких поколений общей мощностью 6 ГВт для обеспечения своей ИИ-инфраструктуры. По предварительным оценкам, стоимость контракта составляет $60–$80 млрд. В сентябре NVIDIA объявила о соглашении с OpenAI на поставку ускорителей для развёртывания ИИ-инфраструктуры мощностью не менее 10 ГВт с сопутствующими инвестициями в размере $100 млрд. Broadcom в сентябре сообщила о получении заказа от нового клиента на разработку и поставку кастомного ИИ-чипа на сумму более $10 млрд. По мнению аналитиков, речь шла как раз об OpenAI. Создание сети взаимозависимостей означает, что несколько технологических компаний с оборотом в миллиарды долларов кровно заинтересованы в успехе OpenAI, отметил The Register. При этом OpenAI заявляет, что у неё не будет положительного денежного потока ещё четыре года и вместе с тем планирует в течение этого периода значительно увеличить расходы на инфраструктуру ЦОД. Такой подход вызывает опасения у экспертов, заявляющих, что подобные сделки указывают на своего рода пузырь на ИИ-рынке, поскольку компании оперируют такими терминами, как гигаватты и токены, вместо таких «скучных старых терминов», как выручка или доход.
14.10.2025 [02:00], Сергей Карасёв
OCP запустила инициативу Open Data Center for AI для стандартизации инфраструктуры передовых ИИ ЦОД с мегаваттными стойкамиНекоммерческая организация Open Compute Project Foundation (OCP) анонсировала инициативу Open Data Center for AI по стандартизации компонентов физической инфраструктуры дата-центров, ориентированных на задачи ИИ и другие ресурсоёмкие нагрузки. Проект Open Data Center for AI является частью программы OCP Open Systems for AI, которая была представлена в январе 2024 года при участии Intel, Microsoft, Google, Meta✴, NVIDIA, AMD, Arm, Ampere, Samsung, Seagate, SuperMicro, Dell и Broadcom. Цель заключается в разработке открытых стандартов для кластеров ИИ и ЦОД, в которых размещаются такие системы. Запуск Open Data Center for AI продиктован быстрым развитием экосистемы дата-центров, результатами, полученными в рамках OCP Open Systems for AI, и новым открытым письмом о сотрудничестве, подготовленным Google, Meta✴ и Microsoft. В настоящее время, как отмечается, отрасль ЦОД сталкивается с проблемами, связанными с тем, что разрозненные усилия её участников, включая гиперскейлеров и колокейшн-провайдеров, порождают различные требования к проектированию инфраструктуры. Это замедляет внедрение инноваций и увеличивает сроки развёртывания передовых площадок. Цель Open Data Center for AI заключается в том, чтобы стандартизовать требования к системам электропитания, охлаждения и телеметрии, а также к механическим компонентам в ЦОД. Предполагается, что это обеспечит взаимозаменяемость элементов физической инфраструктуры дата-центров. При реализации инициативы Open Data Center for AI планируется использовать уже имеющиеся наработки сообщества OCP в области блоков распределения охлаждающей жидкости (CDU) и блоков распределения питания (PDU). Это, в частности, проект Mt. Diablo, который реализуется Meta✴, Microsoft и Google. Он предполагает создание общих стандартов электрических и механических интерфейсов. Идея заключается в разделении стойки на независимые шкафы для компонентов подсистемы питания и вычислительного оборудования. При этом планируется переход от единой шины питания постоянного тока с напряжением 48 В на архитектуру 400 В DC (Diablo 400). Ещё одним проектом, наработки которого пригодятся в рамках Open Data Center for AI, назван CDU Deschutes, разработанный Google. Это решение с резервными теплообменниками и насосами обеспечивает уровень доступности 99,999 %. Система Deschutes рассчитана на тепловые нагрузки до 2 МВт. Открытая спецификация позволит любой компании совершенствовать конструкцию CDU и производить изделия данного типа. Наконец, упоминаются серверные шасси Clemente, разработанные в Meta✴. Это узлы 1U, содержащие два суперчипа NVIDIA Grace Blackwell GB300 для ресурсоёмких ИИ-нагрузок. Платформа предполагает применение жидкостного охлаждения для CPU, GPU и коммутатора, а также воздушного охлаждения для других компонентов.
13.10.2025 [16:45], Руслан Авдеев
Microsoft не хватает ЦОД и серверов в США, причём не только для ИИПроблемы с дата-центрами Microsoft сохранятся дольше, чем рассчитывала компания. Это подчёркивает трудности, с которыми она сталкивается в своём стремлении удовлетворить спрос на облачные технологии, сообщает Bloomberg. Источники, знакомые с внутренними прогнозами Microsoft, сообщают, что во многих облачных регионах на территории США не хватает физического пространства и/или серверов. В некоторых ключевых регионах, включая Северную Вирджинию и Техас, новые подписки на сервисы Azure ограничат до I половины 2026 года. Это дольше, чем компания заявляла ранее. В июле её представитель сообщал, что действующие ограничения сохранятся до конца 2025 года. Нехватка мощностей касается как оборудования с ИИ-ускорителями, так и традиционных серверов, долгое время бывших костяком классических облачных сервисов. Двигателем роста Microsoft является облачное подразделение Azure, которое в 2025 финансовом году принесло более $75 млрд. По темпам развития оно опережает крупнейших конкурентов AWS и Google Cloud. Нехватка серверов для сдачи в аренду клиентам постоянно препятствует выполнению планов гиперскейлеров. В ходе шести последних квартальных отчётов Microsoft последовательно заявляла о неспособности удовлетворить спрос на облачные услуги, у AWS и Google проблемы очень похожие. Представитель Microsoft, впрочем, заявлял, что Azure в США имеет достаточно ресурсов для роста, на пиковые периоды компания может использовать специальные методы распределения мощностей, позволяющие распределить нагрузку между ЦОД, чтобы обеспечить стабильную работу всех пользователей, избегая дефицита ресурсов в отдельных регионах. В норме клиенты Azure выбирают облачные регионы с учётом их физической близости и доступных сервисов, но в некоторых случаях, если ресурсов недостаточно, менеджеры Microsoft рекомендуют другие объекты. Тем не менее такие обходные пути могут усложнить работу и увеличить время передачи данных между ЦОД и клиентом. В Hexaware Technologies сообщают, что те, кому не хватает ресурсов Azure, переносят нагрузки в другие места, используют несколько регионов Azure или отправляют в облако только критически важные нагрузки до высвобождения ресурсов. В исключительных случаях Microsoft даже компенсирует дополнительные непредвиденные расходы. По имеющимся данным, Microsoft только за последний год увеличила мощность ЦОД более чем на 2 ГВт. Интенсивные вычислительные потребности ИИ привели к необходимости создания новых дата-центров. Впрочем, сегодня Microsoft не достаёт и ресурсов традиционной облачной инфраструктуры. По словам источников, OpenAI сегодня является крупнейшим облачным клиентом Microsoft, использующим серверы на основе CPU. Кроме того, такие машины применяет и сама Microsoft для обеспечения работы своих приложений. По слухам, некоторые внутренние проекты закрываются в проблемных регионах для экономии ресурсов. На ввод в эксплуатацию нового ЦОД «с нуля» могут уйти годы. Впрочем, за пределами США доступность ЦОД значительно выше. Например, многие европейские регионы Microsoft могут регистрировать новых клиентов без ограничений. По словам Microsoft, если в январе 2025 года она надеялась, что соотношение спроса и предложения в США улучшится к июню, то позже в компании стали говорить, что оптимистичным сценарием будет улучшение ситуации к декабрю. Впрочем, развитие компании не прекращается. Недавно пресс-служба отчиталась о введении в действие новых мощностей в Азии. Кроме того, Microsoft развернула для OpenAI первый в мире ИИ-кластер на базе суперускорителей NVIDIA GB300 NVL72. Сейчас компания достраивает «самый передовой» ИИ ЦОД в мире Fairwater, а потом потратит $4 млрд на ещё один такой же.
13.10.2025 [09:31], Руслан Авдеев
«Зелёные» надежды стали пеплом: американские ЦОД активно переходят на питание от угольных электростанций из-за спроса на ИИИз-за высоких цен на природный газ и стремительного роста спроса на электричество американские дата-центры начали активно пользоваться энергией с угольных электростанций, сообщает The Register. По словам экспертов Jefferies, операторы ЦОД стремятся получить всё новые мощности, при этом ускоренный рост нагрузки ожидается в 2026–2028 гг. Взлёт спроса на электричество неожиданно дал второе дыхание угольной энергетики, от которой давно собирались отказываться на государственном уровне не только в США, но и других странах. В Соединённых Штатах её использование выросло на 20 %. Эксперты констатируют, что прогноз по «угольной» генерации повышен на 11 %. Ожидается, что она останется на высоком уровне как минимум до 2027 года. Дело в том, что уголь стало выгоднее использовать по сравнению с природным газом, особенно для уже действующих станций. Ранее эксперты уже предупреждали, что из-за роста спроса на электроэнергию в связи с увеличением числа ЦОД в Соединённых Штатах доступных генерирующих мощностей может не хватить, что приведёт к продлению сроков эксплуатации угольных электростанций. Кроме того, операторы ЦОД и гиперскейлеры, вероятно, откажутся от прежних «зелёных» обещаний и попытаются скрыть реальные экологические показатели своей деятельности. Например, в Омахе одна энергокомпания отказалась от сокращения угольной энергетики из-за необходимости обслуживания ближайших ЦОД. В противном случае вероятен дефицит электричества в округе. При этом продолжение работы угольных электростанций влияет на качество воздуха вблизи них и мешает сокращать выбросы парниковых газов. Некоторые экологи характеризуют уголь как «самый грязный способ производства энергии». В отчёте Morgan Stanley за 2024 год прогнозируется, что к 2030 году дата-центры будут выбрасывать в атмосферу 2,5 млрд т парниковых газов в мировом масштабе, втрое больше, чем без развития ИИ-технологий. Газовые генераторы были бы гораздо предпочтительнее, особенно потому, что их можно размещать на территории самих кампусов ЦОД, хотя текущие цены на газ сделали такой вариант менее привлекательным. Впрочем, как сообщает The Financial Times, застройщики обычно предпочитают электростанции, строительство которых проще организовать. Если операторы ЦОД смогут ввести свои объекты в эксплуатацию быстро и с соблюдением экологических нормативов, они это сделают, но временным решением, скорее всего, станут газовые или угольные электростанции.
Источник изображения: Adriano/unsplash.com Текущая политика американских властей дополнительно затрудняет внедрение возобновляемых источников энергии. Администрация президента США принимает меры, мешающие развитию возобновляемой энергетики, в том числе фактически замораживающие процесс утверждения проектов ветряной и солнечной генерации, ссылаясь на из высокую стоимость и проблемы с землепользованием. Это критикуется некоторыми экспертами, утверждающими, что возобновляемые источники или малые модульные реакторы (SMR) смогут обеспечить ЦОД электричеством даже с меньшими затратами, чем классические электростанции. Тем не менее, в сентябре Министерство внутренних дел США (занимается природными ресурсами и федеральными землями) заявило, что настоящая экзистенциальная угроза — не изменения климата, а факт, что «гонку вооружений» в сфере ИИ можно проиграть, если электричества будет недостаточно. Схожей позиции придерживаются и в Министерстве энергетики, утверждая, что к изменению климата стоит относиться лишь как к глобальному физическому явлению, ставшему «побочным эффектом» от построения современного мира. В конце сентября министерство заявляло, что намерено отложить вывод из эксплуатации большинства угольных электростанций страны, чтобы удовлетворить кратный рост спроса на электричество в будущем. В конце апреля Трамп поддержал угольный сектор страны, подписав ряд указов для его реанимации. Впрочем, в остальном мире ситуация не лучше.
12.10.2025 [15:22], Руслан Авдеев
Арест за арестом: причиной возгорания в правительственном ЦОД Южной Кореи могло стать не отключенное вовремя резервное питаниеПолиция Южной Кореи полагает, что причиной крупного пожара в ЦОД Национальной службы информационных ресурсов (NIRS) 26 сентября, который привёл к отключению около 700 государственных сервисов и потери 858 Тбайт данных, могло стать некорректное отключение питания перед проведением технического обслуживания литий-ионных батарей. Перед переносом АКБ была отключена основная линия питания, однако вспомогательная, как выяснилось, продолжала работу. Аресты предполагаемых виновных продолжаются, сообщает Datacenter Dynamics. На прошлой неделе полиция арестовала четырёх человек по подозрению в халатности. Представители правоохранительных органов заявляют, что допрошено уже 26 человек, четверо было арестовано, а недавно арестовали пятого. Также проведены обыски в NIRS и трёх компаниях-партнёрах центра, конфискованы различные материалы, в т.ч. проектная документация и журналы работы аккумуляторов. Свидетели говорят, что основное электропитание было отключено примерно за час до начала пожара, однако вспомогательное питание всё ещё работало. Непосредственно возгорание произошло при попытке перемещения одного из аккумуляторов из зала на пятом этаже в подвал, что потребовало отключения силовых кабелей. Не исключено, что именно поэтому загоревшаяся батарея была заряжена на 80–90 %, тогда как многие производители рекомендуют низкий и средний уровень заряда перед перемещением литий-ионных модулей. Представители полиции ссылаются на мнение экспертов, уверенных, что потенциальный ущерб от пожара тем больше, чем выше заряд аккумуляторов. Аккумуляторы ЦОД разберут для дальнейшего изучения, также эксперты проведут эксперименты с идентичными моделями для выяснения причин возгорания. Пожар уничтожил 384 аккумуляторных модулей и 740 единиц IT-оборудования. По состоянию на минувшую пятницу было восстановлено 217 государственных систем — менее трети от общего числа. Считается, что операторы правительственной системы G-Drive, содержавшей 858 Тбайт информации, потеряли её безвозвратно, поскольку резервных копий не существовало. Примечательно, что спустя несколько дней в том же городе случился ещё один пожар, на этот раз в ЦОД Lotte Innovate. Причиной снова названо возгорание ИБП, причём буквально на следующий день после инспекции пожарной службы.
11.10.2025 [11:42], Сергей Карасёв
OpenAI создаст в Аргентине кампус Stargate мощностью 500 МВтOpenAI и энергетическая компания Sur Energy, по сообщению Reuters, подписали соглашение о сотрудничестве, которое предусматривает строительство в Аргентине масштабного кампуса дата-центров для задач ИИ. Проект будет реализован в рамках инициативы Stargate. Напомним, что Stargate — это совместное предприятие OpenAI, SoftBank и Oracle по развитию ИИ-инфраструктуры в США: ожидается, что суммарные затраты на реализацию проекта достигнут $500 млрд. При этом также планируется строительство площадок Stargate в других странах в рамках инициативы OpenAI for Countries. Комплекс ЦОД, созданием которого займутся OpenAI и Sur Energy, станет первым объектом Stargate в Латинской Америке. Речь идёт о строительстве кампуса мощностью до 500 МВт. Суммарные затраты на создание объекта могут составить до $25 млрд. Ожидается, что это будет одна из крупнейших инвестиций в технологическую и энергетическую инфраструктуру в истории Аргентины. Финансирование проекта будет осуществляться через совместное предприятие Sur Energy и неназванного международного разработчика облачных систем. При этом OpenAI выступит в качестве потребителя вычислительных мощностей дата-центра после его ввода в эксплуатацию. «Мы с гордостью объявляем о планах запуска Stargate Argentina — нового инфраструктурного проекта в партнёрстве с одной из ведущих энергетических компаний страны, Sur Energy», — заявил генеральный директор OpenAI Сэм Альтман (Sam Altman). Ранее OpenAI анонсировала проект Stargate Norway — первый в Европе дата-центр, создающийся в рамках программы OpenAI for Countries: объект мощностью 230 МВт расположится в Норвегии. Кроме того, OpenAI построит ИИ ЦОД Stargate в Южной Корее. В начале сентября стало известно о том, что компания Альтмана рассчитывает построить в Индии дата-центр мощностью не менее 1 ГВт. А крупнейший кампус Stargate будет создан в ОАЭ, если, конечно, опять не появятся проблемы с поставками ускорителей NVIDIA. Вместе с тем недавно в США заработали первые ИИ ЦОД флагманского кампуса OpenAI Stargate.
10.10.2025 [17:37], Руслан Авдеев
Подобранные ИИ бактерии спасут ЦОД от дефицита медиПричиной следующего экзистенциального кризиса интернета, похоже, станут не дезинформация и не дипфейки. По словам основателя стартапа Endolith Лиз Деннетт (Liz Dennett), индустрия ЦОД остро нуждается в меди, для которой найден обновлённый способ добычи, сообщает IEEE Spectrum. Вся современная IT-инфраструктура зависит от меди. Создание ИИ ЦОД лишь ускоряет рост спроса, поскольку для одного дата-центра гиперскейл-уровня требуется более 2 тыс. т меди или около 27 т/МВт. McKinsey прогнозирует, что только развитие линий электропередачи может привести к росту годового спроса на медь в мире до 37 млн т к 2031 году. Хуже того, запасы доступной меди истощаются — более 70 % мировых резервов находятся в рудах, трудно поддающихся обработке, а это десятки миллиардов тонн. При этом потенциал таких «непривлекательных» запасов огромен. В 2023 году Деннетт основала стартап Endolith для извлечения меди из нерентабельных ныне источников. Помогут в этом микроорганизмы. Эволюционировавшие естественным путём бактерии оказались довольно эффективны для добычи меди из «сложных» руд вроде халькопирита и энаргита. При этом они хорошо переносят воздействие неблагоприятной среды, и при добыче меди с их помощью потребуется меньше энергии, чем при использовании традиционных методов вроде высокотемпературной плавки или химического выщелачивания, оставляющих после себя большое количество отходов. Бактерии ускоряют естественный процесс биовыщелачивания. Микроорганизмы можно подобрать к химическому составу разных пород, что позволит извлекать больше металла и окажет меньшее влияние на окружающую среду. Для этого используется ИИ. Свойства тысяч микробов учитываются при моделировании процессов получения меди. Это позволяет прогнозировать, какие штаммы оптимально подойдут для тех или иных условий, не полагаясь на медленный метод проб и ошибок. Технологию уже изучают некоторые крупные производители меди, включая BHP. Разрабатываемые Endolith «биоинкубаторы» представляют собой полевые установки для выращивания и доставки специально подобранных микроорганизмов. Они могут быть развёрнуты за считанные дни и адаптированы под местные условия. Скептики отмечают, что биовыщелачивание — технология довольно старая и исторически малопригодная для работы с рудами вроде халькопирита. О том, что развитие рынка ИИ со многом зависит от наличия чистой меди, говорилось ещё в конце 2024 года. Более того, есть и ещё один источник металла, который поможет справиться с дефицитом. В январе 2025 года сообщалось, что телеком-компании смогут заработать миллиарды долларов, сдав в переработку старые медные кабели. |
|


