Материалы по тегу: hardware

14.06.2025 [00:52], Владимир Мироненко

Oracle пообещала построить больше облачных ЦОД, чем все конкуренты вместе взятые

Американская корпорация Oracle сообщила финансовые результаты IV квартала и всего 2025 финансового года, закончившегося 31 мая 2025 года. Выручка выросла на 11 % в годовом исчислении в IV квартале до $15,9 млрд при консенсус-прогнозе аналитиков, опрошенных LSEG, в размере $15,59 млрд. После публикации квартального отчёта акции Oracle выросли в четверг на 14 % до $201,38, впервые превысив отметку в $200, сообщило агентство Reuters.

Чистая прибыль (GAAP) выросла до $3,43 млрд или $1,19 на разводнённую акцию с $3,14 млрд или $1,11 на разводнённую акцию годом ранее. Скорректированная чистая прибыль (Non-GAAP) за квартал равняется $4,88 млрд или $1,70 на разводнённую акцию, что выше консенсус-прогноза от LSEG в размере $1,64 на разводнённую акцию.

В I квартале 2026 финансового года Oracle ожидает получить скорректированную прибыль (Non-GAAP) на акцию в размере $1,46–1,50 при росте выручки в диапазоне от 12 до 14 %. Аналитики, опрошенные LSEG, ожидают $1,48 скорректированной прибыли на акцию и $14,96 млрд выручки, что подразумевает рост год к году на 12,4 %.

Выручка за IV финансовый квартал от облачных сервисов и поддержки лицензий выросла на 14 % до $11,7 млрд (74 % всей выручки), превысив консенсус-прогноз аналитиков, опрошенных StreetAccount, в размере $11,59 млрд. Выручка от лицензирования облачных и локальных продуктов увеличилась на 8 % до $2,01 млрд, превысив консенсус-прогноз StreetAccount в размере $1,82 млрд. Также увеличились, хотя и незначительно, продажи оборудования — на 1 % до $850 млн, но сократилась выручка от сервисов — на 2 % до $1,35 млрд. Между тем компания заявила, что её оставшиеся обязательства по исполнению (RPO), отражающие объём невыполненных работ, выросли на 41 % до $138 млрд.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Что касается итогов за 2025 финансовый год, то выручка Oracle увеличилась на 8 % до $57,4 млрд. Доходы от облачных сервисов и поддержки лицензий выросли на 12 % до $44,02 млрд, выручка от лицензирования облачных и локальных продуктов выросла на 2 % до $5,20 млрд. Чистая прибыль (GAAP) за год составила $12,44 млрд или $4,34 на разводнённую акцию, а скорректированная чистая прибыль (Non-GAAP) — $17,28 млрд или $6,03 на разводнённую акцию.

Генеральный директор Oracle Сафра Кац (Safra Catz) сообщила, что выручка от облачной инфраструктуры должна увеличиться в 2026 финансовом году более чем на 70 % (уже сейчас рост +52 % в отчётном квартале). Компания прогнозирует более $67 млрд выручки в 2026 финансовом году, что превышает консенсус-прогноз аналитиков от LSEG в размере $65,18 млрд. По словам Кац, компания намерена увеличить целевой показатель выручки в размере $104 млрд, установленный ею в сентябре прошлого года на 2029 финансовый год.

 Источник изображения: Oracle

Источник изображения: Oracle

Также гендиректор Oracle отметила, что капитальные затраты в 2025 финансовом году превысили $21 млрд по сравнению с менее чем $7 млрд в 2024 финансовом году, и в 2026 году должны превысить $25 млрд. «Мы делаем многое, чтобы снизить наши капитальные затраты, — сообщил председатель и технический директор Oracle Ларри Эллисон (Larry Ellison). — Но даже если мы это сделаем, капитальные затраты вырастут, потому что спрос сейчас кажется почти ненасытным». «Я никогда не видел ничего даже отдалённо похожего», — добавил он.

Эллисон сообщил, что в настоящее время у компании 23 действующих ЦОД MultiCloud и ещё 47 будут построены в течение следующих 12 месяцев. «Мы ожидаем, что трёхзначный рост выручки MultiCloud продолжится в 2026 финансовом году. Выручка от Oracle Cloud@Customer выросла на 104 % по сравнению с прошлым годом. У нас 29 действующих выделенных ЦОД Oracle Cloud@Customer, и ещё 30 будут построены в 2026 финансовом году. Общий доход от Oracle Cloud Infrastructure вырос на 62 % в IV квартале», — рассказал технический директор. Он добавил, что доход от баз данных MultiCloud в облаках Amazon, Google и Azure вырос на 115 % по сравнению с предыдущим кварталом.

Он также сообщил, что недавно Oracle получила заказ от неназванного клиента на всю доступную облачную ёмкость. «Мы никогда раньше не получали такого заказа, — цитирует Эллисона ресурс SiliconANGLE. — Мы сделали всё возможное, чтобы предоставить им необходимую ёмкость». Однако позже он отметил, что китайский интернет-ретейлер Temu, принадлежащий PDD Holdings, согласился перенести большой объём рабочих нагрузок в облачную инфраструктуру Oracle. Эллисон отметил, что сделка с Temu не имеет ничего общего с ИИ, чтобы продемонстрировать, что Oracle преуспевает по нескольким направлениям, включая её флагманскую базу данных, пишет The Register.

Напомним, что Oracle сотрудничает с OpenAI, SoftBank Group и базирующейся в Абу-Даби MGX в проекте Stargate, в рамках которого, как ожидается, будет израсходовано в течение следующих пяти лет более $500 млрд на создание инфраструктуры ИИ ЦОД. Примечательно, что Сафра Кац оговорилась, что формально совместное предприятие Stargate всё ещё не создано. В частности, Softbank отложила инвестиции из-за новых пошлин США. Поэтому есть вероятность, что последние сделки Oracle в сфере ЦОД фактически также окажутся связаны со Stargate. В любом случае Stargate позволит частично оправдать рост капитальных расходов Oracle. Сам же Эллисон пообещал построить больше облачных ЦОД, чем все конкуренты вместе взятые.

Постоянный URL: http://servernews.ru/1124405
13.06.2025 [23:52], Руслан Авдеев

И нашим, и вашим: Talen всё-таки поставит 1,92 ГВт энергии с АЭС дата-центрам AWS, но опосредованно

Amazon внесла поправки в условия сделки с Talen Energy, предусматривавшей закупки энергии с АЭС Susquehanna для питания дата-центров AWS в Пенсильвании. Это случилось после того, как регулятор заблокировал предыдущую сделку, напоминает The Register. В среду компания объявила, что подписала с Amazon новом соглашение о покупке энергии (PPA) на 1,92 ГВт до 2042 года.

В рамках сделки также будет изучена возможность строительства на площадке малых модульных реакторов (SMR) и финансирование модернизации Susquehanna для увеличения мощности АЭС. Критически важной деталью сделки является пункт о поддержке работы дата-центров AWS «в регионе». Дело в том, что Cumulus, дочерняя структура Talen, построила кампус ЦОД практически на территории АЭС, чтобы запитать его напрямую от станции. Amazon объявила о покупке кампуса Cumulus в марте 2024-го.

В сделку включалось ISA (специальное соглашение), оговаривавшее поставки энергии из Susquehanna напрямую объекту Cumulus. Но попытка увеличить поставляемую кампусу мощность вызвала протесты местных коммунальных компаний. Они заявили регулятору Federal Energy Regulatory Commission (FERC), что ISA обеспечит Cumulus преимущество при поставках электричества, в результате чего другие клиенты Susquehanna могут столкнуться с менее стабильным энергоснабжением. В FERC согласились с доводами, и сделка была заблокирована.

 Источник изображения: Bryce Wendler/unspalsh.com

Источник изображения: Bryce Wendler/unspalsh.com

Talen неоднократно пыталась оспорить в суде решение FERC, но, похоже, в конце концов сдалась. Новое соглашение с AWS, по словам Talen, вообще не требует разрешения регулятора. Главная причина, вероятно, в том, что теперь Amazon будет получать 1,92 ГВт не напрямую и не только для кампуса Cumulus. Вместо этого энергия АЭС будет поступать в общую сеть, откуда её и будет получать AWS, причём фактически не только от Susquehanna.

Для IT-гиганта это идеальное время для вложений. Губернатор Пенсильвании Джош Шапиро (Josh Shapiro) объявил в прошлый понедельник, что Amazon планировала вложить в создание облачных и ИИ-мощностей в штате не менее $20 млрд — как в округе Люцерн (Luzerne), где как раз и находится Susquehanna, так и в округе Бакс (Bucks), также обслуживаемым этой АЭС. В Talen заявили, что сделка с Amazon станет для неё стабильным источником доходов на долгое время. Похожие сделки с операторами АЭС заключили Meta и Microsoft. Google пока, похоже, делает ставку на SMR.

Постоянный URL: http://servernews.ru/1124392
13.06.2025 [02:20], Владимир Мироненко

AMD готовит ИИ-стойки Helios AI двойной ширины с Instinct MI400, AMD EPYC Venice и 800GbE DPU Pensando Vulcano

Вместе с анонсом ускорителей MI350X и MI355X также рассказала о планах на ближайшее будущее, включая выпуск ускорителей серий MI400 (Altair) в 2026 году и MI500 (Altair+) в 2027 году, а также решений UALink, Ultra Ethernet, DPU Pensando и стоечных архитектур, которые послужат основой ИИ-кластеров.

Так, AMD анонсировала новую архитектуру Helios AI с стойками двойной ширины, которая объединит процессоры AMD EPYC Venice с ядрами Zen 6, ускорители Instinct MI400 и DPU Vulcano. Благодаря приобретению ZT Systems компания смогла существенно ускорить разработку и интеграцию решений уровня стойки — Helios AI появятся уже в 2026 году.

Как сообщает DataCenter Dynamics, Эндрю Дикманн (Andrew Dieckmann), корпоративный вице-президент и генеральный менеджер AMD по ЦОД рассказал перед мероприятием, что решение об увеличении ширины стойки было принято в сотрудничестве с «ключевыми партнёрами» AMD, поскольку предложение должно соответствовать «правильной точке проектирования между сложностью, надёжностью и предоставлением преимуществ производительности».

По словам AMD, это позволит объединить тысячи чипов таким образом, чтобы их можно было использовать как единую систему «стоечного масштаба». «Впервые мы спроектировали каждую часть стойки как единую систему», — заявила генеральный директор AMD Лиза Су (Lisa Su) на мероприятии, пишет CNBC.

 Источник изображений: AMD

Источник изображений: AMD

Дикманн заявил, что Helios предложит на 50 % больше пропускной способности памяти и на 50 % больше горизонтальной пропускной способности (по сравнению с NVIDIA Vera Rubin), поэтому «компромисс [за счёт увеличения ширины стойки] был признан приемлемым, поскольку крупные ЦОД, как правило, ограничены не квадратными метрами, а мегаваттами».

Как указано в блоге компании, «Helios создана для обеспечения вычислительной плотности, пропускной способности памяти, производительности и горизонтального масштабирования, необходимых для самых требовательных рабочих ИИ-нагрузок, в готовом к развёртыванию решении, которое ускоряет время выхода на рынок».

Helios представляет собой сочетание технологий AMD следующего поколения, включая:

  • Ускорители AMD Instinct MI400. Ожидается, что они будут предлагать до 432 Гбайт памяти HBM4, 20/40 Пфлопс (FP8/FP4), и 300-Гбайт/с полосу для горизонтального масштабирования. Эти ускорители обеспечат лидерство в производительности ИИ в стоечном масштабе для обучения массивных моделей и выполнения распределённого инференса.
  • Возможность объединения до 72 ускорителей в одном домене посредством открытого стандарта UALink, что обеспечит совместимость и свободу выбора вендора. В Helios UALink используется для прямого объединения ускорителей между собой и с сетевыми адаптерами, а также (поверх Ethernet) для объединения ускорителей в нескольких узлах.
  • Процессоры AMD EPYC Venice, которые получат до 256 ядер Zen 6. Они обеспечат до 1,7-кратный рост производительности и 1,6 Тбайт/с пропускной способности памяти в сравнении с текущими CPU.
  • 800GbE DPU семейства Pensando Vulcano AI с поддержкой Ultra Ethernet и интерфейсами PCIe/UALink для прямого подключения к CPU и GPU. Vulcano имеет решающее значение для обеспечения быстрой и бесперебойной передачи данных в кластерах высокой плотности, эффективно устраняя узкие места в коммуникации для крупномасштабных ИИ-развертываний.

AMD отказалась сообщить стоимость анонсированных чипов, но, по словам Дикманна, ИИ-ускорители компании будут дешевле и в эксплуатации, и в приобретении в сравнении с чипами NVIDIA. «В целом, есть существенная разница в стоимости приобретения, которую мы затем накладываем на наше конкурентное преимущество в производительности, поэтому выходит значительная, исчисляемая двузначными процентами экономия», — сказал он.

AMD ожидает, что общий рынок ИИ-чипов превысит к 2028 году $500 млрд. Компания не указала, на какую долю общего пирога она будет претендовать — по оценкам аналитиков, в настоящее время у NVIDIA более 90 % рынка. Обе компании взяли на себя обязательство выпускать новые ИИ-чипы ежегодно, а не раз в два года, что говорит о том, насколько жёстче стала конкуренция и насколько важны передовые ИИ-технологии для гиперскейлеров.

AMD сообщила, что её чипы Instinct используются семью из десяти крупнейших игроков ИИ-рынка, включая OpenAI, Tesla, xAI и Cohere. По словам AMD, Oracle планирует предложить своим клиентам кластеры с более чем 131 тыс. ускорителей MI355X. Meta сообщила, что уже использует AMD-кластеры для инференса Llama и что она планирует купить серверы с чипами AMD следующего поколения. В свою очередь, представитель Microsoft сказал, что компания использует чипы AMD для обслуживания ИИ-функций чат-бота Copilot.

Постоянный URL: http://servernews.ru/1124363
13.06.2025 [00:15], Владимир Мироненко

Ускорители AMD Instinct MI355X с архитектурой CDNA 4 потребляют 1400 Вт

AMD представила ускоритель Instinct MI355X для ИИ- и HPC-нагрузок, демонстрирующий значительный рост производительности в задачах инференса, но вместе с тем почти удвоенное энергопотребление по сравнению с MI300X 2023 года выпуска, сообщил ресурс ComputerBase. Есть и чуть более простая версия MI350X, менее требовательная к питанию и охлаждению.

AMD Instinct MI350X (Antares+) основан на оптимизированной архитектуре CDNA 4, отличающейся эффективной поддержкой новых форматов вычислений, в чём AMD ранее не была сильна. В дополнение к FP16 новый ускоритель поддерживает не только FP8, но также FP6 и FP4, которые актуальны для ИИ-нагрузок, особенно инференса. AMD во многом позиционирует Instinct MI350X как ускоритель для инференса, что имеет смысл, поскольку масштабирование MI350X по-прежнему ограничено лишь восемью ускорителями (UBB8), что снижает их конкурентоспособность по сравнению с ускорителями NVIDIA. Впрочем, для т.н. думающих моделей масштабирование тоже важно, что уже сказалось на продажах MI325X.

 Источник изображений: AMD via ServeTheHome

Источник изображений: AMD via ServeTheHome

Серия ускорителей AMD Instinct MI350X включает две модели: стандартный ускоритель Instinct MI350X мощностью 1000 Вт, который всё ещё можно использовать с системами воздушного охлаждения, а также более производительный Instinct MI355X до 1400 Вт, рассчитанный исключительно на работу с СЖО. Впрочем, AMD считает, что некоторые из её клиентов смогут использовать воздушное охлаждение для MI355X, пишет Tom's Hardware. В случае СЖО в одну стойку можно упаковать до 16 узлов (128 ускорителей MI355X), а в случае воздушного охлаждения — до 8 узлов (64 ускорителя MI350X). Для вертикального масштабирования предполагается использование UALink, для горизонтального — Ultra Ethernet.

Оба ускорителя будут поставляться с 288 Гбайт памяти HBM3E с пропускной способностью до 8 Тбайт/с. Сообщается, что ускоритель MI350X обладает максимальной производительностью в операциях FP4/FP6 в размере 18,45 Пфлопс, тогда как MI355X — до 20,1 Пфлопс. То есть обе модели серии Instinct MI350X превосходят ускоритель NVIDIA B300 (Blackwell Ultra), который с производительностью 15 FP4 Пфлопс. Что интересно, для векторных FP64-вычислений AMD сохранила тот же уровень производительности, что был у MI300X, а матричные FP64-вычисления стали почти вдвое медленнее. Тем не менее, это всё равно лучше, чем почти 30-кратное снижение скорости FP64-расчётов при переходе от B200 к B300.

Если сравнивать производительность новых чипов с предшественником, то производительность MI350X в вычислениях с точностью FP8 составляет около 9,3 Пфлопс, в то время как у MI355X, как сообщается, этот показатель составляет 10,1 Пфлопс, что значительно выше, чем 5,22 Пфлопс у Instinct MI325X (во всех случаях речь идёт о разреженных вычислениях). MI355X также превосходит NVIDIA B300 на 0,1 Пфлопс в вычислениях FP8. Формально разница между MI350X и MI355X не так велика, но на практике она может достигать почти 20 % из-за возможности более долго поддерживать частоты при наличии СЖО. В целом, по словам AMD, в ИИ-тестах MI350X/MI355X быстрее MI300X в 2,6–4,2 раза в зависимости от задачи и до 1,3 раз быстрее (G)B200, но при этом значительно дешевле последних.

Компоновка MI350X/MI355X напоминает компоновку MI300X. Есть восемь 3-нм (TSMC N3P) XCD-чиплетов, лежащих поверх двух 6-нм (N6) IO-тайлов (IOD) и обрамлённых восемью стеками HBM3E. Переход к двум IOD повлиял и на NUMA-домены, поскольку теперь память можно поделить только пополам. А вот вычислительных инстансов может быть до восьми.

Используется комбинированная 3D- и 2.5D-компоновка чиплетов, причём для связи IOD, т.е. двух половинок всего чипа, используется шина Infinity Fabric AP с пропускной способностью 5,5 Тбайт/с. Каждый XCD содержит 36 CU, из которых активно только 32 (для повышения процента годных чипов), и общий L2-кеш объёмом 4 Мбайт. Все XCD подключены к Infinity Cache объёмом 256 Мбайт. Для связи с внешним миром есть один интерфейс PCIe 5.0 x16 (128 Гбайт/с) и семь линий Infinity Fabric (1075 Гбайт/с), которые как раз и позволяют объединить восемь ускорителей по схеме каждый-с-каждым.

Технический директор AMD Марк Пейпермастер (Mark Papermaster) заявил, что отрасль продолжит разрабатывать всё более мощные процессоры и ускорители для суперкомпьютеров, чтобы достичь производительности зеттафлопсного уровня примерно через десятилетие. Однако этот рост будет достигаться ценой резкого увеличения энергопотребления, поэтому суперкомпьютер с производительностью такого уровня будет потреблять примерно 500 МВт — половину того, что вырабатывает средний реактор АЭС.

Для поддержания роста производительности пропускная способность памяти и масштабирование мощности тоже должны расти. Согласно расчётам AMD, пропускная способность памяти ускорителя должна более чем удваиваться каждые два года, чтобы сохранить соотношение ПСП к Флопс. Это потребует увеличения количества стеков HBM на один ускоритель, что приведёт к появлению более крупных и более энергоёмких ускорителей и модулей.

Instinct MI300X имел пиковую мощность 750 Вт, Instinct MI355X имеет пиковую мощность 1400 Вт, в 2026–2027 гг., по словам Пейпермастера, нас ждут ускорители мощностью 1600 Вт, а в конце десятилетия — уже 2000 Вт. У чипов NVIDIA энергопотребление ещё выше — ожидается, что у ускорителей Rubin Ultra с четырьмя вычислительными чиплетами энергопотребление составит до 3600 Вт. На фоне растущего энергопотребления суперкомпьютеры и ускорители также быстро набирают производительность. Согласно презентации AMD на ISC 2025, эффективность производительности увеличилась с примерно 3,2 ГФлопс/Вт в 2010 году до примерно 52 Гфлопс/Вт к моменту появления экзафлопсных систем, таких как Frontier.

Поддержание такого темпа роста производительности потребует удвоения энергоэффективности каждые 2,2 года, пишет Tom's Hardware. Прогнозируемая система зетта-класса потребует эффективность на уровне 2140 Гфлопс/Вт, т.е. в 41 раз выше, чем сейчас. AMD считает, что для значительного повышения производительности суперкомпьютеров через десятилетие потребуется не только ряд прорывов в архитектуре чипов, но и прорыв в области памяти и интерконнектов.

Постоянный URL: http://servernews.ru/1124349
11.06.2025 [23:59], Игорь Осколков

Представлена финальная спецификация PCI Express 7.0

Консорциум PCI-SIG официально объявил о релизе спецификаций PCI Express 7.0 версии 1.0. Базовые характеристики интерфейса изменений не претерпели: «сырая» скорость 128 ГТ/с на линию, которая конвертируется в 512 Гбайт/с в двустороннем режиме в конфигурации x16; кодирование PAM4; поддержка Flit-режима; универсальность и обратная совместимость с предыдущими версиями PCIe; повышенная энергоэффективность; расширенная коррекция ошибок и т.д.

Новый стандарт ориентирован на решения с интенсивным обменом данными, которым требуются низкая задержка, высокая скорость и повышенная надёжность: ИИ-платформы, 800G-сети, облака гиперскейлеров, квантовые системы и т.п. Впрочем, как и стандарты прошлого поколения, PCIe 7.0 сохранит гибкость, предоставляя 11 различных профилей, которые охватывают весь спектр возможных применений интерфейса, от мобильных платформ до HPC-систем.

Консорциум придерживается выбранного темпа выпуска спецификаций — каждые три года появляется новый стандарт, который, по мнению PCI-SIG, всегда чуть опережает текущие потребности индустрии. Здесь есть два важных момента. Во-первых, PCI-SIG не пытается добиться максимально возможной скорости (за NVLink уже не угнаться), а старается дать максимум скорости по приемлемой цене. Во-вторых, уже сейчас разработчики IP говорят о возможных проблемах насыщения данными даже одной линии PCIe 7.0 в некоторых приложениях и сложностях физической и логической реализации нового интерфейса.

 Источник изображений: PCI-SIG

Источник изображений: PCI-SIG

Впрочем, до появления первых реальных продуктов с поддержкой PCIe 7.0 ещё долго. На 2027 год запланирован старт предварительного «тестирования на соответствие» (FYI, First Year Inventory Compliance Program), так что внедрение нового стандарта начнётся не раньше 2028 года. Внедрение PCIe 6.0, представленного ещё в январе 2022 года, тоже только-только начинается и займёт ещё год-два.

Анонсированная почти два года назад оптическая версия PCIe продолжает разрабатываться. В PCIe 7.0 и PCIe 6.4 впервые были добавлены спецификации ретаймеров, которые позволят передавать сигнал PCIe по оптоволокну. Это позволит сделать интерконнект на базе PCIe значительно компактнее, чем при использовании традиционных медных соединений, а также позволит эффективно вывести PCIe за пределы узла. Впрочем, пока что речь идёт скорее о масштабах стойки или нескольких, а не целого ЦОД.

Постоянный URL: http://servernews.ru/1124309
11.06.2025 [16:12], Руслан Авдеев

OpenAI неожиданно заключила соглашение с Google Cloud

OpenAI планирует использовать вычислительные мощности Google Cloud. Несмотря на то, что OpenAI в сфере ИИ является прямым конкурентом Google, она намерена использовать эту облачную платформу, чтобы удовлетворить свои потребности в вычислительных ресурсах и диверсифицировать ресурсы, сообщает Reuters.

Издание ссылается на информацию трёх источников, отмечая, что соглашение является неожиданным, поскольку подразделение DeepMind компании Google напрямую соперничает с OpenAI в сфере искусственного интеллекта, а ChatGPT с его новыми функциями представляет угрозу поисковым сервисам Google.

Последняя, тем не менее предоставит, OpenAI дополнительные вычислительные мощности, чтобы помочь компании обучать и эксплуатировать свои ИИ-модели. Пока нет данных, станет ли OpenAI использовать фирменные TPU Google или будет применять в облаке только ускорители NVIDIA.

В OpenAI и Microsoft не комментируют новость. Ранее Microsoft выступала эксклюзивным поставщиком облачных услуг ИИ-стартапу благодаря ранним инвестициям в компанию, но спрос на вычислительные мощности у OpenAI продолжал расти, опережая возможности Microsoft. Поэтому последняя отказалась от эксклюзивного сотрудничества с некоторыми условиями.

 Источник изображения: Growtika/unsplash.com

Источник изображения: Growtika/unsplash.com

OpenAI объявила о проекте Stargate стоимостью $500 млрд в начале текущего года — компания действует в партнёрстве с SoftBank, Oracle и MGX из ОАЭ. Первый кампус строится в Абилине (Abilene, Техас). Предполагается, что Oracle купит для него около 400 тыс. ускорителей NVIDIA GB200. Изучается возможность и строительства кампусов Stargate в других местах, в том числе в ОАЭ.

В мае 2025 года OpenAI уже подписала облачное соглашение с CoreWeave на сумму $4 млрд, это стало развитием более ранней сделки с компанией на сумму $11,9 млрд. На этой неделе компания TD Cowen выступила с предположением, что Oracle ищет в США 5 ГВт ЦОД-мощностей для OpenAI, и это помимо общего проекта Stargate. По данным источников Reuters, ранее OpenAI пыталась заключить сделку с Google Cloud, но ей помешали обязательства перед Microsoft.

Постоянный URL: http://servernews.ru/1124289
11.06.2025 [15:28], Руслан Авдеев

В водах Шанхая появится подводный ЦОД HiCloud, запитанный от ветряной электростанции

В Китае близ Шанхая начали подготовку к реализации подводного дата-центра (UDC) с питанием от оффшорной ветряной электростанции — Shanghai Lingang UDC. Проект будет реализован компанией HiCloud, подразделением Highlander, ранее построившей UDC-модули у побережья провинции Хайнань (Hainan), сообщает Datacenter Dynamics.

По данным местных СМИ, HiCloud вложит в проект на начальном этапе ¥1,6 млрд ($222,8 млн). Компания заключила трёхстороннее соглашение с Shanghai Lingang Special Area Investment Holding Group и руководством специальной зоны свободной торговли Lingang Special Area of China (Shanghai) Pilot Free Trade Zone. На первом будет построен 2,3-МВт демонстрационный объект, который должен заработать в сентябре 2025 года. В ходе второго этапа партнёры намерены масштабировать мощность до 24 МВт.

Именно второй этап предусматривает использование возобновляемой энергии, передовых систем охлаждения, а также трансграничную передачу данных. По словам HiCloud, естественная система охлаждения морской водой снизит энергопотребление охладительных установок с 40–50 % от общего потребления ЦОД до менее 10 %. В целом энергетические затраты подводного дата-центра будут на 30–40 % меньше в сравнении с традиционными ЦОД.

 Источник изображения: HiCloud

Источник изображения: HiCloud

Впервые Highlander развернула подводный ЦОД в провинции Гуандун (Guangdong) в 2021 году. В 2023 году компания реализовала первый коммерческий дата-центр такого типа, который затем был расширен, а в феврале 2025 года получил модуль с ИИ-серверами.

Некоторые другие компании уже оценили аналогичные технологии. Наибольшего внимания заслуживает проект Microsoft 2015 года — компания запустила первый в мире UDC у тихоокеанского побережья США. За этим последовал ещё один пилотный проект у берегов Оркнейских островов (Orkney Islands) в Северном море в 2018 году. Но в итоге проект Project Natick был закрыт. Подводными дата-центрами также занимаются Subsea Cloud и NetworkOcean. Впрочем, NetworkOcean столкнулся с запретами регуляторов в ходе попыток начать тестирование у берегов Сан-Франциско в сентябре прошлого года.

Постоянный URL: http://servernews.ru/1124286
11.06.2025 [14:37], Руслан Авдеев

TD Cowen: AWS и Microsoft возвращаются к проектам масштабной аренды ЦОД

Эксперты TD Cowen полагают, что гиперскейлеры Amazon и Microsoft начинают возвращение к масштабной аренде дата-центров после сообщений о замедлении процесса в начале 2025 года, сообщает Datacenter Dynamics. В марте текущего года TD Cowen заявляла, что Microsoft отказывается от связанных с ЦОД проектов общей мощностью до 2 ГВт, отчасти из-за отказа от статуса эксклюзивного поставщика вычислительных мощностей для OpenAI.

В самой Microsoft подчеркнули, что капитальные затраты на ЦОД составлят $80 млрд только в этом году и речь идёт всего лишь о «гибкости» при принятии решений, посколкьу компания учится и растёт вместе с клиентами. Другими словами, компания приостанавливает некоторые проекты на ранних стадиях или замедляет их реализацию. При этом она продолжает активно расти и распределять инвестиции, соответствующие текущим приоритетам. Позже эксперты Wells Fargo заявили, что AWS также отложила аренду некоторых дата-центров. В компании уверяли, что речь идёт лишь об оптимизации некоторых расходов и на глобальные планы это не влияет.

Последний отчёт TD Cowen свидетельствует, что облачные провайдеры снова начали наращивать расходы. Утверждается, что в случае с Microsoft отказ от мощностей на 2 ГВт ранее в этом году означал не отмену проектов, а лишь перенос сроков. Проверки якобы показали, что Microsoft может нарастить активность после завершения финансового года в июне, что может привести к росту аренды ЦОД в IV квартале 2025 года.

 Источник изображения: Jon Tyson/unsplash.com

Источник изображения: Jon Tyson/unsplash.com

Ещё вероятнее масштабное возвращение на рынок AWS, поскольку есть данные, что она получила неназванного клиента более чем на 1 ГВт, для которого нужно будет в короткие сроки получить необходимые мощности. Впрочем, руководство компании якобы по-прежнему недовольно расходами на аренду и предпочло бы самостоятельно построить ЦОД. Кроме того, компания намерена реализовать крупные проекты в Сверной Каролине и Пенсильвании.

Довольно стабильно тратит большие средства на ЦОД лишь Google. В TD Cowen считают, что в I квартале текущего года затраты IT-гигант на размещение оборудования стали крупнейшими в истории компании. Кроме того, компания потратится на GPUaaS у CoreWeave. Подобно AWS, Google отложила колокейшн-расходы, и TD Cowen ожидает, что теперь она будет настаивать на продвижении самостоятельных проектов. Впрочем, из-за необходимости навёрстывать получение новых ёмкостей, скорые шаги в этом направлении не ожидаются.

Тем временем Apple не спешит с развёртыванием новых мощностей ЦОД. После публикации «запроса на мощности» в конце 2024 года пока непонятно, как будет действовать компания. Она является крупным пользователем Google Cloud, а также управляет собственными дата-центрами. Также Apple планирует начать выпуск в 2026 году собственных чипов для серверов.

Постоянный URL: http://servernews.ru/1124278
11.06.2025 [11:20], Руслан Авдеев

AWS инвестирует $20 млрд в ИИ ЦОД в Пенсильвании и ещё $10 млрд — в Северной Каролине

Amazon Web Services (AWS) объявила о крупнейших в своей истории инвестициях в дата-центры в Северной Каролине и Пенсильвании — $10 млрд и $20 млрд соответственно. По данным The Next Platform, в первом штате строительство будут вести в округе Ричмонд (Richmond), во втором, как сообщает Datacenter Dynamics, в городках Салем (Salem Township) и Фолл (Falls Township).

Так, в Ричмонде на территории технопарка Energy Way компания AWS получила контроль над участком площадью около 325 га, рядом с газовой электростанцией Duke Energy Smith Energy Complex на 2,2 ГВт. В рамках проекта построят до 20 зданий площадью общей площадью около 790 тыс. м2. Для сравнения — самый плотный кластер ЦОД в округах Лаудон (Laudon) и Принс-Уильям (Prince William) в Вирджинии насчитывает около 12 млн м2 на участке порядка 2,6 км2. На постоянной основе дата-центры будут обеспечивать около 500 рабочих мест.

Ранее у AWS не было крупных дата-центров в Северной Каролине, хотя компания вложила здесь $12 млрд в логистическую инфраструктуру. Запад Северной Каролины уже давно привлёк внимание индустрии ЦОД благодаря обилию ресурсов, от электроэнергии до воды и земли. Именно поэтому инвестиции IT-гигантов начались здесь ещё с 2007 года: Google, Apple, Meta и Microsoft вложили здесь $1,2 млрд, $1 млрд, $750 млн и $1 млрд соответственно. Хотя Microsoft приостановила здесь реализацию проектов весной 2025 года, официально их никто не отменял.

В AWS рассчитывают, что значительная часть нового кластера будет использоваться для ИИ-нагрузок. По мнению экспертов, если $5 млрд из общего бюджета в $10 млрд уйдут на вычислительное оборудование, на эти средства можно будет внедрить 106 800 ускорителей NVIDIA Blackwell B200 или же 220–330 тыс. ускорителей Trainium2 (зависит от стоимости продукта).

 Источник изображения: Daniel Weiss/unsplash.com

Источник изображения: Daniel Weiss/unsplash.com

Также AWS направит $20 млрд на расширение ИИ-инфраструктуры в Пенсильвании. В Салеме и Фолле построят «инновационные кампусы», но рассматриваются и другие округа штата. По словам местных властей, речь идёт о крупнейших в истории штата частных инвестициях. Как утверждают в Amazon, компания с 2010 года вложила более $26 млрд в местную инфраструктуру, выплаты сотрудникам и др.

Строительство в Салеме рассматривалось с начала 2024 года. Компания приобрела кампус ЦОД Talen Energy и более 485 га. В мае AWS успешно резонировала почти 650 га в этом районе для т.н. Special Data Center Overlay District. Всего планируется построить 15 зданий дата-центров в течение следующих десяти лет. Компания надеялась запитать кампус напрямую от АЭС Susquehanna и увеличить мощность дата-центров, но проект был заблокирован регуляторами.

В ноябре 2024 года наблюдательный совет Фолла одобрил соглашение о неразглашении для предложенного проекта ЦОД в ТЦ Keystone Trade Center в Моррисвилле (Morrisville), недалеко от Филадельфии (Пенсильвания). Неизвестно, идёт ли речь о проекте AWS — но компания часто заключает подобные соглашения о своих стройках. Также AWS инвестировала в возобновляемую энергетику штата, в т. ч. в 12 солнечных электростанций и солнечные мощности на территории объектов.

В числе прочих инвестиций Amazon в последние месяцы — $5 млрд для расширения инфраструктуры на Тайване, а также $4 млрд — в Чили. Облачный регион в этой стране должен заработать к концу 2026 года.

Постоянный URL: http://servernews.ru/1124273
11.06.2025 [09:11], Владимир Мироненко

AWS резко снизила стоимость EC2-инстансов с ускорителями NVIDIA, но только для старых моделей

AWS объявила об очередном снижении тарифов на GPU-инстансы, которое, по словам компании, стало регулярной практикой благодаря активной работе над снижением расходов. Впрочем, в период острого дефицита вычислительных мощностей в последние год-два, когда использование ускорителей даже для внутренних нужд было резко ограничено, компания наверняка заработала достаточно, чтобы неоднократно окупить закупку и обслуживание соответствующего «железа».

На прошлой неделе была снижена до 45 % стоимость использования инстансов EC2 на базе ускорителей NVIDIA, включая семейства P4 (P4d и P4de на базе A100) и P5 (P5 и P5en на базе H100 и H200 соответственно). Снижение стоимости тарифов On-Demand и Savings Plan распространяется на все регионы, где доступны эти инстансы. На On-Demand — с 1 июня, на Savings Plan — после 4 июня.

Savings Plans предлагает гибкую модель ценообразования с низкими ценами на использование вычислений в обмен на обязательство по постоянному объёму использования (измеряется в $/час) в течение 1 года или 3 лет. AWS предлагает два типа Savings Plans:

  • EC2 Instance Savings Plans предлагает самые низкие цены в обмен на обязательство по использованию отдельных семейств инстансов в регионе (например, использование P5 в регионе Северная Вирджиния).
  • Compute Savings Plans обеспечивает максимальную гибкость и позволяет сократить расходы клиента независимо от семейства инстансов, размера, зон доступности и регионов.
 Источник изображения: AWS

Источник изображения: AWS

Чтобы обеспечить повышенную доступность по сниженным ценам, AWS предоставляет масштабируемую ёмкость в рамках тарифа On-Demand для:

  • инстансов P4d в Азиатско-Тихоокеанском регионе (Сеул), Азиатско-Тихоокеанскои регионе (Сидней), Канаде (Центральная часть) и Европе (Лондон).
  • инстансов P4de в регионе Восток США (Северная Вирджиния).
  • инстансов P5 в Азиатско-Тихоокеанском регионне (Мумбаи), Азиатско-Тихоокеанском регионе (Токио), Азиатско-Тихоокеанском регионе (Джакарта) и Южной Америке (Сан-Паулу).
  • инстансов P5en в Азиатско-Тихоокеанском регионе (Мумбаи), Азиатско-Тихоокеанском регионе (Токио) и Азиатско-Тихоокеанском регионе (Джакарта).

Также теперь AWS предлагает инстансы Amazon EC2 P6-B200 в рамках тарифа Savings Plan для поддержки крупномасштабных развёртываний, которые стали доступны 15 мая 2025 года при запуске только через EC2 Capacity Blocks для машинного обучения. Инстансы EC2 P6-B200 на базе ускорителей NVIDIA Blackwell обеспечивают обработку широкого спектра рабочих нагрузок, но особенно хорошо подходят для крупномасштабного распределённого обучения и ИИ-инференса, отметила AWS.

Постоянный URL: http://servernews.ru/1124257

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus