Материалы по тегу: s

17.06.2025 [11:15], Руслан Авдеев

SK Group и AWS построят ИИ ЦОД на 60 тыс. ускорителей — крупнейший в Южной Корее

Корейская SK Group и Amazon Web Services (AWS) совместно построят ИИ ЦОД в Ульсане (Ulsan, Южная Корея), в 305 км от Сеула. Дата-центр разместят в национальном промышленном комплексе Mipo, объект рассчитан на размещение 60 тыс. ИИ-ускорителей, сообщает Datacenter Dynamics.

Хотя это не особенно типичная локация для размещения ЦОД, её выбрали из-за доступа к большим энергетическим мощностям. Дело в том, что поблизости находится ТЭС SK Gas, работающая на сжиженном природном газе. По данным местных СМИ, новый ЦОД будут строить поэтапно. На первом этапе, уже к ноябрю 2027 года, будет обеспечена мощность 41 МВт. К февралю 2029 года она должна вырасти до 103 МВт, а в будущем кампус должны расширить до 1 ГВт.

Церемонию торжественного старта проекта запланирована на июнь, а закладка первого камня ЦОД — на август 2025 года. SK Telecom и SK Broadband намерены вложить в ИИ-инициативы ₩3,4 трлн ($2,5 млрд), причём только в совместный проект с AWS готовятся вложить триллионы. По данным СМИ, к 2028 году AWS, в свою очередь, намерена вложить в проект около $4 млрд. По данным SK Group, речь идёт о строительстве крупнейшего в стране ЦОД на сегодняшний день.

 Источник изображения: rawkkim/unsplash.com

Источник изображения: rawkkim/unsplash.com

Ранее компания уже объявляла о планах строительства гигаваттных ИИ ЦОД в ключевых регионах на территории страны, но пока неизвестно, входит ли совместная инициатива в их число. Ранее южнокорейские власти объявляли о намерении создать Национальный вычислительный ИИ-центр (National AI Computing Center) на 15 тыс. ускорителей.

SK Telecom (SKT) активно развивает связанный с ИИ-бизнес, делая ставку на инфраструктуру (дата-центры, GPU-as-a-Service) и ИИ-сервисы для потребителей и корпоративных клиентов. Несмотря на пока небольшой доход от ИИ-направления (около $115 млн в первом квартале), SKT сотрудничает с международными партнёрами, включая альянс Global Telecom Alliance и американские Anthropic и Lambda. Материнский холдинг SK Group обеспечивает мощную поддержку, имея $88 млрд выручки в прошлом году. В марте 2025 года сообщалось, что SK Telecom займётся созданием ИИ ЦОД совместно с Elice, Schneider Electric и Giga Computing.

AWS располагает в Сеуле собственным облачным регионом с четырьмя зонами доступности, запущенными в 2016 году. Также компания строит собственный ЦОД в Согу, Инчхон (Seo-gu, Incheon). В 2021 году компания заявила, что намерена построить объект для сервиса AWS Ground Station в кампусе ЦОД в Сеуле. Также ранее компания уже сотрудничала с SK Telecom в своей зоне Wavelength.

Не так давно AWS обязалась потратить $13 млрд на расширение инфраструктуры ЦОД в Австралии и запустила облачный регион на Тайване, а также готовится потратить $4 млрд на создание облачного региона в Чили.

Постоянный URL: http://servernews.ru/1124520
16.06.2025 [17:59], Руслан Авдеев

AWS с нуля разработала и начала выпуск собственной СЖО для ИИ ЦОД всего за 11 месяцев

Amazon Web Services (AWS) разработала и ввела в эксплуатацию собственную систему жидкостного охлаждения для дата-центров за 11 месяцев — этой быстрый ответ на стремительно растущие запросы всё более мощных ИИ-ускорителей, сообщает пресс-служба компании. Именно охлаждение сегодня переживает революцию: индустрия ЦОД массово переходит с воздушного охлаждения на СЖО, говорит компания.

При этом в компании подчёркивают, что цель — не создавать «комфортные» для чипов условия на уровне 20 °C, а защита серверов от перегрева при минимально расходе как воды, так и энергии. Современные ИИ-чипы выделяют очень много тепла, но для повышения производительности их приходится размещать максимально близко друг к другу. В этом случае поток воздуха должен быть столь интенсивным, что классическую схему фрикулинга применять просто неэффективно и дорого.

 Источник изображения: Amazon

Источник изображения: Amazon

В AWS утверждают, что индустрия миновала порог, после которого использование СЖО выгоднее для теплоотвода. Команда AWS изучила уже имеющиеся на рынке продукты, после чего решила разработать собственный вариант. Было выбрано прямое охлаждение чипов (DLC) — водоблок монтируется непосредственно на ускоритель, через него циркулирует теплоноситель с температурой на уровне «джакузи», отводя тепло к специальной системе для сброса тепла. Цикл замкнутый, т.ч. жидкость циркулирует многократно, не увеличивая расхода воды дата-центром.

От формирования концепции до создания готового прототипа прошло четыре месяца. За 11 месяцев AWS завершила проектирование, отрегулировала цепочки поставок, разработала ПО для управления системой, протестировала её и запустила в производство. Важнейшим элементом является собственный модуль распределения жидкости (CDU), который в компании оценивают, как более производительный и экономичный, чем имеющиеся на рынке готовые решения.

 Источник изображения: Amazon

Источник изображения: Amazon

В AWS подчёркивают, что он сконструирован специально под задачи гиперскейлера, благодаря чему снизились затраты и увеличилась эффективность работ. Первую систему испытали в исследовательском центре AWS, а позже установили в действующем ЦОД. Летом 2025 года должно начаться масштабное внедрение системы — её будут монтировать всё в большем количестве дата-центров компании, с учётом современных потребностей ресурсоёмкой вычислительной инфраструктуры.

Ещё в конце 2024 года сообщалось, что Amazon представила новую архитектуру ИИ ЦОД, энергоэффективную и экологичную. В частности сообщалось, что новые решения связаны с электропитанием и охлаждением — СЖО предполагалось монтировать даже на уже действующих площадках IT-гиганта. Примечательно, что новые ускорители Tranium 3 действительно требуют эффективных систем охлаждения — их энергопотребление может достигать 1000 Вт.

Постоянный URL: http://servernews.ru/1124474
15.06.2025 [23:53], Руслан Авдеев

DayOne получила $3,5 млрд на развитие ЦОД в малазийском Джохоре

DayOne Data Centers Singapore (ранее GDS International) привлекла 15 млрд ринггитов ($3,6 млрд) «мультивалютного» финансирования для поддержки создания экобезопасных дата-центров в малазийском штате Джохор, сообщает Bloomberg со ссылкой на Oversea-Chinese Banking Corporation (OCBC). DayOne является международным подразделением китайского оператора ЦОД GDS Holding. Компания провела ребрендинг малайзийского подразделения в начале 2025 года и получила внешние инвестиции от SoftBank Vision Fund, Citadel CEO Kenneth Griffin, Coatue Management и Baupost Group.

Банк OCBC Bank и его малазийский филиал OCBC выступили в качестве совместных координаторов синдицированного финансирования DayOne на RM7,5 млрд ринггитов по системе исламского банкинга и ещё $1,7 млрд из зарубежных источников. В финансировании также приняли участие DBS Group Holdings, United Overseas Bank (UOB), CIMB Group Holdings, Malayan Banking, Credit Agricole CIB и Standard Chartered. По данным UOB, это — один из крупнейших проектов финансирования ЦОД в Юго-Восточной Азии. Malayan Banking заявил, что предоставил RM2,5 млрд.

 Источник изображения: DayOne

Источник изображения: DayOne

По данным Datacenter Dynamics, в портфолио оператора входят около 480 МВт действующих и строящихся ЦОД в Гонконге, Сингапуре, Малайзии, Индонезии и Японии. Недавно компания начала строительство ЦОД в Таиланде и получила заём на $412 млн для ЦОД в Батаме (Batam, Индонезия). В Малайзии DayOne управляет двумя кампусами ЦОД в Nusajaya Tech Park и Kempas Tech Park в Джохоре — суммарно 120 МВт. Полученные средства DayOne намерена использовать для рефинансирования и на развитие своих ЦОД в Джохоре. Последние, как ожидается, получат сертификаты «зелёной» цифровой инфраструктуры и станут частью инвестиций в особую экономическую зону Джохор–Сингапур (JS-SEZ).

Также недавно сообщалось, что Yondr Group передала дата-центр в Джохоре своему клиенту — объект на 25 МВт, первый для компании в Азиатско-Тихоокеанском регионе. Его сдали на полгода раньше, чем планировалось, это первый этап проекта на 98 МВт в Sedenak Tech Park. При полной застройке кампус будет мощность более 300 МВт, на его создание выделено $900 млн.

 Источник изображения: DayOne

Источник изображения: DayOne

Джохор — всё более популярный рынок для операторов благодаря близости к финансовому хабу Сингапура, поэтому не будет ничего удивительного, что компания стремится расширить своё присутствие в регионе. Ожидается, что к 2030 году в Джохоре будет размещено 60 % от общей мощности дата-центров Малайзии, при этом около 30 проектов уже завершены или находятся в стадии строительства, а еще 20 ожидают одобрения местных властей. Конкуренцию Малайзии в секторе ЦОД пытается составить Индонезия, у которой тоже есть близкая к Сингапуру территория — остров Батам (Batam).

Постоянный URL: http://servernews.ru/1124457
14.06.2025 [15:40], Руслан Авдеев

AWS переведёт ещё 100 дата-центров на использование очищенных сточных вод для охлаждения

Amazon намерена увеличить количество ЦОД, использующих для охлаждения очищенные сточные воды, с 20 до 120. Реализация новой инициативы будет проводиться до 2030 года, сообщает Datacenter Dynamics. Как заявляют в компании, только в США ежегодно можно будет экономить около 2 млн м3 питьевой воды.

Поскольку отработанная вода постепенно накапливает бактерии и накипь, её обрабатывают с помощью химикатов, что обычно делает её непригодной для употребления людьми после отвода с территории дата-центров. Сколько именно индустрии ЦОД требуется чистой воды, доподлинно никто не знает, но, по некоторым оценкам, речь идёт о многих миллионах кубических метров ежегодно.

Сейчас AWS использует в ЦОД оборотную воду вместо питьевой на 20 объектах, 16 из которых находятся в Вирджинии (США), а ещё четыре — в Санта-Кларе (Santa Clara) в Калифорнии. Полученный опыт распространят на другие кампусы в Вирджинии, Джорджии и Миссисипи. Всего у Amazon есть более 100 активных ЦОД по всему миру, ещё десятки строятся. Компания управляет более чем 37 облачными регионами и 117 зонами доступности. Как минимум четыре новых региона и дюжина зон доступности готовится к вводу в эксплуатацию.

 Источник изображения:  Ivy.D Design/unspalsh.com

Источник изображения: Ivy.D Design/unspalsh.com

В 2020 году Amazon заявила, что стала первым оператором ЦОД, получившим «добро» на использование очищенной воды в системе прямого испарительного охлаждения в совместном проекте с Loudoun Water. Сточные воды ЦОД проходят трёхступенчатую очистку, устраняющую 99 % загрязнений. После того, как восстановленная вода проходит через систему охлаждения, она снова очищается и используется. Процесс повторяется до тех пор, пока очистка становится невозможной.

Компания заявляет, что испарительные системы могут использовать в некоторых случаях на 85 % меньше воды, чем традиционные. В некоторых локациях вроде Швеции и Ирландии AWS использует фрикулинг — благодаря холодному воздуху снаружи можно применять очень мало воды или не использовать её вовсе. AWS обещала стать «водно-положительной» (т.е. потреблять меньше чистой воды, чем возвращать в окружающую среду) к 2030 году. К 2023 году компания выполнила план на 41 % плана, а в 2024 году — уже на 53 %.

Предполагается, что новая инициатива компании снизит давление на локальные водоносные системы, но не в ущерб активно развивающимся ИИ ЦОД. Amazon утверждает, что её объекты в среднем тратят 0,15 л на кВт∙ч (для сравнения: европейские ЦОД было предложено ограничить показателем 0,4 л/кВт∙ч). Планы AWS вполне объяснимы. Совсем недавно появилась информация, что компания намерена продолжить активное расширение инфраструктуры ИИ ЦОД, поэтому возобновляемые ресурсы, вероятно, будут иметь для неё большое значение. В апреле сообщалось, что доступ к чистой воде становится одной из главных забот для операторов ИИ ЦОД.

 Источник изображения: Paolo Nicolello/unspalsh.com

Источник изображения: Paolo Nicolello/unspalsh.com

По данным Google, 22 % всей воды, используемой в её ЦОД (за исключением морской), приходится на очищенные сточные воды и другие непригодные для питья источники, а около трети кампусов применяют фрикулинг или другие непитьевые ресурсы. Google признаёт, что её дата-центры в среднем потребляют более 1700 м3/день, но к 2030 году компания планирует отдавать на 20 % больше чистой воды, чем использует.

К 2030 году водно-положительной намерена стать и Microsoft. Компания уже несколько использует очищенные сточные воды в своих ЦОД в Сан-Хосе (Калифорния), Куинси (Вашингтон), в Техасе и Сингапуре. Apple очищает сточные воды для своего дата-центра в Орегоне. Компания намерена восполнять 100 % воды, используемой в её работе в местах с неблагоприятными природными условиями к 2030 году. Кроме того, Apple внедрила методы очистки воды с применением растительности, что снижает использование химикатов. Стать водно-положительной к 2030 году намерена и Meta.

Постоянный URL: http://servernews.ru/1124389
13.06.2025 [23:52], Руслан Авдеев

И нашим, и вашим: Talen всё-таки поставит 1,92 ГВт энергии с АЭС дата-центрам AWS, но опосредованно

Amazon внесла поправки в условия сделки с Talen Energy, предусматривавшей закупки энергии с АЭС Susquehanna для питания дата-центров AWS в Пенсильвании. Это случилось после того, как регулятор заблокировал предыдущую сделку, напоминает The Register. В среду компания объявила, что подписала с Amazon новом соглашение о покупке энергии (PPA) на 1,92 ГВт до 2042 года.

В рамках сделки также будет изучена возможность строительства на площадке малых модульных реакторов (SMR) и финансирование модернизации Susquehanna для увеличения мощности АЭС. Критически важной деталью сделки является пункт о поддержке работы дата-центров AWS «в регионе». Дело в том, что Cumulus, дочерняя структура Talen, построила кампус ЦОД практически на территории АЭС, чтобы запитать его напрямую от станции. Amazon объявила о покупке кампуса Cumulus в марте 2024-го.

В сделку включалось ISA (специальное соглашение), оговаривавшее поставки энергии из Susquehanna напрямую объекту Cumulus. Но попытка увеличить поставляемую кампусу мощность вызвала протесты местных коммунальных компаний. Они заявили регулятору Federal Energy Regulatory Commission (FERC), что ISA обеспечит Cumulus преимущество при поставках электричества, в результате чего другие клиенты Susquehanna могут столкнуться с менее стабильным энергоснабжением. В FERC согласились с доводами, и сделка была заблокирована.

 Источник изображения: Bryce Wendler/unspalsh.com

Источник изображения: Bryce Wendler/unspalsh.com

Talen неоднократно пыталась оспорить в суде решение FERC, но, похоже, в конце концов сдалась. Новое соглашение с AWS, по словам Talen, вообще не требует разрешения регулятора. Главная причина, вероятно, в том, что теперь Amazon будет получать 1,92 ГВт не напрямую и не только для кампуса Cumulus. Вместо этого энергия АЭС будет поступать в общую сеть, откуда её и будет получать AWS, причём фактически не только от Susquehanna.

Для IT-гиганта это идеальное время для вложений. Губернатор Пенсильвании Джош Шапиро (Josh Shapiro) объявил в прошлый понедельник, что Amazon планировала вложить в создание облачных и ИИ-мощностей в штате не менее $20 млрд — как в округе Люцерн (Luzerne), где как раз и находится Susquehanna, так и в округе Бакс (Bucks), также обслуживаемым этой АЭС. В Talen заявили, что сделка с Amazon станет для неё стабильным источником доходов на долгое время. Похожие сделки с операторами АЭС заключили Meta и Microsoft. Google пока, похоже, делает ставку на SMR.

Постоянный URL: http://servernews.ru/1124392
13.06.2025 [02:20], Владимир Мироненко

AMD готовит ИИ-стойки Helios AI двойной ширины с Instinct MI400, AMD EPYC Venice и 800GbE DPU Pensando Vulcano

Вместе с анонсом ускорителей MI350X и MI355X также рассказала о планах на ближайшее будущее, включая выпуск ускорителей серий MI400 (Altair) в 2026 году и MI500 (Altair+) в 2027 году, а также решений UALink, Ultra Ethernet, DPU Pensando и стоечных архитектур, которые послужат основой ИИ-кластеров.

Так, AMD анонсировала новую архитектуру Helios AI с стойками двойной ширины, которая объединит процессоры AMD EPYC Venice с ядрами Zen 6, ускорители Instinct MI400 и DPU Vulcano. Благодаря приобретению ZT Systems компания смогла существенно ускорить разработку и интеграцию решений уровня стойки — Helios AI появятся уже в 2026 году.

Как сообщает DataCenter Dynamics, Эндрю Дикманн (Andrew Dieckmann), корпоративный вице-президент и генеральный менеджер AMD по ЦОД рассказал перед мероприятием, что решение об увеличении ширины стойки было принято в сотрудничестве с «ключевыми партнёрами» AMD, поскольку предложение должно соответствовать «правильной точке проектирования между сложностью, надёжностью и предоставлением преимуществ производительности».

По словам AMD, это позволит объединить тысячи чипов таким образом, чтобы их можно было использовать как единую систему «стоечного масштаба». «Впервые мы спроектировали каждую часть стойки как единую систему», — заявила генеральный директор AMD Лиза Су (Lisa Su) на мероприятии, пишет CNBC.

 Источник изображений: AMD

Источник изображений: AMD

Дикманн заявил, что Helios предложит на 50 % больше пропускной способности памяти и на 50 % больше горизонтальной пропускной способности (по сравнению с NVIDIA Vera Rubin), поэтому «компромисс [за счёт увеличения ширины стойки] был признан приемлемым, поскольку крупные ЦОД, как правило, ограничены не квадратными метрами, а мегаваттами».

Как указано в блоге компании, «Helios создана для обеспечения вычислительной плотности, пропускной способности памяти, производительности и горизонтального масштабирования, необходимых для самых требовательных рабочих ИИ-нагрузок, в готовом к развёртыванию решении, которое ускоряет время выхода на рынок».

Helios представляет собой сочетание технологий AMD следующего поколения, включая:

  • Ускорители AMD Instinct MI400. Ожидается, что они будут предлагать до 432 Гбайт памяти HBM4, 20/40 Пфлопс (FP8/FP4), и 300-Гбайт/с полосу для горизонтального масштабирования. Эти ускорители обеспечат лидерство в производительности ИИ в стоечном масштабе для обучения массивных моделей и выполнения распределённого инференса.
  • Возможность объединения до 72 ускорителей в одном домене посредством открытого стандарта UALink, что обеспечит совместимость и свободу выбора вендора. В Helios UALink используется для прямого объединения ускорителей между собой и с сетевыми адаптерами, а также (поверх Ethernet) для объединения ускорителей в нескольких узлах.
  • Процессоры AMD EPYC Venice, которые получат до 256 ядер Zen 6. Они обеспечат до 1,7-кратный рост производительности и 1,6 Тбайт/с пропускной способности памяти в сравнении с текущими CPU.
  • 800GbE DPU семейства Pensando Vulcano AI с поддержкой Ultra Ethernet и интерфейсами PCIe/UALink для прямого подключения к CPU и GPU. Vulcano имеет решающее значение для обеспечения быстрой и бесперебойной передачи данных в кластерах высокой плотности, эффективно устраняя узкие места в коммуникации для крупномасштабных ИИ-развертываний.

AMD отказалась сообщить стоимость анонсированных чипов, но, по словам Дикманна, ИИ-ускорители компании будут дешевле и в эксплуатации, и в приобретении в сравнении с чипами NVIDIA. «В целом, есть существенная разница в стоимости приобретения, которую мы затем накладываем на наше конкурентное преимущество в производительности, поэтому выходит значительная, исчисляемая двузначными процентами экономия», — сказал он.

AMD ожидает, что общий рынок ИИ-чипов превысит к 2028 году $500 млрд. Компания не указала, на какую долю общего пирога она будет претендовать — по оценкам аналитиков, в настоящее время у NVIDIA более 90 % рынка. Обе компании взяли на себя обязательство выпускать новые ИИ-чипы ежегодно, а не раз в два года, что говорит о том, насколько жёстче стала конкуренция и насколько важны передовые ИИ-технологии для гиперскейлеров.

AMD сообщила, что её чипы Instinct используются семью из десяти крупнейших игроков ИИ-рынка, включая OpenAI, Tesla, xAI и Cohere. По словам AMD, Oracle планирует предложить своим клиентам кластеры с более чем 131 тыс. ускорителей MI355X. Meta сообщила, что уже использует AMD-кластеры для инференса Llama и что она планирует купить серверы с чипами AMD следующего поколения. В свою очередь, представитель Microsoft сказал, что компания использует чипы AMD для обслуживания ИИ-функций чат-бота Copilot.

Постоянный URL: http://servernews.ru/1124363
11.06.2025 [23:59], Игорь Осколков

Представлена финальная спецификация PCI Express 7.0

Консорциум PCI-SIG официально объявил о релизе спецификаций PCI Express 7.0 версии 1.0. Базовые характеристики интерфейса изменений не претерпели: «сырая» скорость 128 ГТ/с на линию, которая конвертируется в 512 Гбайт/с в двустороннем режиме в конфигурации x16; кодирование PAM4; поддержка Flit-режима; универсальность и обратная совместимость с предыдущими версиями PCIe; повышенная энергоэффективность; расширенная коррекция ошибок и т.д.

Новый стандарт ориентирован на решения с интенсивным обменом данными, которым требуются низкая задержка, высокая скорость и повышенная надёжность: ИИ-платформы, 800G-сети, облака гиперскейлеров, квантовые системы и т.п. Впрочем, как и стандарты прошлого поколения, PCIe 7.0 сохранит гибкость, предоставляя 11 различных профилей, которые охватывают весь спектр возможных применений интерфейса, от мобильных платформ до HPC-систем.

Консорциум придерживается выбранного темпа выпуска спецификаций — каждые три года появляется новый стандарт, который, по мнению PCI-SIG, всегда чуть опережает текущие потребности индустрии. Здесь есть два важных момента. Во-первых, PCI-SIG не пытается добиться максимально возможной скорости (за NVLink уже не угнаться), а старается дать максимум скорости по приемлемой цене. Во-вторых, уже сейчас разработчики IP говорят о возможных проблемах насыщения данными даже одной линии PCIe 7.0 в некоторых приложениях и сложностях физической и логической реализации нового интерфейса.

 Источник изображений: PCI-SIG

Источник изображений: PCI-SIG

Впрочем, до появления первых реальных продуктов с поддержкой PCIe 7.0 ещё долго. На 2027 год запланирован старт предварительного «тестирования на соответствие» (FYI, First Year Inventory Compliance Program), так что внедрение нового стандарта начнётся не раньше 2028 года. Внедрение PCIe 6.0, представленного ещё в январе 2022 года, тоже только-только начинается и займёт ещё год-два.

Анонсированная почти два года назад оптическая версия PCIe продолжает разрабатываться. В PCIe 7.0 и PCIe 6.4 впервые были добавлены спецификации ретаймеров, которые позволят передавать сигнал PCIe по оптоволокну. Это позволит сделать интерконнект на базе PCIe значительно компактнее, чем при использовании традиционных медных соединений, а также позволит эффективно вывести PCIe за пределы узла. Впрочем, пока что речь идёт скорее о масштабах стойки или нескольких, а не целого ЦОД.

Постоянный URL: http://servernews.ru/1124309
11.06.2025 [11:20], Руслан Авдеев

AWS инвестирует $20 млрд в ИИ ЦОД в Пенсильвании и ещё $10 млрд — в Северной Каролине

Amazon Web Services (AWS) объявила о крупнейших в своей истории инвестициях в дата-центры в Северной Каролине и Пенсильвании — $10 млрд и $20 млрд соответственно. По данным The Next Platform, в первом штате строительство будут вести в округе Ричмонд (Richmond), во втором, как сообщает Datacenter Dynamics, в городках Салем (Salem Township) и Фолл (Falls Township).

Так, в Ричмонде на территории технопарка Energy Way компания AWS получила контроль над участком площадью около 325 га, рядом с газовой электростанцией Duke Energy Smith Energy Complex на 2,2 ГВт. В рамках проекта построят до 20 зданий площадью общей площадью около 790 тыс. м2. Для сравнения — самый плотный кластер ЦОД в округах Лаудон (Laudon) и Принс-Уильям (Prince William) в Вирджинии насчитывает около 12 млн м2 на участке порядка 2,6 км2. На постоянной основе дата-центры будут обеспечивать около 500 рабочих мест.

Ранее у AWS не было крупных дата-центров в Северной Каролине, хотя компания вложила здесь $12 млрд в логистическую инфраструктуру. Запад Северной Каролины уже давно привлёк внимание индустрии ЦОД благодаря обилию ресурсов, от электроэнергии до воды и земли. Именно поэтому инвестиции IT-гигантов начались здесь ещё с 2007 года: Google, Apple, Meta и Microsoft вложили здесь $1,2 млрд, $1 млрд, $750 млн и $1 млрд соответственно. Хотя Microsoft приостановила здесь реализацию проектов весной 2025 года, официально их никто не отменял.

В AWS рассчитывают, что значительная часть нового кластера будет использоваться для ИИ-нагрузок. По мнению экспертов, если $5 млрд из общего бюджета в $10 млрд уйдут на вычислительное оборудование, на эти средства можно будет внедрить 106 800 ускорителей NVIDIA Blackwell B200 или же 220–330 тыс. ускорителей Trainium2 (зависит от стоимости продукта).

 Источник изображения: Daniel Weiss/unsplash.com

Источник изображения: Daniel Weiss/unsplash.com

Также AWS направит $20 млрд на расширение ИИ-инфраструктуры в Пенсильвании. В Салеме и Фолле построят «инновационные кампусы», но рассматриваются и другие округа штата. По словам местных властей, речь идёт о крупнейших в истории штата частных инвестициях. Как утверждают в Amazon, компания с 2010 года вложила более $26 млрд в местную инфраструктуру, выплаты сотрудникам и др.

Строительство в Салеме рассматривалось с начала 2024 года. Компания приобрела кампус ЦОД Talen Energy и более 485 га. В мае AWS успешно резонировала почти 650 га в этом районе для т.н. Special Data Center Overlay District. Всего планируется построить 15 зданий дата-центров в течение следующих десяти лет. Компания надеялась запитать кампус напрямую от АЭС Susquehanna и увеличить мощность дата-центров, но проект был заблокирован регуляторами.

В ноябре 2024 года наблюдательный совет Фолла одобрил соглашение о неразглашении для предложенного проекта ЦОД в ТЦ Keystone Trade Center в Моррисвилле (Morrisville), недалеко от Филадельфии (Пенсильвания). Неизвестно, идёт ли речь о проекте AWS — но компания часто заключает подобные соглашения о своих стройках. Также AWS инвестировала в возобновляемую энергетику штата, в т. ч. в 12 солнечных электростанций и солнечные мощности на территории объектов.

В числе прочих инвестиций Amazon в последние месяцы — $5 млрд для расширения инфраструктуры на Тайване, а также $4 млрд — в Чили. Облачный регион в этой стране должен заработать к концу 2026 года.

Постоянный URL: http://servernews.ru/1124273
11.06.2025 [09:11], Владимир Мироненко

AWS резко снизила стоимость EC2-инстансов с ускорителями NVIDIA, но только для старых моделей

AWS объявила об очередном снижении тарифов на GPU-инстансы, которое, по словам компании, стало регулярной практикой благодаря активной работе над снижением расходов. Впрочем, в период острого дефицита вычислительных мощностей в последние год-два, когда использование ускорителей даже для внутренних нужд было резко ограничено, компания наверняка заработала достаточно, чтобы неоднократно окупить закупку и обслуживание соответствующего «железа».

На прошлой неделе была снижена до 45 % стоимость использования инстансов EC2 на базе ускорителей NVIDIA, включая семейства P4 (P4d и P4de на базе A100) и P5 (P5 и P5en на базе H100 и H200 соответственно). Снижение стоимости тарифов On-Demand и Savings Plan распространяется на все регионы, где доступны эти инстансы. На On-Demand — с 1 июня, на Savings Plan — после 4 июня.

Savings Plans предлагает гибкую модель ценообразования с низкими ценами на использование вычислений в обмен на обязательство по постоянному объёму использования (измеряется в $/час) в течение 1 года или 3 лет. AWS предлагает два типа Savings Plans:

  • EC2 Instance Savings Plans предлагает самые низкие цены в обмен на обязательство по использованию отдельных семейств инстансов в регионе (например, использование P5 в регионе Северная Вирджиния).
  • Compute Savings Plans обеспечивает максимальную гибкость и позволяет сократить расходы клиента независимо от семейства инстансов, размера, зон доступности и регионов.
 Источник изображения: AWS

Источник изображения: AWS

Чтобы обеспечить повышенную доступность по сниженным ценам, AWS предоставляет масштабируемую ёмкость в рамках тарифа On-Demand для:

  • инстансов P4d в Азиатско-Тихоокеанском регионе (Сеул), Азиатско-Тихоокеанскои регионе (Сидней), Канаде (Центральная часть) и Европе (Лондон).
  • инстансов P4de в регионе Восток США (Северная Вирджиния).
  • инстансов P5 в Азиатско-Тихоокеанском регионне (Мумбаи), Азиатско-Тихоокеанском регионе (Токио), Азиатско-Тихоокеанском регионе (Джакарта) и Южной Америке (Сан-Паулу).
  • инстансов P5en в Азиатско-Тихоокеанском регионе (Мумбаи), Азиатско-Тихоокеанском регионе (Токио) и Азиатско-Тихоокеанском регионе (Джакарта).

Также теперь AWS предлагает инстансы Amazon EC2 P6-B200 в рамках тарифа Savings Plan для поддержки крупномасштабных развёртываний, которые стали доступны 15 мая 2025 года при запуске только через EC2 Capacity Blocks для машинного обучения. Инстансы EC2 P6-B200 на базе ускорителей NVIDIA Blackwell обеспечивают обработку широкого спектра рабочих нагрузок, но особенно хорошо подходят для крупномасштабного распределённого обучения и ИИ-инференса, отметила AWS.

Постоянный URL: http://servernews.ru/1124257
10.06.2025 [17:45], Руслан Авдеев

Великобритания потратит £1 млрд на развитие ИИ-инфраструктуру: Nscale развернёт 10 тыс. ускорителей NVIDIA, а Nebius — ещё 4 тыс.

Британское правительство объявило о намерении потратить £1 млрд ($1,36 млрд) на масштабирование национальных вычислительных мощностей «в 20 раз», сообщает Datacenter Dynamics со ссылкой на премьер-министра Кира Стармера (Keir Starmer). Участвовать в развитии ИИ на острове намерены и другие компании, в том числе Nebius.

Никаких деталей о том, как будут тратиться средства, не сообщалось. Ранее цель двадцатикратного прироста ставилась на 2030 год. Дополнительно Стармер пообещал оптимизировать нормативную базу для получения разрешений на строительство ЦОД в Великобритании, анонсировав «технологическую неделю» в стране вместе с главой NVIDIA Дженсеном Хуангом (Jensen Huang).

По словам чиновника, это означает, что Великобритания может стать «производителем» ИИ, а не только «потребителем», в том числе страна сможет предоставлять больше ИИ-услуг в государственном секторе. Министр пообещал ускорить строительство крупных ИИ-лабораторий и дата-центров. Специальный законопроект Planning and Infrastructure Bill, упрощающий многие процедуры в этой сфере, уже ожидает рассмотрения британскими парламентариями. Он способен «изменить правила игры».

 Истчоник изображения: Benjamin Davies/unsplash.com

Истчоник изображения: Benjamin Davies/unsplash.com

Одновременно с докладом Стармера NVIDIA объявила, что будет инвестировать в страну и заключила сделки с облачным провайдером Nscale для внедрения 10 тыс. ускорителей Blackwell к концу 2026 года, Nebius может рассчитывать на 4 тыс. ускорителей, причём речь идёт о B300. NVIDIA — один из участников группы UK Sovereign AI Industry Forum, в число основателей которой также входят Babcock, BAE Systems, BT, National Grid и Standard Chartered.

По мнению Хуанга, Великобритания находится в идеальных условиях для развития ИИ. Возможность строительства в стране мощных ИИ-суперкомпьютеров будет привлекать всё больше стартапов. Он отметил, что нация имеет богатую историю создания стартапов и добавил, что условия идеальны для «взлёта», пока не хватает лишь суверенной ИИ-инфраструктуры. В Соединённом Королевстве уже обозначили намерение превратиться в «ИИ-сверхдержаву». Правда, пока непонятно, хватит ли на это энергии.

Постоянный URL: http://servernews.ru/1124232

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus