Материалы по тегу: hardware

12.11.2025 [08:45], Руслан Авдеев

ZincFive представила аккумуляторную систему для ИИ ЦОД — BC 2 AI на основе никель-цинковых элементов

Компания ZincFive представила аккумуляторы для ИИ ЦОД, выполненные по никель-цинковой (NiZn) технологии вместо распространённой литий-ионной (Li-Ion). Аккумуляторы объединяются в аккумуляторную систему BC 2 AI, сообщает компания.

Аккумуляторный шкаф BC 2 AI ёмкостью 90 А·ч специально разработан для обеспечения энергией ИИ-серверов для выполнения ресурсоёмких задач в имеющих критическое значение дата-центрах. Модель разработана для работы в «двойном» режиме — она может использоваться как аккумуляторная система резервного питания, так и для активного управления энергией (Battery Management System), когда резервное питание не используется.

По словам разработчика, система обеспечивает «ультрабыстрый» отклик на перепады нагрузки, исключительную «энергетическую плотность» и непревзойдённую энергобезопасность и экоустойчивость благодаря специфике NiZn-технологий. Это позволяет дата-центрам уверенно адаптироваться к меняющимся потребностям ИИ-инфраструктуры, говорит компания.

 Источник изображения: ZincFive

Источник изображения: ZincFive

Система разработана для компенсации скачков нагрузки от кластеров ИИ-ускорителей во время обучения моделей. Одновременно она обеспечивает стабильное электропитание для стандартных IT-нагрузок. Утверждается, что она, управляя питанием на уровне ИБП (UPS), снижает нагрузку на внешнюю энергоинфраструктуру, сокращает капитальные затраты (CAPEX) и улучшает взаимодействие с общей энергосетью.

Ещё одним преимуществом называется довольно компактная конструкция. Конкурирующие решения требуют в два-четыре раза больше пространства для сглаживания скачков потребления при ИИ-нагрузках, которые могут составить до 150 % от номинальной мощности ИБП. Система рассчитана на гиперскейлеров, колокейшн-провайдеров и OEM-партнёров, выпускающих ИБП. Она уже заслужила ряд престижных отраслевых премий.

Летом 2024 года сообщалось, что совокупная мощность отгруженных и заказанных никель-цинковых аккумуляторов компании уже превысила 1 ГВт.

Постоянный URL: http://servernews.ru/1132199
12.11.2025 [00:28], Владимир Мироненко

Nebius заключила сделку с Meta✴ на $3 млрд, распродав все свои вычислительные мощности и нарастив выручку на 355 %

Поставщик облачных ИИ-решений Nebius Group N.V. (бывшая материнская структура «Яндекса» Yandex N.V.) заключил сделку с Meta на $3 млрд на предоставление гиперскейлеру доступа к ИИ-инфраструктуре в течение пяти лет. Об этом сообщил основатель и генеральный директор Nebius Аркадий Волож в письме акционерам, посвящённом итогам III квартала 2025 финансового года, завершившегося 30 сентября 2025 года.

Не раскрывая подробностей, Волож сообщил, что размер контракта был ограничен объёмом имеющихся мощностей. По его словам, компания в течение трёх месяцев развернёт все необходимые для его обслуживания мощности. Волож добавил, что, как и в случае со сделкой с Microsoft, экономические условия этого соглашения привлекательны и помогут ускорить рост облачного ИИ-бизнеса Nebius. По словам Воложа, выручка от сделки с Microsoft на сумму до $19,4 млрд, тоже заключённой на пять лет, начнёт расти в 2026 году.

 Источник изображения: Nebius

Источник изображения: Nebius

Nebius также опубликовала неаудированные результаты за III квартал 2025 финансового года. Выручка компании составила $146,1 млн, что на 355 % больше год к году и на 39 % больше, чем в предыдущем квартале. Nebius завершила квартал с чистым убытком в размере $119,6 млн, что больше убытка годом ранее, составившего $43,6 млн. Скорректированный чистый убыток вырос с $39,7 млн в прошлом году до $100,4 млн. Капитальные затраты компании взлетели на 455 % — до $955,5 млн со $172,1 млн годом ранее. Скорректированная EBITDA составила −$5,2 млн против −$45,9 млн годом ранее.

В 2026 году компания планирует достичь годовой доходности (Annualized Run Rate, ARR) в пределах $7–$9 млрд. Также было объявлено, что в настоящее время все доступные мощности Nebius распроданы. Волож заявил, что 2025 год стал годом развития, поскольку компания создала инфраструктуру и основу для будущего быстрого роста. В следующем году Nebius должна прочно занять место в числе ведущих мировых компаний в сфере облачных ИИ-технологий, считает глава компании.

«И в то же время 2026 год — это только начало», — добавил он. Волож сообщил, что для поддержки амбициозных планов роста в 2026 году и сохранения этих темпов роста в 2027 году компания будет использовать как минимум три источника финансирования: корпоративный долг, финансирование под залог активов и акционерный капитал.

«В прошлом квартале мы прогнозировали 1 ГВт законтрактованной мощности к концу 2026 года. В настоящее время мы занимаемся поиском дополнительных площадок, которые доведут нашу общую законтрактованную мощность (т.е. закреплённую за электроэнергией землю) примерно до 2,5 ГВт к концу 2026 года, — рассказал Волож. — Из этого контрактного объёма мы ожидаем, что к концу 2026 года будет подключено от 800 МВт до 1 ГВт электроэнергии (т.е. электроэнергии, подключенной к построенным ЦОД)».

Постоянный URL: http://servernews.ru/1132227
11.11.2025 [15:39], Руслан Авдеев

Tapestry, «ИИ-управляющий» энергосетями от Google X, поможет обеспечить надёжное питание кампуса Rio AI City мощностью 1,8 ГВт

Один из инновационных проектов Google X — компания Tapestry заключила соглашение с властями Рио-де-Жанейро. Компания поможет в создании и поддержке энергетической инфраструктуры 1,8-ГВт кампуса ЦОД Rio AI City, создаваемого при участии NVIDIA и Oracle, сообщает Datacenter Dynamics. Tapestry подключилась к проекту по приглашению мэра Рио Эдуардо Паэса (Eduardo Paes).

В рамках сделки Tapestry поможет в оценке и планировании энергетической инфраструктуры AI City. Для управления сетями в проекте будет применяться инструмент GridAware, предлагаемый Tapestry — он обеспечит проверку состояния физической электросети в AI City. Позже инструмент Grid Planning Tool будет применяться для расчёта сценариев, позволяющих нарастить генерирующие мощности и пропускную способность сетей с сохранением почти 100 % надёжности. Также в проекте принимает участие Axia Energia (Electrobras), крупнейшая в Латинской Америке компания по генерации и передаче электроэнергии, оператор и застройщик ЦОД Elea Data Centers, и местная энергокомпания Light SA.

 Источник изображения: Elea Data Centers

Источник изображения: Elea Data Centers

Tapestry — инновационный проект под «зонтиком» Google X, который с помощью ИИ создаёт «первую унифицированную модель энергосети». Компания надеется помочь всем, планирующим и строящим электросети, а также управляющим ими. Пользователи ПО смогут оптимизировать энергопотоки и подключать к сети энергию из различных источников.

Развитие Rio AI City уже началось. Ожидается, что второй объект кампуса RJO2 получит 80 МВт в 2026 году. Позже в эксплуатацию введут площадки RJO3 и RJO4, ещё на 120 МВт. В дальнейшем на первом этапе мощность можно будет увеличить до 1,5 ГВт (включая существующий объект RJO1), а в будущем — до 3,2 ГВт и 27 объектов.

Постоянный URL: http://servernews.ru/1132194
11.11.2025 [15:14], Руслан Авдеев

Облака и ЦОД Northern Data будут проданы Rumble для создания экосистемы Freedom-First с упором на свободу слова и приватность, а майнинговые мощности достанутся Elektron Energy

Немецкая IT-компания Northern Data Group будет продана видеоплатформе и облачному провайдеру Rumble Inc. Последняя купит 100 % акций Northern Data. Сделка предусматривает покупку всего бизнеса, включая облачные и ИИ-подразделения, и будет закрыта во II половине 2026 года, сообщает Datacenter Dynamics. В Rumble сообщают, что намерены расширить облачный бизнес за счёт активов Northern Data, получив одни из крупнейших массивов ИИ-ускорителей в Европе наряду с ЦОД. Это поможет компании построить собственную экосистему Freedom-First.

Экосистема Freedom-First, в отличие от классических гиперскейлеров, якобы предполагает поддержку свободы слова, приватности, независимости и надёжности. В будущем планируется расширить портфолио сервисов, предложив Rumble Wallet, ИИ-ботов и агентов и др. Основанная в 2022 году Rumble включает видеоплатформу, а также облачный сервис Rumble Cloud. Последний распоряжается ЦОД в несколкьих американских штатах.

В рамках сделки каждый совладелец Northern Data получит по 2,0281 акций Rumble класса A в обмен на каждую акцию Northern Data. Также среди акционеров распределят $200 млн. На сегодня крупным акционером Northern и Rumble является криптомайнинговая компания Tether. Она, наряду с другими инвесторами, и приняла решение о продаже. В минувшие выходные Northern Data объявила о продаже доли в Lancium, задействованной в проекте Stargate, за $30 млн. Кроме того, упомянуто соглашение с Tether об аренде ИИ-ускорителей на сумму до $150 млн в течение двух лет.

Параллельно Northern Data избавится от подразделения, ответственное за майнинг криптовалют, чтобы полностью сосредоточиться на облачных сервисах и ЦОД, сообщает Datacenter Dynamics. Первоначальный платёж за майнинговый бизнес Peak Mining должен был составить $50 млн. Имя покупателя не называлось, но в августе появилась информация, что майнинговое подразделение продадут Elektron Energy за $350 млн. Ещё $150 млн будет выплачено, если прибыль подразделения после сделки достигнет заданных показателей. Вырученные средства пойдёт на расширение облачных и ИИ-сервисов.

 Источник изображения: Kanchanara/unsplash.com

Источник изображения: Kanchanara/unsplash.com

Northern Data была основана в Германии в 2009 году под именем Northern Bitcoin AG. Бизнес позиционировал себя как «зелёного» майнера биткоинов. В 2020 году компанию переименовали в Northern Data Group и переориентировали на HPC-проекты в целом. Летом 2023 года компания запустила три бернда: Taiga Cloud, Ardent Data Centers и Peak Mining. Облаку Taiga Cloud досталось более 22 тыс. ИИ-ускорителей.

Что касается Ardent Data Centers, то восемь ЦОД по всему миру к 2027 году совокупно достигнут мощности порядка 250 МВт. Ardent управляет дата-центрами в Будене (Boden) в Швеция, а также в Норвегии — в Лефдале (Lefdal) на мощностях Lefdal Mine и Кристиансанне (Kristiansand) на мощностях Bulk. В США летом 2025 года компания открыла дата-центр в Питтсбурге (Пенсильвания). Также планируется масштабное строительство в Мейсвилле (Maysville, Джорджия). Также упоминаются мощности для размещения оборудования в Великобритании и Португалии. Дополнительно упомянуто о площадке мощностью 6 МВт в Амстердаме (Нидерланды).

В мае Northern Data сообщала о получении от компаний, «зарегистрированных на бирже в США», заявлений о заинтересованности в обсуждении о слиянии с подразделениями Taiga Cloud и Ardent или их приобретении. В августе компания Rumble Inc. объявила, что заинтересована в рассмотрении покупке, в качестве средства оплаты предлагая свои акции взамен активов.

Положение Northern Data на рынке не вполне стабильно. Если в июле 2024 года сообщалось, что компания рассматривает вывод на IPO подразделений ЦОД и ИИ, то в сентябре 2025 года появилась информация о том, что европейских офисах компании прошли обыски и аресты. Сообщалось, что компанию подозревают в неуплате €100 млн налогов от деятельности, связанной с криптомайнингом.

Постоянный URL: http://servernews.ru/1132185
11.11.2025 [12:03], Сергей Карасёв

Стартап Majestic Labs обещает ИИ-серверы со 128 Тбайт RAM

Компания Majestic Labs, занимающаяся разработкой серверов нового поколения для наиболее ресурсоёмких задач ИИ, объявила о выходе из скрытого режима (Stealth) и проведении раунда финансирования Series A. В общей сложности стартап на сегодняшний день получил на развитие $100 млн. Majestic Labs основана бывшими сотрудниками Google и Meta. Компания разрабатывает серверы высокой плотности, способные справляться с самыми масштабными и сложными задачами ИИ, для которых в настоящее время требуются несколько стоек с вычислительным оборудованием и коммутаторами.

По оценкам Стэнфордского университета (Stanford University), размер кластеров для обучения ИИ-моделей удваивается каждые пять месяцев, объём наборов данных — каждые восемь, а энергопотребление — ежегодно. При этом узким местом, по заявлениям Majestic Labs, является память ИИ-систем: наблюдается разрыв между её объемом и производительностью и собственно вычислительными возможностями ускорителей. В результате, компании вынуждены приобретать избыточные дорогостоящие ИИ-карты только для того, чтобы получить доступ к большему объёму памяти.

 Источник изображения: unsplash.com / Immo Wegmann

Источник изображения: unsplash.com / Immo Wegmann

Majestic Labs рассчитывает решить проблему путём использования принципиально новой архитектуры ИИ-серверов, меняющей баланс памяти и вычислительных мощностей. Стартап заявляет, что каждый сервер нового типа сможет нести на борту столько же памяти, сколько 10 или более современных стоек. Разрабатываемая архитектура позволит радикально сократить затраты на охлаждение, сетевое оборудование и другие компоненты, которые используются в традиционных системах.

«Серверы Majestic будут обладать всеми вычислительными возможностями современных устройств на базе GPU и TPU в сочетании с 1000-кратным увеличением объёма памяти», — говорит соучредитель и генеральный директор стартапа Офер Шахам (Ofer Shacham).

Архитектура Majestic Labs предусматривает разделение памяти и вычислительных ресурсов. В серверах будут применяться специализированные ИИ-ускорители и блоки «чрезвычайно быстрой и энергоэффективной памяти с высокой пропускной способностью» (тип не уточняется). Каждый сервер сможет нести на борту до 128 Тбайт RAM, что позволит работать с самыми крупными моделями LLM с огромными контекстными окнами. При этом будет обеспечиваться значительное снижение энергопотребления по сравнению с традиционными системами сопоставимого уровня, объединяющими несколько стоек с оборудованием.

Программу финансирования Series A на сумму в $71 млн возглавляет Bow Wave Capital. Предыдущим посевным раундом руководила инвестиционная компания Lux Capital. Кроме того, поддержку стартапу оказывают SBI, Upfront, Grove Ventures, Hetz Ventures, QP Ventures, Aidenlair Global и TAL Ventures.

Majestic Labs планирует продавать своё оборудование гиперскейлерам, операторам крупных дата-центров, финансовым учреждениям и фармацевтическим компаниям. Стартап рассчитывает выпустить первые коммерческие серверы в 2027 году. Привлечённые средства будут также использованы для расширения команды инженеров и улучшения программного стека, обеспечивающего работу систем нового типа.

Постоянный URL: http://servernews.ru/1132177
11.11.2025 [10:20], Сергей Карасёв

Четырнадцатый Национальный суперкомпьютерный форум (НСКФ-2025)

АНО «Национальный суперкомпьютерный форум», Институт программных систем имени А.К. Айламазяна РАН и Национальная суперкомпьютерная технологическая платформа проводят 25 ноября — 28 ноября 2025 г. Четырнадцатый Национальный суперкомпьютерный форум (НСКФ-2025). Все мероприятия форума посвящены состоянию и перспективам развития национальной суперкомпьютерной отрасли, вопросам создания и практики применения суперкомпьютерных, грид- и облачных технологий.

Форум состоится в г. Переславле-Залесском, в ИПС имени А.К. Айламазяна РАН, запланированы научно-практическая конференция, выставка, тренинги, онлайн пресс-конференция, круглые столы (совещания), а также неформальное общение участников.

 Источник изображения: НСКФ-2025

Источник изображения: НСКФ-2025

На выставке планируется представить продукцию и технические достижения отечественных производителей. Научная конференция включит в себя представителей большинства ведущих научных центров, а на семинарах и тренингах участники смогут узнать основные приёмы и тонкости работы c новейшими разработками. В рамках форума также состоится онлайн пресс-конференция по наиболее ярким текущим событиям отечественной суперкомпьютерной отрасли.

НСКФ-2025 предусмотрен планом работы Национальной суперкомпьютерной технологической платформы на 2025 год.

Сайт мероприятия: https://2025.nscf.ru/.

Подробная информация о форуме доступна в разделе «Информационные материалы».

Зарегистрироваться для участия можно по адресу: https://2025.nscf.ru/kabinet-uchastnika/.

Постоянный URL: http://servernews.ru/1132150
11.11.2025 [09:48], Руслан Авдеев

«Никто не хочет ЦОД у себя во дворе» — юрист Microsoft о проблемах строительства дата-центров

В ходе вебинара «Дата-центр: строительство, контракты и долги» (Data centers: Construction, contracts and debt), организованного юридической компанией Norton Rose Fulbright, представитель Microsoft выступила с любопытным заявлением. По словам главного корпоративного юриста компании Линди Стоун (Lyndi Stone), «на самом деле никто не хочет иметь дата-центр у себя на заднем дворе», сообщает Datacenter Dynamics.

По словам Стоун, раньше ЦОД строили вдали от населённых пунктов и жилых зон, но по мере экспансии у них появились соседи, находящиеся совсем рядом и не желающие иметь дата-центр на заднем дворе. Более того, сама Стоун заявила, что не хотела бы такого для себя. Хотя она представляет интересы Microsoft, в настоящее время агрессивно расширяющей мощности ЦОД в США и по всему миру, её комментарии буквально повторяют тезисы многих сельских общин, негативно реагирующих на проекты строительства дата-центров.

 Источник изображения: AMONWAT DUMKRUT/unsplash.com

Источник изображения: AMONWAT DUMKRUT/unsplash.com

В основном жители опасаются роста стоимости коммунальных услуг, негативного воздействия на окружающую среду и изменение традиционного облика района в целом. Кроме того, жителей раздражают требования подписать соглашения о неразглашении для получения информации о проекте и высокая скорость утверждения подобных проектов властями. В результате проекты ЦОД зачастую или сразу отклоняются властями, или от них отказываются сами застройщики. Microsoft множество раз сталкивалась с такой ситуацией.

Тем временем глава компании Сатья Наделла (Satya Nadella) заявил о намерении Microsoft увеличить мощности ИИ-проектов в течение 2026 финансового года более чем на 80 % и примерно вдвое увеличить площадь дата-центров за пару лет. Сообщается, что только в 2025 году в действие введено около 2 ГВт ЦОД, в последнем квартале капитальные издержки выросли на 50 % квартал к кварталу до $34,9 млрд. Из них $11,1 млрд потрачены на аренду мощностей в сторонних ЦОД.

Выступая, Стоун упомянула и тему новых рабочих мест, заявив, что во время строительства у людей действительно появляется довольно много работы, но после ввода ЦОД в эксплуатацию для его обслуживания надо очень мало сотрудников, поэтому польза для местных сообществ невелика. Кроме того, такие места часто требуют высокой квалификации, поэтому операторы ЦОД привлекают специалистов со стороны.

 Источник изображения: Ma Ti/unsplash.com

Источник изображения: Ma Ti/unsplash.com

Стоун рассказала и о политической проблеме — представителей местных властей выбирают непосредственно люди, поэтому им приходится учитывать мнение избирателей, а застройщикам и операторам ЦОД приходится получать общественный «кредит доверия», поскольку чиновникам приходится учитывать позицию жителей. Сопротивление стало особенно активным на фоне бума ИИ. Операторы ЦОД, стремящиеся быстро получить доступ к электричеству и другим ресурсам, переключили внимание с мегаполисов и их окрестностей на небольшие сельские поселения.

Впрочем, жители и местные активисты нередко жалуются на те или иные проблемы, связанные с ЦОД. Так, в конце октября появилась информация, что дата-центры лишают людей воды и света от Мексики до Ирландии. А в Северной Вирджинии, крупнейшем в мире рынке ЦОД гиперскейлеров, дата-центры создают невыносимый шум — местные жители активно судятся с властями и IT-гигантами. Тем не менее, ещё летом сообщалось, что рынок ЦОД стал настолько привлекателен, что даже высокий порог входа не останавливает неквалифицированных инвесторов от попыток заработать.

Постоянный URL: http://servernews.ru/1132135
11.11.2025 [09:09], Владимир Мироненко

Meta✴ потратит $600 млрд на ИИ ЦОД, инфраструктуру и кадры, чтобы создать сверхинтеллект и сохранить технологическое лидерство США

Meta планирует потратить $600 млрд на цифровую инфраструктуру и рабочие места в США, включая ЦОД, в течение следующих трёх лет. Об этом компания сообщила в конце прошлой недели в своём блоге и на промо-странице Building America. Meta отметила, что ЦОД «имеют решающее значение» для достижения её цели — «создать сверхинтеллект для всех» и «помочь Америке сохранить своё технологическое превосходство».

«Именно поэтому мы инвестируем в строительство ведущих в отрасли ИИ ЦОД прямо здесь, в США. Мы планируем выделить более $600 млрд к 2028 году на поддержку технологий ИИ, инфраструктуры и расширение штата», — сообщается в публикации. Из каких источников будет обеспечиваться реализация этих планов, компания не сообщила. С учётом того, что её выручка за прошлый год составила $62,3 млрд, можно предположить, что Meta рассчитывает на внешнюю поддержку. Сейчас компания создаёт гигаваттные ИИ ЦОД Hyperion, Prometheus и недавно анонсированный кампус в Техасе. Всего у компании есть порядка 30 действующих и строящихся кампусов ЦОД по всему миру.

 Источник изображения: ***

Источник изображения: Meta

Первоначально эта сумма была названа гендиректором Meta Марком Цукербергом (Mark Zuckerberg) во время ужина с президентом США Дональдом Трампом (Donald Trump) и другими лидерами в сфере ИИ. Цукерберг сказал, что Meta инвестирует «что-то около, я не знаю, как минимум $600 млрд до 2028 года в США», напомнил ресурс Business Insider. Тогда Цукерберг, по-видимому, был не совсем уверен в точной сумме. В разговоре с Дональдом Трампом, который был слышен присутствующим на ужине, поскольку те находились возле микрофона, Цукерберг сказал: «Я не был уверен, какую сумму вы бы выбрали».

На конференции Goldman Sachs в Сан-Франциско, состоявшейся позже в том же месяце, финансовый директор Meta Сьюзан Ли (Susan Li) пояснила, что названная Цукербергом сумма включает все планируемые Meta затраты на развитие инфраструктуры ЦОД в США, а также «все инвестиции, направленные на поддержку деятельности нашего бизнеса в США», включая найм персонала Meta. Теперь Meta заявила, что направит средства на разработку проектов ИИ ЦОД, которые позволят сократить потребление воды, стремясь к 2030 году стать «водосберегающей» компанией, то есть возвращать в окружающую среду больше воды, чем потреблять.

 Источник изображения: ***

Источник изображения: Meta

«Строя ЦОД в США, мы не только развиваем технологии и ИИ-инфраструктуру, но и создаем рабочие места, поддерживаем местную экономику и укрепляем технологическое лидерство Америки», — отметила компания. Meta заявила, что благодаря её инициативам в сфере ЦОД с 2010 года было создано 30 тыс. рабочих мест для квалифицированных специалистов и 5 тыс. рабочих мест в связанных областях. Компания добавила, что в настоящее время обеспечивает субподрядчиков по всей территории США более чем $20 млрд выручки, поддерживая сталелитейщиков, монтажников трубопроводов, электриков, специалистов по ВОЛС и других специалистов, которые строят новое поколение оптимизированных для ИИ дата-центров.

Ожидается, что в этом году капитальные затраты Meta составят $72 млрд. Сьюзан Ли в прошлом месяце сообщила инвесторам, что в 2026 году капзатраты «значительно» вырастут в связи с планами «активно инвестировать» в дата-центры. Цукерберг заявил, что риск чрезмерного развития ИИ-инфраструктуры оправдан, если это позволит не отстать в гонке за право первым создать сверхинтеллект. При худшем сценарии развития событий у компании будет готова инфраструктура на несколько лет вперед, и она, понеся некоторые затраты на амортизацию, в конечном итоге нарастит дополнительные мощности.

Постоянный URL: http://servernews.ru/1132169
10.11.2025 [15:46], Руслан Авдеев

Большой дата-центр для маленького острова: Google хочет построить ИИ ЦОД для военных на Острове Рождества в Индийском океане

Google намерена построить большой ИИ ЦОД на маленьком австралийском Острове Рождества (Кристмас) в Индийском океане после подписания соглашения с Министерством обороны Австралии, сообщает Reuters. ЦОД на острове, расположенном в 350 км к югу от Индонезии, станет ценным активом — остров всё чаще рассматривается западными военными как важнейший пункт мониторинга движения китайских подводных лодок и прочей военно-морской активности в Индийском океане.

По данным представителей властей острова и согласно протоколам заседания местного совета, Google активно ведёт переговоры об аренде земли неподалёку от местного аэропорта для строительства дата-центра и о поставках энергии. Google заявила, что проект является частью работы по созданию подводной кабельной инфраструктуры для обеспечения повышенной цифровой устойчивости в Австралии и Индо-Тихоокеанском регионе.

Впрочем, в компании утверждают, что речь идёт о небольшом ЦОД. По словам пожелавшего остаться анонимным источника, Google запрашивает запросила поставку 7 МВт с использованием дизельной генерации и возобновляемых источников. Местные власти желают, чтобы это никак не сказалось на доступности энергии для местных жителей и компаний. В доступной документации указано, что Google предлагает построить дополнительную кабельную систему, которая свяжет остров с материками. Власти Австралии подтвердили планы Google по постройке ЦОД и прокладке кабеля до города Дарвин (Darwin). В Министерстве обороны страны информацию не комментируют.

 Источник изображения: Duskfall Crew/unsplash.com

Источник изображения: Duskfall Crew/unsplash.com

В ходе недавних учений с участием США, Австралии и Японии Острову Рождества отводилась роль передовой линии обороны Австралии в любом региональном конфликте. Его преимуществом называют возможность запуска безэкипажных оружейных систем и дронов. Бывший представитель ВМС США, руководивший учениями, заявлял, что наличие на Острове Рождества узла командования и управления будет играть решающую роль в случае противостояния с Китаем или другим противником. По его словам, ЦОД отчасти позволит осуществлять командование и управление с помощью ИИ в будущем, особенно в случае применения беспилотных систем для наблюдения, целеуказания и даже боевых действий.

Министерство обороны Австралии уже заключило трёхлетнюю облачную сделку с Google, аналогичный договор имеется и у британских военных — это укрепит обмен разведданными с США. В октябре Google подала заявку австралийским регуляторам на прокладку подводного кабеля, соединяющего Остров Рождества с Дарвином (север Австралии) — именно там шесть месяцев в году базируется морская пехота Соединённых Штатов, не считая австралийских подразделений.

Руководство острова изучает предполагаемое воздействие ЦОД на местное сообщество, лишь после этого оно согласится дать окончательное разрешение на строительство. Остров площадью 135 км2 до недавнего времени не имел качественных телекоммуникационных каналов, а 1,6 тыс. его жителей не имели возможности найти хорошую работу. Утверждается, что идея пользуется поддержкой, поскольку ЦОД действительно принесёт пользу местным — для него построят инфраструктуру, создадут рабочие места и в целом экономическая ценность острова повысится.

 Источник изображения: Raphael Bick/unsplashc.com

Источник изображения: Raphael Bick/unsplashc.com

Правда, жители обеспокоены влиянием дата-центра на энергетику острова, находящегося в 1,5 тыс. км от Австралии. Сегодня там применяются дизельные генераторы, а также ограниченное число источников возобновляемой энергии. В «материковой» Австралии считают, что проект Google поможет диверсифицировать экономику острова, хотя для реализации проекта необходимо будет соблюдать все экологические требования.

По словам источников Reuters, дата-центр коммерчески привлекателен для Google, поскольку расположен в Индийском океане между Африкой, Азией и Австралией. Военным же они интересен потому, что позволяет контролировать несколько ближайших проливов. Развитие оборонного сектора, как ожидается, улучшит экономику острова, однако местные жители опасаются, что это же отпугнёт туристов. Сейчас на острове активно развивается направление экотуризма.

По данным Datacenter Dynamics, Минобороны Австралии заключило крупные контракты с американскими гиперскейлерами. В июле 2025 года с Microsoft подписана сделка на AU$495 млн ($324,71 млн) об использовании облачных вычислительных сервисов компании. В 2024 году появились данные, что AWS строит кампус для австралийского правительства для хранения совершенно секретной информации. Дата-центр и облачная система будет строиться в партнёрстве с AWS и австралийским правительством, последнее намерено вложить AU$2 млрд ($1,3 млрд) в новую систему в следующие десять лет. В 2023 году стало известно, что Пентагон оплатил треть стоимости подводного интернет-кабеля SubCo OAC от Омана до Австралии в обмен на секретное подключение военной базы на острове Диего-Гарсия.

Постоянный URL: http://servernews.ru/1132142
10.11.2025 [15:00], Владимир Мироненко

Фирменные ИИ-ускорители Amazon всё ещё не могут конкурировать с чипами NVIDIA, считают некоторые стартапы

Некоторые стартапы считают, что ИИ-чипы Trainium и Inferenetia собственной разработки Amazon менее конкурентоспособны, чем ускорители NVIDIA, сообщил ресурс Business Insider со ссылкой на внутреннюю документацию AWS. Согласно июльскому «конфиденциальному» внутреннему документу Amazon, ИИ-стартап Cohere обнаружил, что чипы Amazon Trainium 1 и 2 «уступают по производительности» ускорителям NVIDIA H100. Стартап отметил, что доступ к Trainium2 был «крайне ограничен», а в работе наблюдались частые перебои.

Amazon и её подразделение Annapurna Labs всё еще изучают возникшие у Cohere «проблемы с производительностью», но прогресс в решении этих проблем был «ограниченным», отмечено в официальном документе. Также в нём упоминается стартап Stability AI, разработавший, в том числе, ИИ-генератор изображений Stable Diffusion, который высказывал схожие претензии. В частности, говорится, что чипы Amazon Trainium2 уступают NVIDIA H100 по задержке, что делает их «менее конкурентоспособными» с точки зрения скорости и стоимости.

Ставка Amazon на чипы собственной разработки является частью её усилий по обеспечению конкурентоспособности в ИИ-гонке. Её прибыльность основана в том числе на использовании собственных процессоров Graviton вместо дорогостоящих чипов Intel. И сейчас Amazon тоже стремится задействовать собственные чипы для обработки ИИ-нагрузок. Если некоторые клиенты AWS не захотят использовать Trainium и будут настаивать на том, чтобы AWS запускала свои облачные ИИ-системы с использованием чипов NVIDIA, которые гораздо дороже её собственных решений, это отразится на её прибыли от облачных вычислений, отметил Business Insider.

 Источник изображений: AWS

Источник изображений: AWS

Рынок стартапов давно является важным для AWS, поэтому их претензии имеют большое значение для компании. Представитель Amazon заявил, что компания «благодарна» клиентам за отзывы, которые помогают сделать её чипы «еще лучше и более широко используемыми». Он добавил, что кейс с Cohere «не является актуальным», отметив, что её чипы Trainium и Inferentia «достигли отличных результатов» с такими клиентами, как Ricoh, Datadog и Metagenomi. «Мы очень довольны ростом и внедрением Trainium2, который на данном этапе в основном используется небольшим числом очень крупных клиентов, таких как Anthropic», — написал представитель в электронном письме ресурсу Business Insider.

AWS утверждает, что ее собственные ИИ-ускорители предлагают на 30-40 % лучшие ценовые характеристики, чем нынешнее поколение GPU. Компания обладает «невероятными талантами» в области проектирования чипов и работает над новыми поколениями ускорителей. «Мы рассчитываем привлечь больше клиентов, начиная с Trainium 3, превью которого ожидается позже в этом году», — сказал представитель Amazon. Генеральный директор Amazon Энди Джасси (Andy Jassy) заявил во время отчёта о доходах компании, что чипы Trainium2 «полностью распределены по подписке» и теперь являются «многомиллиардным» бизнесом, который последовательно увеличивается на 150 % от квартала к кварталу.

Жалобы клиентов Amazon на её чипы поступали и раньше. Согласно июльскому документу, стартап Typhoon обнаружил, что устаревшие ускорители NVIDIA A100 в три раза экономичнее для определённых рабочих нагрузок, чем чипы Inferentia2 от AWS, ориентированные на инференс. В свою очередь, исследовательская группа AI Singapore установила, что серверы AWS G6, оснащённые ускорителями NVIDIA, более экономичны по сравнению с Inferentia2 при различных вариантах использования.

В прошлом году клиенты облака Amazon также отмечали «проблемы при внедрении» её пользовательских ИИ-чипов, которые создают «проблемные области», что ведёт к снижению их использования. Эти проблемы нашли отражение в доле рынка Amazon. По данным исследовательской компании Omdia, NVIDIA доминирует на рынке ИИ-чипов с долей более 78 %. За ней следуют Google и AMD, владеющие по чуть более 4 %. AWS занимает лишь шестое место с 2 % рынка.

Наглядно иллюстрирует проблемы Amazon в этом отношении соглашение AWS и OpenAI стоимостью $38 млрд. Сделка предполагает использование облачных ИИ-серверов на базе ускорителей NVIDIA, без упоминания чипов Trainium. Ускорители NVIDIA не только обеспечивают высокую производительность, но подкрепляются широко распространённой платформой CUDA. Это качество особенно ценно при разработке крупных проектов в области ИИ с высоким уровнем риска, когда надёжность и имеющийся опыт могут сыграть решающую роль.

В июльском документе сотрудники Amazon отметили, что технические ограничения и другие проблемы, связанные со сравнением пользовательских ИИ-чипов компании и ускорителей NVIDIA, стали «критическим препятствием» для клиентов, задумывающихся о переходе на чипы AWS. До публикации отчёта о доходах Amazon на прошлой неделе аналитики Bank of America соблюдали осторожность в оценке прогресса Tranium. В аналитической заметке, опубликованной в конце октября, они предупредили, что инвесторы «скептически» относятся к возможностям Trainium, и что «неясно», проявится ли высокий спрос на них «за пределами Anthropic».

Недавно AWS запустила проект Project Rainier — ИИ-кластер из полумиллиона чипов Trainium2, которые будут использоваться для обучения LLM следующего поколения Anthropic. Ожидается, что к концу года Anthropic получит более 1 млн чипов Trainium2, но решение по этому вопросу ещё не принято. Если реализация проекта будет успешной, это станет огромным подспорьем для Amazon. Вместе с тем в прошлом месяце Anthropic подписала многомиллиардный контракт на использование Google TPU, отметив, что продолжит использовать Trainium. Хотя Anthropic публично признала сложность использования архитектур с разными чипами, представитель Amazon сообщил Business Insider, что Anthropic продолжает расширять использование Trainium и подчеркнул стремление компании предлагать клиентам широкий спектр аппаратных опций в рамках своих облачных сервисов.

В ходе общения с аналитиками на прошлой неделе Джасси подчеркнул, что AWS сосредоточена на предоставлении «нескольких вариантов чипов». Он отметил, что цель состоит не в том, чтобы заменить чипы NVIDIA, а в том, чтобы предоставить клиентам больше выбора. Этой стратегии AWS придерживается и в других областях облачных вычислений, сказал он. «В истории AWS никогда не было случая, чтобы какой-то один игрок в течение длительного периода времени владел всем сегментом рынка, а затем мог удовлетворить потребности всех во всех аспектах», — сказал Джасси.

В долгосрочной перспективе не слишком удачные продажи собственных ускорителей не лучшим образом скажутся на AWS. Компания понимает, что её решения могут быть менее производительны и удобны, поэтому и предлагает их по меньшей цене, чем ускорители NVIDIA. Однако стоимость их производства сравнима со стоимостью производства чипов такого же класса, и со временем она будет только расти. Проще говоря, Amazon меньше зарабатывает на своих чипах, а в худшем случае может терять на них деньги.

Постоянный URL: http://servernews.ru/1132137

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;