Материалы по тегу:
|
07.11.2025 [22:12], Владимир Мироненко
VAST Data и CoreWeave заключили сделку на $1,17 млрдИИ-стартап VAST Data объявил о заключении сделки с облачным провайдером CoreWeave стоимостью $1,17 млрд, в рамках которой CoreWeave будет использовать VAST AI OS в качестве основной платформы управления данными для своей облачной ИИ-инфраструктуры. Финансовые подробности сделки, включая сроки действия не раскрываются. VAST лишь сообщил, что такие контракты обычно заключаются на три-пять лет. «Объединяя инфраструктуру CoreWeave и VAST AI, компании создают новый класс интеллектуальной архитектуры данных, предназначенной для поддержки непрерывного обучения, инференса в реальном времени и обработки больших объёмов данных для критически важных отраслей», — сообщается в пресс-релизе. Говорится, что расширенное партнёрство подтверждает давнюю приверженность CoreWeave использованию VAST AI OS в качестве основной платформы данных, укрепляя позиции VAST в качестве ключевого компонента ИИ-облака CoreWeave. VAST также сообщил, что его программно-определяемое хранилище построено на базе бесконечно масштабируемой архитектуры, которую можно развернуть в крупных ЦОД, где требуется надёжность и масштабируемость. Платформа управления данными VAST AI OS объединяет сервисы данных — DataSpace, DataBase, DataStore, DataEngine, AgentEngine, InsightEngine — поверх архитектуры DASE (Distributed and Shared Everything). Стек хранения CoreWeave включает локальные, объектные и распределённые файловые сервисы хранения. Локальное хранилище поддерживает эфемерные тома до 60 Тбайт, в то время как выделенные кластеры используют технологии VAST, WEKA, DDN, IBM Spectrum Scale и Pure Storage. Уровень объектного хранилища S3 использует локальный ускоритель передачи объектов (LOTA) для кеширования данных непосредственно на узлах GPU. Соглашение позволяет CoreWeave «управлять и защищать сотни петабайт данных одновременно. Кроме того, мы совместимы с POSIX и подходим для совместного доступа между несколькими экземплярами», заявили в Coreweave ресурсу Blocks & Files. VAST Data и CoreWeave планируют согласовать планы развития своих продуктов, чтобы улучшить хранение и доступ к данным для рабочих ИИ-нагрузок и повысить эффективность работы. Разрабатываемое VAST Data ПО позволяет компаниям эффективно хранить и обрабатывать большие объёмы информации, используемой для обучения и эксплуатации ИИ-систем, и получать доступ к неструктурированным данным, таким как электронные письма, сообщения клиентов, видео и PDF-файлы. Компания взимает с клиентов плату в зависимости от ёмкости и используемых функций. В числе партнёров VAST Data компания NVIDIA, заключившая с ней соглашение по созданию собственной инфраструктуры обработки данных. В прошлом году на встрече с главой VAST Data Ренен Халлак (Renen Hallak) генеральный директор и основатель NVIDIA Дженсен Хуанг (Jensen Huang) высоко оценил решения компании и заявил, что рассчитывает на сотрудничество с ней в течение следующих 80 лет, пишет CRN. Также среди партнёров стартапа ведущие провайдеры облачных услуг (AWS и др.), неооблака (Nebius и др.), лаборатории ИИ (xAI и др.), сообщил соучредитель VAST Джефф Денворт (Jeff Denworth) в интервью агентству Reuters. Сделка может помочь компании в привлечении финансирования. В августе сообщалось, что VAST ведёт переговоры о привлечении нескольких миллиардов долларов нового капитала при оценке до $30 млрд. Среди потенциальных инвесторов — фонд Alphabet CapitalG и NVIDIA. VAST Data оценивалась в $9,1 млрд после раунда финансирования в 2023 году. Инвесторы рассматривают компанию как потенциального кандидата на IPO.
07.11.2025 [18:08], Руслан Авдеев
Energy Storage Solutions построит в Северной Каролине гигантские кампусы ЦОД стоимостью $38 млрдПлан девелопера Energy Storage Solutions по созданию огромного парка ЦОД с энергохранилищами в Северной Каролине, наконец, получил разрешение местных властей, разрешивших строительство в рамках действующего зонирования, сообщает Datacenter Knowledge. Кампус мощностью 900 МВт намерены возвести в восточной части штата на участке площадью более 120 га. Начать реализацию первой фазы проекта, которая обойдётся в $19,2 млрд, намерены на площадке Kingsboro в Тарборо (Tareboro, Северная Каролина) в I квартале 2026 года. Проект-близнец рассчитывают реализовать в Фейетвилле (Fayetteville) по соседству. После завершения работ кампусы станут одними из крупнейших на юго-востоке США. Строительство на обоих объектах будет осуществляться в 24 этапа в течение 3–5 лет, каждый кампус обеспечит работой более 1 тыс. сотрудников. В каждом будет около дюжины зданий площадью около 3,6 тыс. м2. Первоначально предусматривалась реализация менее масштабных проектов, но инвесторы попросили увеличить площади, чтобы удовлетворить рост спроса. Компания намерена использовать природный газ для питания ЦОД. На модернизацию инфраструктуры в регионе может уйти до $176 млн, зато газовая генерация позволит продавать излишки электроэнергии местным коммунальным службам. Впрочем, не всё идёт гладко. Ранее Energy Storage Solutions не удалось вовремя получить разрешение строительство ещё одного объекта из-за протестов местного сообщества. По словам аналитиков HyperFrame Research, локальные законы о зонировании территорий продолжат оказывать влияние на крупные проекты в США, поскольку гиперскейлеры и другие участники рынка активно масштабируют строительство ЦОД для удовлетворения спроса на рынке ИИ. При этом бизнесу приходится налаживать контакты на местном уровне, а также на уровне штата и федеральном. И если стратегическая задача конкуренции с Китаем — федерального уровня, то на местах приходится решать тактические задачи, связанные с зонированием. Большую роль играет противодействие строительству со стороны общественности. Ранее в этом году AWS отменила строительство дата-центра в Вирджинии из-за протестов местных жителей, а в августе власти Тусона (Tuscon) в Аризоне отклонили постройку кампуса Project Blue AI. Energy Storage Solutions подчёркивают, что компания хочет оказать положительное влияние на регион с помощью реализации проектов ЦОД. Другие проекты планируется реализовать в Южной Каролине и Вирджинии. В компании подчёркивают, что иногда опасения местных сообществ не имеют собой почвы — и негативные слухи могут быть основаны на информации из интернета. В сентябре Институт Банка Америки (Bank of America Institute) опубликовал данные, согласно которым затраты на строительство дата-центров в США в последние годы бьют рекорды.
07.11.2025 [17:07], Руслан Авдеев
Iren резко улучшила финансовые показатели и занялась строительством 3-ГВт ИИ-платформы AI CloudIren Ltd. отчиталась о результатах работы в I квартале 2026 финансового года, который закончился 30 сентября 2025 года (). Благодаря быстрому расширению сегмента AI Cloud и заключению серии многолетних контрактов общая выручка компании выросла на 355 % год к году до $240,3 млн. Показатель скорректированной EBITDA увеличился на 3568 % до $91,7 млн. Чистая прибыль (правда, с учётом нереализованной прибыли) составила $384,6 млн против убытка годом ранее. Такие рекордные показатели связаны со стремительным ростом спроса на ИИ-вычисления со стороны гиперскейлеров и корпоративных клиентов. Мощность инфраструктуры IREN вскоре вырастет до 3 ГВт. К концу 2026 года компания намерена иметь парк из 140 тыс. ИИ-ускорителей, на которые придётся лишь лишь 16 % энергетического портфолио. Компания заключила многолетние соглашения с Together AI, Fluidstack и Fireworks AI, в результате чего плановая выручка AI Cloud в годовом исчислении составит более $500 млн к концу I квартала 2026 года. Iren также упомянула ранее анонсированный контракт с Microsoft на сумму $9,7 млрд, который и внесёт основной вклад в годовую регулярную выручку (ARR, Annual Recurring Revenue) сегмента AI Cloud, запланированную на уровне $3,4 млрд.
Источник изображения: Iren Iren сообщила не только о росте клиентской базы, но и о наличии $1,8 млрд денежных средств или их эквивалентов, выпуске бескупонных конвертируемых облигаций на $1 млрд и привлечении целевых $400 млн на приобретение ускорителей для поддержки роста. 160-МВт площадка в Британской Колумбии до конца года будет переведена с ASIC-чипов для майнинга на ИИ-ускорители. В техасском Чилдрессе (Childress) Iren намерена ускорить строительство 750-МВт кампуса уровня Tier III с поддержкой СЖО и плотностью стоек 130–200 кВт для обучения высокопроизводительных ИИ-моделей. Площадка Sweetwater Hub мощностью 2 ГВт будет развёрнута в две фазы: 1,4 ГВт — в апреле 2026 года, 600 МВт — в конце 2027 года. Это часть портфолио объектов IREN, общая мощность которого составит 3 ГВт. По мнению экспертов Converge Digest, переход с ASIC-майнеров на ИИ-решения аналогичен мерам, принятым компаниям вроде CoreWeave и Crusoe Energy, в своё время перешедших с майнинговых проектов на работу с искусственным интеллектом. Это знаменует более широкий поворот в индустрии на создание ИИ ЦОД с высокой энергетической плотностью с заключением долговременных контрактов с гиперскейлерами.
07.11.2025 [16:18], Руслан Авдеев
«Железное» небо: Lenovo предложила разместить дата-центры в воздухе, на воде и под землёйВ Lenovo заявили, что традиционные дата-центры не вполне соответствуют своему назначению и должны создаваться с учётом будущих бизнес-трендов, сообщает The Register. Компания ссылается на исследования, согласно которым почти половина (46 %) корпоративных покупателей IT-решений считают, что их текущая инфраструктура не соответствует достижению целей по энергосбережению и сокращению углеродных выбросов. Совместно с инженерной компанией AKT II и архитектурным бюро Mamou-Mani техногигант предложил эскизы будущих ЦОД, которые будут работать через 30 лет. В том числе дата-центры, буквальное парящие в облаках. На одном из эскизов — т.н. Data Village, построенная с использованием модульной, масштабируемой системы блоков, расположенных вблизи водных источников или даже на их поверхности. Речь идёт о реках и каналах, которые обеспечат естественное охлаждение и отвод тепла объектам инфраструктуры вроде школ и домов. Ещё один вариант — т.н. Data Spa. Проект функционирует на геотермальной энергии и органично впишется в природный ландшафт: долину или геотермальный бассейн. Если верить рендерам, люди будут буквально бродить в метрах от серверных стоек, что не особенно безопасно. Одна из самых странных концепций — подвешенные в воздухе на высоте 20–30 км дата-центры, которые могли бы использовать солнечную энергию для питания. Это непрактично и может привлечь внимание террористов и государств-противников. Более реалистичная идея — размещение ЦОД в заброшенных туннелях, бункерах и других подземных пространствах. Благодаря этому можно не занимать дефицитные участки и размещать объекты в густонаселённых районах, не загрязняя окружающую среду. В Lenovo утверждают, что подземные объекты формируют «естественную эффективную систему управления теплом». Исследование Lenovo — Datacenter of the Future показало, что 92 % руководителей отдают предпочтение компаниям-партнёрам, сокращающих потребление энергии и углеродные выбросы. Правда, лишь 46 % опрошенных подтверждают, что их дата-центры созданы с учётом современных требований к энергопотреблению и экобезопасности. Порядка 88 % респондентов считают приоритетным суверенитет данных, 90 % предполагают, что ИИ значительно увеличит использование данных в их организациях в следующем десятилетии. Около 40 % считают, что их организации к использованию ИИ не готовы. В исследовании принимали участие 250 лиц, принимающих решения в сфере IT в компаниях с 250 и более сотрудников — в Германии, Италии, Норвегии, Швеции, Великобритании и ОАЭ. Впрочем, во многих идеях нет ничего нового. Например, идя водных и подводных ЦОД вполне жизнеспособна, активно эксплуатируются дата-центры в бункерах и шахтах, а в ближайшей перспективе обыденностью может стать и размещение ЦОД в космосе.
07.11.2025 [15:10], Руслан Авдеев
IT-гиганты вливают миллиарды долларов в солнечную энергетику, чтобы поддержать работу ИИ ЦОДБум дата-центров в США столкнулся с изменением федеральной энергетической политики и растущими проблемами для проектов «чистой» энергетики, противодействием местных жителей и техническими ограничениями. Поскольку обычные энергосети не могут удовлетворить спрос дата-центров, операторы вкладывают миллиарды долларов в развитие солнечной энергетики, сообщает Datacenter Knowledge. Примечательно, что в октябре администрация президента США Дональда Трампа (Donald Trump) отменила реализацию проекта Esmeralda 7 — крупнейшей инициативы в области возобновляемой энергетики, получившей разрешение федеральных властей ещё при администрации Джо Байдена. Теперь на веб-странице проекта указано, что экологическая экспертиза «отменена». Решение принято на фоне того, что быстрое расширение дата-центров создаёт дополнительную нагрузку на электросети всей страны. Особенно остро проблема проявляется в Вирджинии, где сосредоточено большинство ЦОД США. В мае коммунальная PJM Interconnection, управляющая электросетью штата, выпустила беспрецедентное предупреждение о том, что энергии летом может не хватить для удовлетворения спроса. Вирджиния импортирует больше электричества, чем любой из прочих штатов, более 50 ТВт∙ч только в 2023 году, но спрос быстро растёт, подпитываемый растущим парком ЦОД, развитием ИИ и майнинга. Динамика не может не беспокоить чиновников, не исключается, что к 2040 году энергопотребление может утроиться.
Источник изображения: Markus Spiske/unsplash.com На фоне энергокризиса солнечная энергетика всё же становится всё более привлекательной для операторов ЦОД. В Вирджинии проектам мощностью менее 150 МВт разрешено получать разрешения в ускоренном режиме — менее двух лет от подачи заявки до начала эксплуатации. Установку солнечных панелей можно реализовать и за несколько месяцев без подключения к общей сети. Впрочем, по данным Университета штата Вирджиния, в 2024 году власти округов штата отклонили больше мегаватт «солнечных» проектов, чем одобрили — в сельской местности такие проекты часто рассматривают, как «индустриальное вторжение», а не «чистую» энергетическую инфраструктуру. Перевести ЦОД на солнечную энергию сложно из-за двух ключевых проблем: огромной территории, которую требуют солнечные панели (например, более 400 га для ЦОД мощностью 200 МВт), и их низкой эффективности (коэффициент использования установленной мощности около 22 %). Другими словами, они не могут постоянно обеспечивать высокое энергопотребление дата-центров, работающих без перерыва — одной только солнечной энергии для этого недостаточно. Пока, по мнению экспертов, ценность солнечной энергии не в прямом питании дата-центров, а в том вкладе, который она вносит в общие электросети. Несмотря на многочисленные ограничения, техногиганты стремятся внести вклад в строительство солнечных мощностей. Только в 2024 году Microsoft ввела в эксплуатацию более 860 МВт солнечных мощностей, в т.ч. в Иллинойсе, Техасе, Мичигане и Миссури. Всего портфолио объектов компании в области чистой энергетики превысило 34 ГВт. Meta✴ тоже расширила своё присутствие в солнечной энергетике в Техасе, реализовав три крупных проекта общей мощностью более 900 МВт.
Источник изображения: American Public Power Association/unsplash.com AWS лидирует в области солнечной энергетики среди американских компаний, строя 13,6 ГВт солнечных мощностей, это больше установленной мощности большинства штатов. В том числе речь идёт о более 20 проектов в Техасе, в т.ч. солнечной электростанции на 500 МВт в округе Уэбб (Webb). У Google гибридный подход, сочетающий использование солнечных мощностей и аккумуляторных батарей. Компания управляет АКБ на 312 МВт и заключила соглашение с Intersect Power на $20 млрд для создания центров, совмещающих мощности «чистой» энергетики и собственно ЦОД. Поскольку определённость относительно федеральной поддержки проектов возобновляемой энергетики отсутствует, в компании Janta Power уверены, что «рыночные силы» продолжат выступать драйверами внедрения солнечных инициатив. Главными приоритетами для отрасли должны стать не только субсидии, но и эффективность, надёжность и масштабируемость проектов — спрос на чистую энергию не снижается, особенно в секторе ЦОД. Кроме того, утверждается, что рост корпоративных инвестиций может превратить ЦОД из потребителей энергии в основных потребителей именно передовых солнечных технологий, что потенциально способно изменить всю отрасль. Впрочем, в первую очередь всё же субсидии. Amazon, Google и Microsoft призвали США сохранить субсидии на возобновляемые источники энергии ради борьбы с КНР за первенство в сфере ИИ.
07.11.2025 [14:16], Владимир Мироненко
Google объявила о доступности фирменных ИИ-ускорителей TPU Ironwood и кластеров на их основеGoogle объявила о доступности в ближайшие недели ИИ-ускорителя седьмого поколения TPU v7 Ironwood, специально разработанного для самых требовательных рабочих нагрузок: от обучения крупномасштабных моделей и сложного обучения с подкреплением (RL) до высокопроизводительного ИИ-инференса и обслуживания моделей с малой задержкой. Google отметила, что современные передовые ИИ-модели, включая Gemini, Veo, Imagen от Google и Claude от Anthropic, обучаются и работают на TPU. Многие компании смещают акцент с обучения этих моделей на обеспечение эффективного и отзывчивого взаимодействия с ними. Постоянно меняющаяся архитектура моделей, рост агентных рабочих процессов и практически экспоненциальный рост спроса на вычисления определяют новую эру инференса. В частности, ИИ-агенты, требующие оркестрации и тесной координации между универсальными вычислениями и ускорением машинного обучения, создают новые возможности для разработки специализированных кремниевых процессоров и вертикально оптимизированных системных архитектур. TPU Ironwood призван обеспечить новые возможности для инференса и агентных рабочих нагрузок. TPU Ironwood был представлен в апреле этого года. По данным Google, он обеспечивает десятикратное увеличение пиковой производительности по сравнению с TPU v5p и более чем четырёхкратное увеличение производительности на чип как для обучения, так и для инференса по сравнению с TPU v6e (Trillium), что делает Ironwood самым мощным и энергоэффективным специализированным кристаллом компании на сегодняшний день. Ускорители объединяются в «кубы» — 64 шт. TPU в 3D-торе, объединённых интерконнектом Inter-Chip Interconnect (ICI) со скоростью 9,6 Тбит/с на подключение. Google сообщила, что на базе Ironwood можно создавать кластеры, включающие до 9216 чипов (42,5 Эфлопс в FP8), объединённых ICI с агрегированной скоростью 88,5 Пбит/с с доступом к 1,77 Пбайт общей памяти HBM, преодолевая узкие места для данных даже самых требовательных моделей. Компания отметила, что в таком масштабе сервисы требуют бесперебойной доступности. Её гарантирует технология оптической коммутации (OCS), которая реализуется как динамическая реконфигурируемая инфраструктура. А если клиенту требуется больше мощности, Ironwood масштабируется в кластеры из сотен тысяч TPU. Своим клиентам, пользующимся решениями на TPU, компания предлагает возможности Cluster Director в Google Kubernetes Engine. Это включает в себя расширенные возможности обслуживания и понимания топологии для интеллектуального планирования и создания высокоустойчивых кластеров. Для предобучения и постобучения компания предлагает новые улучшения MaxText, высокопроизводительного фреймворка LLM с открытым исходным кодом, которые упрощают внедрение новейших методов оптимизации обучения и обучения с подкреплением, таких как контролируемая тонкая настройка (SFT) и оптимизация политики генеративного подкрепления (GRPO) — алгоритм обучения с подкреплением (RL). Также улучшена поддержка vLLM, что позволит с минимальными усилиями перенести инференс с GPU на TPU. А GKE Inference Gateway позволит снизить задержку выдачи первого токена (TTFT). Никуда не делась и поддержка JAX с PyTorch.
07.11.2025 [13:51], Сергей Карасёв
Alloy Enterprises представила водоблоки СЖО для всех компонентов blade-серверовКомпания Alloy Enterprises анонсировала цельные охлаждающие модули с защитой от протечек, обеспечивающие возможность прямого жидкостного охлаждения (DLC) всех компонентов в составе blade-серверов, включая оперативную память, сетевые адаптеры и оптические элементы QSFP. Alloy Enterprises отмечает, что на фоне стремительного развития ИИ и НРС меняется архитектура серверов, а следовательно, и тепловой баланс высокопроизводительных систем. Исторически на GPU-ускорители приходилось около 80 % от всего энергопотребления blade-узлов, тогда как оставшиеся 20 % сообща расходовали модули DIMM, сетевые карты, QSFP-корзины и другие компоненты, которые могли довольствоваться воздушным охлаждением. При этом в традиционных HPC-платформах 100-% жидкостное охлаждение компонентов уже давно не редкость.
Источник изображения: Alloy Enterprises Энергопотребление современной стойки NVIDIA GB200 NVL72 составляет 120–140 кВт в номинальном режиме. При этом на периферийные устройства приходится 24–28 кВт, что пока укладывается в возможности воздушного охлаждения. Однако в будущих системах класса 600 кВт, таких как платформа NVIDIA Kyber, только периферийным компонентам потребуется до 100 кВт энергии, а поэтому воздушного охлаждения окажется недостаточно. В результате, потребуются качественно новые решения, в том числе на основе DLC. Новые охлаждающие модули Alloy Enterprises выполнены с использованием запатентованной технологии Stack Forging. Они сочетают особую внутреннюю микрогеометрию с монолитной конструкцией, благодаря чему обеспечивается эффективное охлаждение под высоким давлением без утечек. Изделия рассчитаны на давление до 138 бар без деформации, что позволяет сохранять структурную целостность в экстремальных условиях. Alloy Enterprises говорит о возможности оптимизации отвода тепла для каждого периферийного устройства. Изделия для оперативной памяти поддерживают двустороннее охлаждение модулей DIMM мощностью свыше 40 Вт, что соответствует спецификациям JEDEC следующего поколения. Возможна замена без слива жидкости из охлаждающего контура. Для оптических модулей 800G и 1,6T допускается отвод до 50 Вт/порт. В случае сетевых адаптеров низкопрофильные монолитные пластины обеспечивают равномерное охлаждение и механическую стабильность, говорит компания.
07.11.2025 [12:17], Сергей Карасёв
Sugon ScaleX640 — первая в мире стоечная система с 640 ИИ-ускорителямиКитайская компания Sugon (Dawning Information Industry), специализирующаяся на разработке суперкомпьютеров, серверов и СХД, представила ИИ-систему ScaleX640. Это, как утверждается, первое в мире решение в виде одной стойки, допускающее использование до 640 ускорителей. Суперускоритель выполнен на «сверхскоростной ортогональной архитектуре». Используются вычислительные узлы высокой плотности, которые допускают установку ИИ-карт различных производителей. Говорится о совместимости с существующей экосистемой ПО для задач ИИ. Платформа ScaleX640 предусматривает применение иммерсионного жидкостного охлаждения с фазовым переходом и высоковольтных источников питания постоянного тока (DC). СЖО способна отвести до 1,72 МВт. По заявлениям Sugon, по плотности вычислений новинка до 20 раз превосходит другие суперузлы, доступные на рынке. При этом обеспечивается высокий показатель эффективности использования электроэнергии (PUE) — 1,04. Два суперузла ScaleX640 могут формировать вычислительный блок с поддержкой 1280 ускорителей ИИ. Стойки соединяются между собой посредством высокоскоростной сети. В целом, возможно развёртывание кластеров, насчитывающих до 100 тыс. ИИ-карт. Sugon утверждает, что по сравнению с традиционными платформами новая система обеспечивает повышение производительности на 30–40 % в сценариях обучения больших языковых моделей (LLM) с триллионами параметров и инференса. Проведённое всестороннее тестирование ScaleX640 говорит о высокой надёжности и стабильности работы комплекса.
07.11.2025 [12:16], Владимир Мироненко
Google представила инстансы N4A и C4A Metal на базе фирменных Arm-процессоров AxionGoogle представила новые инстансы на базе фирменных Arm-процессоров Axion: N4A и C4A Metal. N4A — самая экономичная виртуальная машина серии N на сегодняшний день, которая уже доступна в тестовом режиме (Preview Mode). N4A предлагает до двух раз лучшее соотношение цены и производительности, чем сопоставимые виртуальные машины текущего поколения на базе x86. N4A доступен в готовых и настраиваемых конфигурациях: до 64 vCPU, 512 Гбайт DDR5 и сетевым подключением 50 Гбит/с. N4A предлагается в конфигурациях с высокой производительностью процессора (2 Гбайт RAM на vCPU), стандартной (4 Гбайт на vCPU) и с высокой производительностью памяти (8 Гбайт на vCPU). Виртуальные машины N4A поддерживают новейшие решения для хранения данных Hyperdisk, включая Hyperdisk Balanced, Hyperdisk Throughput и Hyperdisk ML (будет доступно позже), обеспечивая до 160 тыс. IOPS и пропускную способность 2,4 Гбайт/с на инстанс. N4A демонстрирует высокие результаты в ряде отраслевых бенчмарков, отражающих ключевые рабочие нагрузки. Например, по сравнению с аналогичными x86-инстансами текущего поколения N4A обеспечивает до 105 % лучшее соотношение цены и производительности для вычислительных нагрузок, до 90 % — для масштабируемых веб-серверов, до 85 % — для Java-приложений и до 20 % — для баз данных общего назначения. N4A доступен в виде превью для Compute Engine, Google Kubernetes Engine (GKE), Dataproc и Batch, а поддержка Dataflow и других сервисов появится в ближайшее время. C4A Metal — первый инстанс Google на базе Arm-архитектуры на bare metal-серверах. Он включает до 96 vCPU, до 768 Гбайт DDR5, сетевое подключение со скоростью до 100 Гбит/с и полную поддержку Google Cloud Hyperdisk, включая варианты хранения Hyperdisk Balanced, Extreme, Throughput и блочный доступ. Этот инстанс оптимизирован для специализированных рабочих нагрузок, таких как гипервизоры и разработка нативных приложений для Arm-архитектуры. Как облачное решение, C4A Metal обеспечивает снижение совокупной стоимости владения (TCO), предлагая предсказуемые эксплуатационные расходы. Компания отметила, что, запуская конвейеры разработки и тестирования на физических экземплярах процессоров Axion с использованием C4A Metal, разработчики Android могут получить выгоду от нативной производительности, устраняя накладные расходы на управление эмуляцией, такие как медленные уровни трансляции инструкций. Кроме того, они могут значительно сократить задержки для инструментов сборки Android и автоматизированных систем тестирования, что приведёт к ускорению циклов обратной связи. C4A Metal также решает проблемы производительности, связанные с вложенной виртуализацией, что делает его отличной платформой для масштабируемых сред Cuttlefish (Cloud Android). После сегодняшнего анонса портфолио инстансов на базе процессоров Axion теперь включает три варианта: N4A, C4A и C4A Metal. Вместе серии C и N позволяют снизить общие расходы на ведение бизнеса без ущерба для производительности или требований к конкретной рабочей нагрузке, отметила компания. «Независимо от того, используете ли вы Ironwood и Axion вместе или комбинируете их с другими вычислительными решениями, доступными на базе AI Hypercomputer, этот системный подход обеспечивает вам максимальную гибкость и производительность для самых требовательных рабочих нагрузок», — заявила Google.
06.11.2025 [22:34], Владимир Мироненко
Qualcomm и Arm разошлись во мнениях по поводу развития ИИ-вычисленийQualcomm и Arm опубликовали в среду квартальные отчёты, дав разные прогнозы относительно рынка процессоров для инференса, пишет The Register. Генеральный директор Qualcomm Криштиану Амон (Cristiano Amon) сообщил аналитикам в ходе телефонной конференции, посвященной квартальным финансовым результатам о том, что его компания выйдет на рынок ЦОД с чипами, предназначенными для выполнения задач инференса и потребляющими меньше энергии, чем «железо» конкурентов. Амон рассказал, что Qualcomm разрабатывает SoC и плату для неё, поскольку «рост ИИ-ЦОД смещается от обучения к специализированным рабочим нагрузкам инференса, и ожидается, что эта тенденция усилится в ближайшие годы». Вместе с тем он отметил, что Qualcomm не сможет отчитаться о «существенной» выручке в сегменте ЦОД до 2027 года. Генеральный директор Arm Рене Хаас (Rene Haas) тоже придерживается мнения, что энергопотребление является «узким местом» в ЦОД, и что спрос сместится с обучения на инференс, вместе с тем считая, что такого рода задачи будут выполняться и за пределами дата-центров. Он отметил растущий спрос на различные архитектуры и вычислительные решения, позволяющие выполнять инференс не в облаке. «Очевидно, что вы не будете полностью полагаться на что-то, что находится на периферии. Но сегодня всё наоборот. Всё на 100 % зависит от облака. И мы думаем, что это изменится», — заявил Хаас во время телефонной конференции с аналитиками, посвящённой финансовому отчёту Arm. Qualcomm анонсировала новую серию чипов для ИИ ЦОД AI200/AI250, заявив, что ИИ-стартап Humain, основанный суверенным фондом Саудовской Аравии, станет одним из их заказчиков. В ходе телефонной конференции Амон сообщил, что Qualcomm ведёт переговоры с другим крупным заказчиком-гиперскейлером, отметив, что они проходят успешно, пишет Reuters. Выручка Qualcomm в IV квартале 2025 финансового года, завершившемся 28 сентября 2025 года, составила $11,27 млрд, что на 10 % больше, чем годом ранее, и выше консенсус-прогноза аналитиков, опрошенных LSEG, в размере $10,79 млрд. В полупроводниковом сегменте (QCT) выручка компании составила $9,82 млрд, превысив результат годичной давности на 13 %. При этом выручка в автомобильном сегменте выросла на 17 % до $1,05 млрд, в сегменте Интернета вещей — на 7 % до $1,81 млрд. Скорректированная прибыль на акцию составила $3,00 при прогнозе от LSEG в размере $2,88. Из-за единовременной налоговой выплаты в размере $5,7 млрд компания завершила квартал с чистым убытком в $3,12 млрд, или $2,89 на акцию, тогда как годом ранее у неё была чистая прибыль в размере $2,92 млрд, или $2,59 на акцию. Выручка Qualcomm за 2025 финансовый год составила $44,3 млрд, что на 14 % больше показателя предыдущего финансового года. Чистая годовая прибыль снизилась на 45 % до $5,5 млрд. В I квартале 2026 финансового года Qualcomm прогнозирует выручку в размере $11,8–$12,6 млрд, что соответствует среднему значению в $12,2 млрд. По данным LSEG, это превышает консенсус-прогноз аналитиков в $11,62 млрд. Скорректированная прибыль на акцию, согласно ожиданиям компании, составит $3,30–$3,50 при прогнозе Уолл-стрит в размере $3,31 на акцию. Arm объявила о выручке во II квартале 2026 финансового года в размере $1,14 млрд, что на 34 % больше, чем годом ранее, а также больше прогноза аналитиков в размере $1,06 млрд, пишет Reuters. Третий квартал подряд выручка компании превышает $1 млрд. Выручка компании от роялти выросла год к году на 21 % до рекордных $620 млн, а от лицензирования — на 56 % до $515 млн благодаря новым крупным соглашениям в сфере вычислительных технологий нового поколения. Скорректированная операционная прибыль (Non-GAAP), достигла $467 млн, а скорректированная прибыль на акцию (Non-GAAP), составила $0,39, что в обоих случаях превышает прогноз, отметил ресурс Converge! Network Digest. Финансовый директор Джейсон Чайлд (Jason Child) сообщил инвесторам, что наибольший вклад в рост выручки внесли смартфоны, но «более высокие ставки роялти за чип в ЦОД, где мы по-прежнему наблюдаем рост доли кастомных чипов для гиперскейлеров», безусловно, не были помехой. Arm отметила, что набирает обороты вклад своей архитектуры в развитие облачного ИИ: более 1 млн ядер Arm Neoverse уже развёрнуто в инфраструктуре гиперскейлеров. Ожидается, что доля процессоров Arm в установленных ведущими гиперскейлерами чипах в этом году достигнет почти 50 %. Среди новых игроков на этом рынке компания отметила Google, которая уже перенесла более 30 тыс. облачных приложений на Arm-чипы Axion, включая Gmail и YouTube, и намерена перенести большую часть из более чем 100 тыс. своих приложений. Также в минувшем квартале Microsoft расширила использование процессоров Cobalt 100 на базе Arm до 29 регионов по всему миру. «Открытие пяти новых ЦОД Stargate AI, все из которых основаны на Arm как стратегической вычислительной платформе, подчёркивает роль Arm в обеспечении масштабируемого ИИ», — отметила компания. Доля Arm на рынке серверных процессоров действительно достигла 25 %, но во многом благодаря внедрению интегированных в суперчипы NVIDIA процессорам Grace. |
|
