Материалы по тегу:

17.11.2025 [10:14], Руслан Авдеев

Vertiv представила иммерсионные СЖО CoolCenter Immersion на 25–240 кВт

Vertiv объявила о выпуске системы погружного охлаждения CoolCenter Immersion. Иммерсионная СЖО обеспечивает поддерживает отвод от 25 кВт до 240 кВт на модуль ёмкостью 24U до 52U, обеспечивая при этом PUE на уровне 1,08. По словам компания, иммерсионное охлаждение играет всё более важную роль из-за повсеместного внедрения HPC- и ИИ-платформ.

В Vertiv CoolCenter Immersion применяется многолетний опыт, полученный Vertiv в сфере СЖО для создания спроектированных «под ключ» систем, безопасно и эффективно справляющихся с высокоплотными системами. Операторы ЦОД смогут практично масштабировать ИИ-инфраструктуру без ущерба надёжности и удобству обслуживания.

 Источник изображения: Vertiv

Источник изображения: Vertiv

Каждая система включает внутренний или внешний резервуар для теплоносителя, блок распределения жидкости (CDU), датчики температуры, а также насосы с регулируемой скоростью работы и трубки. Модуль включает два источника питания и резервные насосы, а также встроенные датчики мониторинга состояния и 9″ сенсорный дисплей. Предусмотрена возможность подключения к системе управления зданием (BMS). Тепло отводится через пластинчатый теплообменник во внешний водяной контур.

Vertiv уже заключила контракт с Digital Realty в Италии на поставку электроэнергии и систем охлаждения для римского объекта Digital ROM1 мощностью 3 МВт. Запуск ЦОД запланирован на 2027 год. На объекте будет использоваться фрикулинг и система охлаждения, готовая к ИИ-нагрузкам, передаёт DataCenter Dynamics. Сделка стала ещё одной в череде европейских проектов Digital Realty в Париже, Мадриде, Амстердаме и др.

 Источник изображения: Vertiv

Источник изображения: Vertiv

В Digital Realty подчеркнули, что Рим становится важнейшим шлюзом для цифровой инфраструктуры между Европой и Средиземноморским регионом. Передовые технологии для ROM1 помогут стать дата-центру стратегическим ИИ-хабом, задающим новые стандарты энергоэффективности и производительности в сфере HPC. Также Vertiv работает с Nextra в Африке и намерена сотрудничать с Ezditek для создания ЦОД в Саудовской Аравии.

Ранее сообщалось, что нежелание NVIDIA сертифицировать иммерсионные СЖО во многом тормозит их развитие. Прямое жидкостное охлаждение (DLC) менее эффективно, чем иммерсионные системы, но NVIDIA всё ещё считает, что пока достаточно этого. Впрочем, эксперты прогнозируют, что настоящий расцвет технологии придётся на 2027–2028 гг. Ожидается, что она будут активно распространяться после выхода ускорителей NVIDIA Rubin Ultra.

Постоянный URL: http://servernews.ru/1132461
17.11.2025 [10:02], Сергей Карасёв

ИИ-производительность японского суперкомпьютера FugakuNEXT превысит 600 Эфлопс

Компания Fujitsu поделилась информацией о суперкомпьютере следующего поколения FugakuNEXT (Fugaku Next), который создаётся совместно с японским Институтом физико-химических исследований (RIKEN). Проект реализуется при поддержке Министерства образования, культуры, спорта, науки и технологий Японии (MEXT).

FugakuNEXT придёт на смену вычислительному комплексу Fugaku, который в 2020 году стал самым высокопроизводительным суперкомпьютером в мире. В рейтинге ТОР500 от июня 2025 года эта НРС-система занимает седьмое место с FP64-быстродействием приблизительно 442 Пфлопс (теоретическая пиковая производительность достигает 537,21 Пфлопс). Разработку архитектуры FugakuNEXT планируется полностью завершить к середине 2028 года, после чего начнутся производство и монтаж суперкомпьютера. В эксплуатацию система будет введена не ранее середины 2030 года.

Известно, что в основу FugakuNEXT лягут Arm-процессоры Fujitsu MONAKA-X, при производстве которых предполагается использовать 1,4-нм технологию. Чипы получат до 144 вычислительных ядер. Кроме того, в состав машины войдут ИИ-ускорители NVIDIA, для связи которых с CPU планируется задействовать шину NVLink Fusion. Платформа также получит новые интерконнекты для горизонтального и вертикального масштабирования.

 Источник изображений: Fujitsu

Источник изображений: Fujitsu

В материалах Fujitsu говорится, что FugakuNEXT получит в общей сложности свыше 3400 узлов CPU и GPU. Их объём памяти превысит 10 ПиБ (Пебибайт). Агрегированная пропускная способность памяти в случае CPU-блоков составит более 7 Пбайт/с, GPU-модулей — свыше 800 Пбайт/с против 163 Пбайт/с у нынешней системы Fugaku.

Кроме того, раскрываются ожидаемые показатели ИИ-быстродействия FugakuNEXT. У CPU-секции производительность превысит 48 Пфлопс в режиме FP64, 1,5 Эфлопс на операциях FP16/BF16 и 3 Эфлопс в режиме FP8. В случае GPU-раздела быстродействие FP64, FP16/BF16, FP8 и FP8 Sparse составит более 2,6 Эфлопс, 150 Эфлопс, 300 Эфлопс и 600 Эфлопс соответственно.

Постоянный URL: http://servernews.ru/1132455
17.11.2025 [09:00], Сергей Карасёв

«Базис» представляет новую версию Basis Dynamix Enterprise с поддержкой программно-определяемых сетей и зон доступности

Компания «Базис», лидер российского рынка ПО управления динамической инфраструктурой, объявляет о выпуске версии 4.4.0 высокопроизводительной платформы серверной виртуализации Basis Dynamix Enterprise. Обновление включает более 110 улучшений и исправлений, направленных на расширение сетевых возможностей платформы, повышение гибкости управления инфраструктурой и углубление автоматизации критически важных процессов.

Поддержка программно-определяемых сетей

Ключевым нововведением версии 4.4.0 стала полностью нативная интеграция с платформой Basis SDN — программно-определяемой системой управления сетями, которую компания представила в мае этого года. Теперь Basis Dynamix Enterprise может использовать расширенные возможности Basis SDN для создания и управления виртуальными сетями.

В платформу были интегрированы новые программные интерфейсы для управления сетевыми настройками. Узлы с поддержкой SDN позволяют администраторам создавать изолированные сетевые среды с гранулярным контролем трафика между виртуальными машинами.

При создании ресурсной группы с привязкой к SDN Access Group сетевая конфигурация автоматически ограничивается совместимыми типами интерфейсов, обеспечивая полную изоляцию трафика на уровне гипервизора. Это позволяет специалистам заказчика развёртывать с помощью Basis Dynamix Enterprise мультитенантные среды с гарантированной сегментацией данных различных проектов.

Создание изолированных сред внутри платформы

Разработчики Basis Dynamix Enterprise реализовали механизм работы с зонами (zone) — логической группировкой вычислительных узлов с заданными границами размещения. Нагрузки выполняются только на узлах своей зоны; при необходимости поддерживается контролируемая миграция между зонами (например, для обслуживания или балансировки).

К зоне могут быть привязаны виртуальные машины, внутренние и внешние сети, балансировщики нагрузки, базовые службы и кластеры Kubernetes. Политики платформы фиксируют их размещение в пределах зоны и упрощают соблюдение требований по сегментации и локализации данных.

Группы безопасности и транковые сети

В релизе 4.4.0 была значительно улучшена собственная сетевая подсистема Basis Dynamix Enterprise. Реализованы группы безопасности (security groups), работающие на уровне виртуальных сетевых коммутаторов; правила меняются через API без перезапуска ВМ, что даёт администратору гибкое управление политиками безопасности виртуальных узлов.

Поддержка транковых сетей добавлена через новый тип интерфейса «trunk». Функция включается явно в настройках аккаунта или ресурсной группы; она упрощает разделение сетевого трафика и уменьшает количество виртуальных сетевых адаптеров при работе с несколькими сетями.

 Источник изображений: «Базис»

Источник изображений: «Базис»

Классы обслуживания дисков

В Basis Dynamix Enterprise 4.4.0 при создании виртуальных машин, дисков, образов и кластеров Kubernetes можно указать ID политики хранения, автоматически применяющей установленные лимиты производительности. Политики настраиваются через API с поддержкой добавления и удаления пулов хранения. В тенантах теперь можно задавать квоты потребления для создаваемых политик; вместе с существующими квотами это даёт многоуровневый контроль СХД.

Онлайн-миграция дисков между СХД

Для обеспечения непрерывности бизнес-процессов в версии 4.4.0 реализован механизм миграции одного или нескольких дисков между системами хранения без перемещения виртуальной машины на другой вычислительный узел. Механизм работает без остановки виртуальной машины при условии, что узел является узлом потребления (consumer) в обеих СХД. Реализованные API-методы обеспечивают полный контроль над процессом переноса данных. Миграция возможна только между включёнными узлами (Enabled), что позволяет переносить рабочие тома в рабочее время и ускоряет вывод из эксплуатации устаревших массивов.

Поддержка Guest Agent

Платформа теперь поддерживает интеграцию с QEMU Guest Agent через набор соответствующих API-методов. Они позволяют управлять функциями агента на уровне отдельных ВМ. При наличии установленного QEMU Guest Agent в гостевой ОС администраторы могут выполнять команды в гостевой системе, управлять доступными возможностями агента и собирать расширенную телеметрию.

Доступность и мониторинг

Basis Dynamix Enterprise 4.4.0 предлагает расширенные возможности автоматизации критически важных процессов. Реализованы два новых режима работы: uptime-daemon обеспечивает автоматическую изоляцию проблемных узлов с настраиваемым таймаутом до 90 секунд; uptime-monitor переводит узел в режим техобслуживания без подтверждения выключения узла через IPMI.

Для DPDK-узлов добавлен сервис мониторинга с экспортом метрик в систему визуализации Grafana.

«В мае мы выпустили уникальный для российского рынка полностью импортонезависимый standalone продукт Basis SDN, отечественное коробочное решение для работы с программно-определяемыми сетями. Продукт вызвал живой интерес у заказчиков, поэтому в новом релизе Basis Dynamix Enterprise мы уделили особое внимание глубокой совместимости нашей флагманской платформы и SDN-решения. Помимо поддержки программно-определяемых сетей, в релизе 4.4 мы добавили зоны доступности и политики хранения, которые наши заказчики также давно ждали. Эти функции позволяют строить более гибкую инфраструктуру и эффективнее управлять имеющимися ресурсами, избегая при этом простоя и сохраняя полный контроль над данными», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1132393
17.11.2025 [07:45], Владимир Мироненко

NEC и OpenСhip вместе разработают векторные ускорители на базе RISC-V и суперкомпьютеры Aurora следующего поколения

Базирующийся в Барселоне разработчик чипов OpenChip, который некоторые эксперты называют каталонской NVIDIA, и компания NEC объявили о следующем этапе сотрудничества, направленного на совместную разработку векторного процессора (VPU) нового поколения. Ранее компании выполнили технико-экономическое обоснование разработки следующего поколения векторных суперкомпьютеров Aurora с использованием аппаратного и программного стека OpenChip на базе RISC-V.

Как сообщается в пресс-релизе, на начальном этапе основное внимание уделялось оценке совместимости архитектуры Aurora от NEC с ускорителями OpenChip, определению логической структуры и начальной разработке программных компонентов. В результате исследования компании пришли к выводу о технической осуществимость проекта, так что теперь компании займутся совместной разработкой следующего поколения высокопроизводительных ускорителей, а также оптимизированного программного стека. Обе компании планируют запуск пилотных развёртываний у отдельных клиентов.

По словам старшего вице-президента NEC Сухуна Юна (Suhun Yun), сотрудничество NEC с OpenChip является поворотным моментом в стратегическом развитии NEC в направлении вычислительных архитектур следующего поколения. В свою очередь, OpenChip отметила, что сотрудничество направлено на достижение ряда ключевых преимуществ, в числе которых повышенная производительность критически важных рабочих нагрузок, обеспечение нового уровня вычислительной мощности для HPC, ИИ и ML, а также для таких научных приложений, как геномика и моделирование климата.

 Источник изображения: NEC

Источник изображения: NEC

В 2021 году NEC анонсировала векторные ускорителя SX-Aurora TSUBASA Vector Engine 2.0 (VE20), а в 2022 — доработанные VE30. Однако в 2023 году NEC фактически прекратила разработку новых решений в серии SX-Aurora в связи с появлением ускорителей AMD и NVIDIA, значительно превосходящих её наработки, так что обещанные VE40 и VE50 так и не появились на свет. При этом у NEC и ранее были длительные перерывы в разработке векторных ускорителей, а её суперкомпьютеры на их основе по-прежнему пользуются спросом в некоторых областях, в частности, в метеорологии и климатологии.

OpenChip разрабатывает SoC, использующую несколько UCIe-чиплетов, референсные проекты для аппаратных платформ, базовые комплекты разработчиков ПО и прикладные сервисы. Как сообщает ресурс HPCwire, среди других европейских стартапов, разрабатывающих решения на базе RISV-V есть:

  • Axelera AI — разрабатывает чип для ИИ-инференса;
  • Vybium — создаёт чип, способный конкурировать с GPU для ИИ ЦОД;
  • Codasip — создаёт чип общего назначения для больших данных, ИИ и суперкомпьютеров, но сейчас находится в не лучшем состоянии;
  • Semidynamics — разрабатывает настраиваемый чип для рабочих нагрузок HPC и ИИ;
  • Quintarious — разрабатывает чип для автомобильной индустрии и промышленности.

За последние годы было поставлено более 10 млрд ядер с архитектурой RISC-V благодаря широкому внедрению архитектуры в микроконтроллерах и встраиваемых устройствах. За последнее время RISC-V стала потенциальной альтернативой проприетарным архитектурам, включая Arm и x86, в разработке ускорителей и HPC-платформ.

Постоянный URL: http://servernews.ru/1132449
16.11.2025 [23:30], Игорь Осколков

Intel отказалась от массовых Xeon Diamond Rapids с восемью каналами памяти — останутся только 16-канальные процессоры

Intel, по сообщению ServeTheHome, решила отказаться в следующем поколении серверных процессоров Xeon Diamond Rapids на платформе Oak Stream от чипов с поддержкой восьми каналов памяти, оставив только модели с 16 каналами DRAM и поддержкой MRDIMM. Иными словами, в новом поколении компания, по-видимому, будет ориентироваться на топовый сегмент, оставив недорогие массовые платформы за бортом.

Компания дала официальный комментарий ServeTheHome: «Мы исключили 8-канальные Diamond Rapids из наших планов. Мы упрощаем платформу Diamond Rapids, уделяя особое внимание 16-канальным процессорам и расширяя её преимущества для всех остальных, чтобы удовлетворить потребности различных клиентов». Грядущие AMD EPYC Venice также получат 16-канальный контроллер памяти.

 Источник изображения: Intel

Источник изображения: Intel

Пока что и у AMD, и у Intel максимальное количество поддерживаемых каналов памяти составляет 12. Однако в случае Intel реально доступными являются только Xeon Granite Rapids-AP (6900P), тогда как Sierra Forest-AP (6900E) так и остались нишевым продуктом. Грядущие Xeon 6+ Clearwater Forest также останутся при 12 каналах. При этом у EPYC поколения Turin (9005) во всех вариантах доступны 12 каналов.

Наиболее массовые Granite Rapids-SP (6500P/6700P) и Sierra Forest-SP (6700E) на платформе Birch Stream ограничены восемью каналами памяти, но… это может быть не так уж и плохо. Платформы для них дешевле, чем для AP-версий, а относительно небольшое количество каналов памяти даёт определённую гибкость в выборе компонентов. Речь в том числе про физические характеристики серверных платформ — платы с 32 или 48 слотами DIMM вынужденно переходят к «двухярусной» компоновке, когда один процессор сдвинут вглубь шасси из-за невозможности комфортно разместить все слоты и оба сокета в один ряд в рамках стандартного 19” корпуса.

 В многоузловых системах компоновка ещё более экзотическая

В многоузловых системах компоновка ещё более экзотическая

При этом типовые восьмиканальные решения позволяют легко набрать нужный объём RAM в 2DPC-режиме более дешёвыми модулями памяти (пусть и с потерей производительности), чем в случае 12-канальных платформ с 1DPC. Поэтому 2S-системы с восьмиканальными CPU всё ещё остаются крайне популярными. Однако Intel в Diamond Rapids решила отказаться от массовых платформ.

Постоянный URL: http://servernews.ru/1132475
16.11.2025 [17:38], Руслан Авдеев

Ни доходов, ни рабочих мест: льготы для дата-центров не приносят ничего хорошего большинству штатов США, но отказаться от них трудно

Американская индустрия ЦОД получает немалые субсидии на уровне штатов, но процедура не всегда прозрачна, а некоторые штаты даже теряют деньги на этом, сообщает некоммерческая организация Good Jobs First. По данным НКО, налоговые льготы для развития ЦОД и облачных вычислений предоставляют 36 штатов, но лишь 11 из них раскрывают, какие именно компании их получают.

В остальном всё крайне непрозрачно: лишь в немногих штатах говорят, о каких объёмах льгот идёт речь, и раскрывают информацию о том, выполняют ли компании обещания о капиталовложениях и создают ли рабочие места. В документе «Облачные данные, дорогостоящие сделки: как неохотно штаты раскрывают субсидии центрам обработки данных» (Cloudy Data, Costly Deals: How Poorly States Disclose Data Center Subsidies) приводятся некоторые детали, передаёт The Register.

 Источник изображения: zanck FL/unsplash.com

Источник изображения: zanck FL/unsplash.com

В частности, из 11 штатов, раскрывающих информацию об освобождении от налогов с продаж и использования, ни один не разглашает конечных бенефициаров таких послаблений. Тем временем Amazon, Google, Microsoft, Meta и Apple регулярно «прячутся» за дочерними компаниями. Только 5 из 11 штатов раскрывают вероятные или фактические объёмы субсидий, причём с запозданием.

Лишь четыре штата — Иллинойс, Индиана, Невада и Огайо — рассказывают о том, сколько рабочих мест обещают создать операторы ЦОД. Ни один из штатов не отчитывается о фактически созданных рабочих местах, хотя налоговые льготы часто связывают именно с появлением новых вакансий. Наконец, только Невада сообщает, какие зарплаты платят сотрудникам в субсидируемых проектах. По словам НКО, во многих штатах речь идёт о двойных стандартах. Большинство проектов, получающих субсидии, освещаются довольно хорошо, но только не дата-центры.

В апреле 2024 года Good Jobs First сообщала, что только освобождение дата-центров от налога с продаж и использования ежегодно обходится бюджетам штатов в миллиарды долларов недополученных доходов. В 2025 финансовом году Техас потерял $1 млрд из-за ЦОД, но штат публикует только названия субсидируемых компаний без каких-либо деталей. Вирджиния, крупнейший в стране рынок ЦОД, тоже теряет почти $1 млрд, но какие компании получают льготы и в каком объёме, не раскрывает. Более того, в нескольких штатах чистые убытки составляют от ¢52 до ¢70 с каждого $1 налоговых субсидий.

 Источник изображения: Good Jobs First

Источник изображения: Good Jobs First

ЦОД, как считается, возглавляют список наиболее неэффективно субсидируемых отраслей в 2025 году. В исследовании рекомендуется резко сократить объёмы расходов штатов на дата-центры, отменив или пересмотрев налоговые льготы. В Джорджии и Огайо уже проголосовали за приостановку или отмену этих льгот, но вето на оба законопроекта наложили губернаторы. В любом случае, как считают в Good Jobs First, штаты должны обеспечить полную прозрачность данных о том, какие компании получают льготы, в каких объёмах и что получают взамен.

При этом в исследовании даже не касались других послаблений вроде льгот по налогу на имущество и корпоративную прибыль или же скидки на оплату электроэнергии и воды — эти данные также крайне редко раскрываются. Стоит отметить, что JPMorgan недавно спрогнозировал гигантские расходы на дата-центры в ближайшие пять лет и «астрономический» спрос на соответствующую инфраструктуру, поэтому руководство штатов, возможно, просто не может отказаться от участия в «гонке ЦОД».

Постоянный URL: http://servernews.ru/1132395
16.11.2025 [12:35], Сергей Карасёв

Qualcomm представила чипы Dragonwing IQ-X для индустриальных Windows-компьютеров

Компания Qualcomm анонсировала новые SoC семейства Dragonwing IQ-X — изделия IQ-X5181 и IQ-X7181, ориентированные на индустриальный сектор. Чипы предназначены для построения промышленных Windows-компьютеров, систем автоматизации, робототехнических платформ, медицинского оборудования и пр.

Решение IQ-X5181 объединяет восемь кастомизированных ядер Qualcomm Oryon (Armv8) с тактовой частотой до 3,4 ГГц, модификация IQ-X7181 — двенадцать. В состав SoC входит графический ускоритель Qualcomm Adreno с частотой соответственно 1,1 и 1,25 ГГц. Младшая версия способна справляться с декодированием видеоматериалов 4Kp60 VP9/AV1 и кодированием 4Kp30 AV1, старшая — 4K120 VP9/AV1 и 4Kp60 AV1. Чипы обеспечивают ИИ-производительность до 45 TOPS с учётом блоков CPU, GPU и Hexagon NPU.

 Источник изображения: Qualcomm

Источник изображения: Qualcomm

Возможно использование до 64 Гбайт оперативной памяти LPDDR5X-4200, флеш-накопителей UFS 4.0 и карт SD/MMC (SD 3.0). Реализованы интерфейсы eDP (eDP1.4b) с поддержкой разрешения до 4096 × 2160 пикселей при 60 Гц и DisplayPort v1.4a (через USB) с поддержкой разрешения до 5120 × 2880 точек при 60 Гц. Изделие IQ-X5121 располагает двумя интерфейсами камер CSI на четыре линии каждый, IQ-X7181 — четырьмя.

Для обеих новинок заявлена поддержка 2 × USB 3.1, 3 × USB 4.0 Type-C (DisplayPort v1.4a Alt Mode), 6 × eUSB 2.0 и 221 × GPIO (UART, SPI, I3C, I2C via QUP). В случае IQ-X5181 реализованы интерфейсы 2 × PCIe 4.0 х4 и 2 × PCIe 3.0 х2, в случае IQ-X7181 — PCIe 4.0 х8, PCIe 4.0 х4 и 2 × PCIe 3.0 х2. Кроме того, говорится о поддержке Ethernet (чип-компаньон QPS615), Wi-Fi и Bluetooth (посредством модуля M.2 PCIe), Wi-Fi 7 / Wi-Fi 6E (через WCN785/WCN6856), а также 5G (модем Snapdragon X65).

Изделия выполнены в корпусе 1747-ball BGM с размерами 58 × 58 мм с максимальной толщиной 3 мм. Диапазон рабочих температур простирается от -40 до +105 °C. Говорится о совместимости с Windows 10/11 IoT Enterprise LTSC, Qt, CODESYS, EtherCAT и пр. Гарантирована доступность чипов в течение более чем 10 лет.

Постоянный URL: http://servernews.ru/1132453
16.11.2025 [12:31], Владимир Мироненко

Google инвестирует $40 млрд в строительство трёх ЦОД в Техасе

Google объявила об инвестициях в размере $40 млрд в инфраструктуру в Техасе, которые будут направлены в период до 2027 года на строительство трёх новых ЦОД в дополнение к двум имеющимся в Далласе.

Как сообщает Bloomberg со ссылкой на Сундара Пичаи (Sundar Pichai), генерального директора холдинга Alphabet, в который входит Google, один из ЦОД будет построен в округе Армстронг (Armstrong), в западной части Техаса, а два других — в округе Хаскелл (Haskell), на участке Западного Техаса недалеко от Абилина (Abilene). Один из ЦОД компании в Хаскелле будет расположен рядом с новой солнечной электростанцией и аккумуляторной станцией, что позволит снизить нагрузку на энергосистему штата.

Google подчеркнула, что подходит с всей ответственностью к развитию своей инфраструктуры, подключая новые источники энергии к сети, оплачивая расходы, связанные с её деятельностью, и поддерживая общественные инициативы по повышению энергоэффективности. В Техасе её инициативы включают новый фонд Energy Impact Fund в размере $30 млн для развёртывания и ускорения внедрения энергетических инициатив, а также более 6,2 ГВт новых генерирующих мощностей по соглашениям о закупке электроэнергии с энергетическими компаниями.

 Источник изображений: Google

Источник изображений: Google

Сундара Пичаи заявил на пресс-конференции в пятницу, что «инвестиции создадут тысячи рабочих мест, обеспечат профессиональную подготовку студентов и электриков, а также ускорят реализацию инициатив по обеспечению доступности энергии по всему Техасу». Так, Альянс по обучению электриков (Electrical Training Alliance, ETA) при её поддержке обучит существующих электриков и более 1700 стажёров в Техасе к 2030 году, что более чем вдвое увеличит приток новых специалистов.

В Техасе расположено не менее 411 дата-центров, это один из крупнейших рынков ЦОД в США, который быстро растёт. Здесь, в округе Шакелфорд (Shackelford) ведёт строительство нового кампуса Frontier площадью более 485 га и мощностью 1,4 ГВт компания Vantage Data Centers. Стоимость проекта составляет более $25 млрд. В Абилине к концу 2025 года должны завершить строительство первой очереди ЦОД кампуса Stargate стоимостью в $1,1 млрд — буквально вчера Crusoe объявила о работах над последним, восьмым по счёту объектом кампуса. Арендатором выступит Oracle, которая предоставит вычислительные мощности компании OpenAI.

В Эль-Пасо (El Paso) строит ЦОД мощностью 1 ГВт компания Meta Platforms. Как ожидается, объект стоимостью более $1,5 млрд будет введён в эксплуатацию в 2028 году. Немного ранее, в I квартале 2027 года в Западном Техасе компаниями Poolside и CoreWeave будет построен кампус ЦОД Project Horizon мощностью 2 ГВт. В Амарилло (Amarillo) будет построен 11-ГВт кампус ИИ ЦОД HyperGrid компании Fermi America. Ожидается, что его первая очередь мощностью 1 ГВт будет введена в эксплуатацию в конце 2026 года.

Ранее стало известно, что Google инвестирует в течение четырёх лет €5,5 млрд в дата-центры в Германии, планирует построить ИИ ЦОД на австралийском Острове Рождества (Кристмас) в Индийском океане, а также намерена развернуть ИИ-инфраструктуру в космосе в рамках проекта Project Suncatcher. В минувшем квартале Google объявила о $15 млрд инвестиций в штате Андхра-Прадеш (Индия), $5,8 млрд — в Бельгии и по $9 млрд — в Южной Каролине, Оклахоме и Вирджинии (США).

Постоянный URL: http://servernews.ru/1132452
16.11.2025 [12:05], Руслан Авдеев

Не жили богато: капитальные затраты Tencent в III квартале сократились на четверть из-за недоступности ИИ-ускорителей

Капитальные затраты китайской Tencent стремительно сокращаются. Виной тому — невозможность закупить столько ИИ-ускорителей, сколько нужно компании, сообщает Datacenter Dynamics. В ходе отчёта за III квартал 2025 года руководства Tencent отметило, что капитальные затраты снижаются из-за изменений доступности ИИ-чипов, а также ограничений в цепочках их поставок.

В минувшем квартале капитальные затраты составили всего ¥13 млрд ($1,83 млрд), на 24 % меньше год к году и меньше, чем во II квартале ($2,49 млрд). Ожидается и дальнейшее снижение. Для сравнения, американские облачные гиганты Microsoft, Google и Amazon (AWS) отчитались о капитальных затратах в аналогичной квартале в объёме $34,9 млрд, $24 млрд и $34,2 млрд соответственно. Компании регистрируют значительный рост капитальных затрат в связи с активными инвестициями в ИИ-инфраструктуру.

В Tencent уверяют, что у компании достаточно ускорителей для выполнения задач, но отмечено «ограниченное влияние» на доходы от облачных услуг из-за отсутствия достаточного количества ресурсов, доступных клиентам. В то же время американские конкуренты растут двухзначными темпами год к году, во многом благодаря ИИ-бизнесу, и жалуются на недостаток энергии для питания ускорителей.

 Источник изображения: Donald Wu/unsplash.com

Источник изображения: Donald Wu/unsplash.com

Tencent заявила, что намерена создавать усовершенствованные ИИ-модели — это даст возможность обойти ограничения, связанные с дефицитом чипов. Утверждается, что компании не требуется больше ускорителей для обучения искусственного интеллекта и обновления моделей. Попутно внедряется немало программных улучшений, оптимизирующих инференс, в результате на том же количестве чипов можно обеспечить большие нагрузки. Tencent не раскрывает детальной статистики прибыли в разных сегментах её бизнеса, но в целом он растёт. Общая выручка за квартал составила ¥192,9 млрд ($27,12 млрд), на 15 % больше год к году.

Ограничения на доступ китайского бизнеса к ИИ-ускорителям существуют уже довольно давно. Ранее в ноябре президент США Дональд Трамп (Donald Trump) заявил, что самые передовые чипы не достанутся никому, кроме США. По его словам, Китаю позволят сотрудничать с NVIDIA, но покупать придётся устаревшие или ограниченные модели. Впрочем, сейчас, по данным самой NVIDIA, доля её продукции на китайском рынке упала с 95 % практически до нуля, а многие китайские компании научились обходить ограничения, пользуясь зарубежными, в том числе американскими облаками.

Некоторые чипы доступны китайским покупателям, не попадающим под санкции, NVIDIA и AMD ранее согласились выплачивать правительству США 15 % выручки от них. Однако теперь уже правительство КНР противодействует их закупкам, продвигая китайские решения на домашнем рынке.

Постоянный URL: http://servernews.ru/1132460
15.11.2025 [16:14], Владимир Мироненко

Broadcom упростила сертификацию оборудования для VCF для ускорения внедрения современных частных облаков

Broadcom объявила о значительном обновлении VMware Cloud Foundation (VCF) 9.0 с целью предоставления компаниям более широкого выбора в области оборудования, сетевых решений и open source ПО с открытым исходным кодом. По словам компании, VCF представляет собой частную облачную платформу, открытую и адаптируемую ко всем уровням инфраструктуры. Изменения формируют открытую, гибкую экосистему, которая позволяет клиентам создавать, подключать, защищать и развивать современные частные облака в предпочитаемых ЦОД, периферийных локациях и хостинговых средах.

VCF 9.0 теперь сочетает в себе эффективность облачной операционной модели с локальным управлением, расширяя совместимость с решениями разных провайдеров, возможности использования ИИ и преимущества в совокупной стоимости владения, отметил ресурс StorageReview.com. «Создавая открытую экосистему VCF, мы даём компаниям возможность создавать современные частные облака, соответствующие их стратегическим потребностям, гарантируя, что они смогут использовать технологии, необходимые для их уникальных сред», — заявил Пол Тернер (Paul Turner), директор по продуктам подразделения VMware Cloud Foundation компании Broadcom.

Обновление включает расширение компанией программы открытой сертификации оборудования, чтобы расширить возможности OEM- и ODM-партнёров. В частности, программа VCF AI ReadyNodes (готовые к работе с VCF ИИ-узлы) призвана упростить процесс сертификации ИИ-узлов, позволяя заказчикам внедрять CPU, GPU и ускорители следующего поколения по мере их появления. VCF AI ReadyNodes будет использоваться для сертификации серверов, прошедших предварительную квалификацию для обучения ИИ-моделей и инференса.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Сертифицированные согласно VCF AI ReadyNodes узлы представляют собой предварительно настроенное оборудование с ПО VMware с предсказуемой производительностью, простым управлением и гибкой виртуализацией со сквозным доступом к GPU, а также включают сетевые функции для минимизации задержки и масштабирования пропускной способности. Такие узлы снижают риски проблем при интеграции и сокращают время выхода продукта на рынок, предлагая предварительно проверенные ПАК для обучения и инференса. Они поддерживают плавное обновление через SDDC Manager, обеспечивая синхронизацию обновлений драйверов GPU, прошивок сетевых карт и VMware ESXi для поддержания стабильности в производственных ИИ-средах. Supermicro станет одним из первых OEM-партнёров, сертифицировавших свои серверы в рамках AI ReadyNode.

Broadcom также расширила программу VCF ReadyNode, предоставив ODM-партнёрам возможность самостоятельно сертифицировать готовые узлы в рамках программы Broadcom Technology Alliance (TAP). Все сертифицированные системы будут проверены на полную совместимость с VMware Cloud Foundation с последовательным управлением жизненным циклом VCF. Это расширяет возможности поиска поставщиков и сокращает время выполнения заказов. Для узлов для периферийных вычислений компания предлагает вариант VCF Edge, ориентированный на надёжные и компактные серверы для промышленных, оборонных, розничных и др. нужд.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Broadcom также сообщила о новой стратегии, направленной на унификацию сетевых инфраструктур и упрощение сетевых операций в современном частном облаке с помощью стандартизированных сетей с EVPN и BGP. Клиенты получат преимущества от защиты на уровне VPC, согласованных сетевых операций, маршрутизации и видимости во всех доменах VCF Networking (NSX) и сетевых решениях сторонних производителей, обеспечивающих унифицированные операции с помощью комплексной автоматизации.

Этот подход согласует VCF со стратегией Cisco Nexus One Fabric, обеспечивая более согласованные и надёжные результаты работы для совместных клиентов Cisco и VMware. Cisco Nexus One Fabric расширяет возможности VCF, предоставляя современную, масштабируемую и автоматизированную сетевую архитектуру на основе VXLAN EVPN. VCF Networking (NSX) также теперь поддерживает популярную открытую NOS SONiC. SONiC обеспечивает клиентам снижение затрат за счёт использования стандартного коммутационного оборудования разных производителей, снижая как капитальные, так и эксплуатационные расходы.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Кроме того, Broadcom продолжает участвовать в сообществе Kubernetes, являясь одним из пяти крупнейших участников CNCF (Cloud Native Computing Foundation) и работая над проектами Antrea, Cluster API, ContainerD, Contour, etcd, Harbor и т.д. Broadcom объявила, что VMware vSphere Kubernetes Service (VKS) был сертифицирован CNCF как платформа, соответствующая требованиям Kubernetes AI Conformant Platform. Как сообщает The Register, эта недавно запущенная программа соответствия призвана дать клиентам уверенность в том, что контейнерная платформа может надёжно выполнять реальные рабочие нагрузки ИИ. Программа определяет минимальный набор возможностей и конфигураций, необходимых для запуска широко распространенных фреймворков ИИ и машинного обучения в инфраструктуре Kubernetes.

Постоянный URL: http://servernews.ru/1132413

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus