Материалы по тегу:

01.04.2026 [13:23], Руслан Авдеев

СТИ ввела в эксплуатацию вторую очередь ЦОД «Дубна-М»

Российская компания «Свободные Технологии Инжиниринг» (СТИ), занимающаяся проектированием и строительством ЦОД под ключ, ввела в эксплуатацию вторую очередь нового дата-центра в Подмосковье. Проектная ёмкость объекта «Дубна-М» составлят 40 МВт и 2 тыс. стоек.

Первая очередь ЦОД сертифицирована Uptime Institute осенью 2025 года, а в середине марта сертификат отказоустойчивости Tier III получила и вторая очередь объекта. По данным СТИ, инвестором и застройщиком является ГК «МонАрх», «Свободные Технологии Инжиниринг» обеспечивали проектирование и строительство дата-центра.

 Источник изображения: СТИ

Источник изображения: СТИ

По словам компании, особое внимание при проектировании и прокладке инженерной инфраструктуры уделялось особое внимание обеспечению надёжности и отказоустойчивости. Так, система электроснабжения получила механизм резервирования, в т.ч. с независимыми источниками питания, системами бесперебойного электроснабжения и дизель-генераторами.

Для охлаждения использовались системы кондиционирования с изоляцией «горячих коридоров» и подключением к чиллерам. Это должно обеспечить стабильную работу оборудования даже в случае нагрузок высокой плотности. По словам представителя СТИ, новый ЦОД — один из крупнейших в портфолио компании, и она готова к реализации проектов высокой мощности, со сложной архитектурой.

 Источник изображения: СТИ

Источник изображения: СТИ

В конце марта компания RWB, более всего известная торговой площадкой Wildberries, запустила в эксплуатацию очередной собственный ЦОД мощностью 8 МВт в Подмосковье. Расположенный в ОЭЗ «Дубна» объект расширит вычислительные возможности компании и её сервисов.

Постоянный URL: http://servernews.ru/1139237
01.04.2026 [12:19], Сергей Карасёв

Toshiba начала поставки HDD вместимостью до 34 Тбайт с SMR и стеклянными пластинами

Корпорация Toshiba объявила о начале пробных отгрузок Nearline-накопителей серии M12, вместимость которых варьируется от 30 до 34 Тбайт. Эти HDD ориентированы на гиперскейлеров и облачных провайдеров, оперирующих крупными дата-центрами.

Изделия M12 соответствуют типоразмеру LFF. Применена технология черепичной магнитной записи (SMR), которая позволяет увеличить ёмкость примерно на 15 % по сравнению с накопителями на основе традиционной магнитной записи (CMR) без перекрывающихся дорожек.

Toshiba отмечает, что в обычных SMR-накопителях может наблюдаться снижение производительности на операциях случайной записи. В устройствах M12 эта проблема частично решена благодаря применению архитектуры SMR, управляемой хостом: при таком подходе хост-система контролирует размещение и перезапись данных внутри накопителя, что обеспечивает более эффективную обработку информации.

В новых HDD используются стеклянные пластины, а не алюминиевые, что позволило уменьшить их толщину. Конструкция предусматривает использование 11 пластин с плотностью записи 3,09 Тбайт. Герметичная камера заполнена гелием. Задействована технология FC-MAMR (Flux Control Microwave Assisted Magnetic Recording) — магнитная запись с микроволновой поддержкой с управляемым потоком.

 Источник изображения: Toshiba

Источник изображения: Toshiba

Накопители семейства M12 обеспечивают максимальную скорость передачи данных в 282 МиБ/с, что примерно на 8 % выше, чем у решений предыдущего поколения (МА11). При этом энергопотребление (Вт/Тбайт) снизилось на 18 %. Новинки рассчитаны на эксплуатацию в круглосуточном режиме 24/7 и на годовую рабочую нагрузку до 550 Тбайт. Показатель MTBF (средняя наработка на отказ) достигает 2,5 млн часов, значение AFR (Annualized Failure Rate) находится на отметке 0,35 %.

Сетевые источники добавляют, что новые HDD, как и предшественники, имеют скорость вращения шпинделя 7200 об/мин. Будут предлагаться варианты с интерфейсами SATA и SAS. Кроме того, в III квартале нынешнего года Toshiba начнёт пробные поставки HDD семейства M12 с технологией CMR: их вместимость составит до 28 Тбайт.

Постоянный URL: http://servernews.ru/1139233
01.04.2026 [09:06], Руслан Авдеев

Японская Tokyu испытает «железнодорожный» ЦОД

Один из железнодорожных маршрутов японского конгломерата Tokyu может стать пристанищем для дата-центров. На днях Tokyu Corporation, Tokyu Electric Railway, iTSCOM и Tokyu Construction объявили о начале эксперимента по созданию ЦОД вдоль линии Oimachi Line, связывающей районы Токио (Tokyo) и Кавасаки (Kawasaki, префектура Канагава), сообщает Datacenter Dynamics.

Компания намерена более полно использовать проложенную вдоль путей ВОЛС, поэтому в рамках эксперимента летом 2026 года под эстакадой Oimachi Line разместят небольшой модульный ЦОД. Компания рассчитывает оценить влияние на серверы условий, характерных для окрестностей железных дорог — состояние звуко- и виброизоляции, а также проанализировать эффективность охлаждения корпуса сервера. Полученные результаты позволят оценить целесообразность строительства дата-центров.

 Источник изображения: Snowscat/unsplash.com

Источник изображения: Snowscat/unsplash.com

Также компания намерена оценить возможность создания в перспективе дата-центров вдоль линии Tokyu Line, включая специальный район Токио —Сибую (Shibuya), а также создания вдоль линии городской цифровой инфраструктуры. Многие железнодорожные компании по всему миру тянут оптоволоконные сети вдоль собственных путей, но как правило такие ВОЛС сдаются в аренду другим компаниям.

 Источник изображения: Toyku

Источник изображения: Toyku

Tokyu была основана в 1910 году, тогда она носила имя Musashi Electric Railway Company. Нынешнее название компания получила в 1942 году после серии слияний. Бизнесу принадлежат многие железные дороги в районе «Большого Токио». Дополнительно она владеет несколькими автобусными компаниями, подразделением, занимающимся недвижимостью, а также торговым центром и несколькими отелями.

Постоянный URL: http://servernews.ru/1139187
31.03.2026 [23:55], Владимир Мироненко

Rebellions привлёк $400 млн для выхода на международный рынок и дальнейшей разработки ИИ-ускорителей

Разработчик ИИ-чипов Rebellions планирует расширить своё присутствие за пределами Южной Кореи с помощью поставок новой стоечной вычислительной платформы, которая не потребует от предприятий использования жидкостного охлаждения или сверхмощных стоек, пишет The Register. Основанный в конце 2020 года стартап производит ИИ-ускорители, которые используются многими компаниями Южной Кореи.

Главный коммерческий директор Rebellions Маршалл Чой (Marshall Choy) сообщил The Register, что поначалу компания сосредоточились на телекоммуникационных предприятиях, поставщиках услуг и корпоративных пользователях на южнокорейском рынке. «Мы разработали сценарии использования для всего, от колл-центров и обслуживания клиентов до систем видеонаблюдения для национальной системы автомагистралей», — отметил он, добавив, что компания сейчас находится в сильной позиции, а накопленный ею опыт и возможности позволяют расширять поставки в другие регионы.

 Источник изображения: Rebellions

Источник изображения: Rebellions

После выпуска ИИ-ускорителя Rebel Quad, переименованного в Rebel100, компания начала предпринимать шаги по выходу на международный рынок. За последние несколько месяцев Rebellions открыла офисы в Японии, Саудовской Аравии, на Тайване и в США, где надеется завоевать доверие предприятий с помощью своих стоечных систем RebelRack и RebelPods на базе Rebel100.

Ускоритель Rebel100, в отличие от NVIDIA H200, базирующегося на монолитном вычислительном кристалле, изготовленном TSMC, использует чиплетную архитектуру с четырьмя вычислительными кристаллами, произведёнными и упакованными Samsung. К нему подключены четыре стека памяти HBM3e общей ёмкостью 144 Гбайт и пропускной способностью 4,8 Тбайт/с. Благодаря тому, что Rebellions — южнокорейская компания, тесно связанная как с чеболем SK, так и с Samsung, крупнейшими поставщиками HBM, у неё нет проблем с закупкой этой памяти.

Сам Rebel100 выпускается в виде PCIe-карты с TDP 600 Вт и производительностью до 1 Пфлопс в режиме FP16 и до 2 Пфлопс на операциях FP8. Референсный дизайн Rebellions предусматривает размещение восьми таких карт в одном 19″ узле с воздушным охлаждением. Опора на стандартные форм-факторы была ключевым приоритетом при проектировании Rebellions, поскольку это позволяет развернуть системы в существующих корпоративных ЦОД, тогда как последние поколения ускорителей NVIDIA требуют СЖО.

 Источник изображения: Rebellions

Источник изображения: Rebellions

Стоечная система RebelRack будет включать четыре таких узла, объединённых 400GbE-сетью, что в сумме даст 32 ускорителя с общей производительностью 64 Пфлопс (FP8) и 4,6 Тбайт HBM3e с агрегированной ПСП 153,6 Тбайт/с. Для более крупных развёртываний предназначена стоечная система RebelPod, которая может масштабироваться от 8 до 128 узлов, каждый из которых имеет восемь ускорителей Rebel100, соединённых 800GbE-интерконнектом. Чой говорит, что в дальнейшем компания будет уделять первостепенное внимание сетевой инфраструктуре.

The Register отметил на примере стоечных систем от AMD и NVIDIA, что вычислительные ресурсы и сетевые возможности — это лишь две части решения задачи. Также необходимо ПО, которое сможет объединить всё это. Программный стек Rebellions работает на основе open source фреймворков, таких как vLLM, PyTorch и Triton. Для дезагрегированного инференса используется llm-d, ещё один открытый инструмент, позволяющий выполнять предварительное заполнение на одном наборе ускорителей, а декодирование — на другом. «Всё — open source, от vLLM до самого высокого уровня стека, Red Hat, OpenShift и т.д., — сказал Чой. — Если вы использовали какие-либо из этих технологий в другом контексте, вы уже знаете, как использовать Rebellions».

В понедельник стартап привлёк $400 млн в рамках предварительного раунда финансирования, который возглавили Mirae Asset Financial Group и Корейский национальный фонд развития, как для поддержки своей экспансии на международном рынке, так и для дальнейшего развития более совершенных и эффективных акселераторов и систем ИИ. По данным The Register, компания может подать заявку на IPO уже в этом году или в начале следующего.

Постоянный URL: http://servernews.ru/1139224
31.03.2026 [20:09], Владимир Мироненко

NVIDIA инвестировала $2 млрд в Marvell, приобщив её к своей ИИ-экосистеме и NVLink Fusion

Акции Marvell Technology подскочили более чем на 9 % на предрыночных торгах после объявления NVIDIA об инвестициях в размере $2 млрд в рамках стратегического партнёрства с интеграцией решений Marvell в экосистему NVIDIA. Это позволит Marvell подключиться к ИИ-фабрике NVIDIA и экосистеме AI-RAN посредством NVIDIA NVLink Fusion, предоставляя клиентам, использующим архитектуры NVIDIA, больший выбор и гибкость при разработке инфраструктуры следующего поколения.

Marvell предоставит клиентам специализированные XPU и масштабируемые сетевые решения, совместимые с NVLink Fusion, а NVIDIA — вспомогательные технологии, включая процессоры Vera, сетевые решения ConnectX и Bluefield, интерконнект NVLink и коммутаторы Spectrum-X, а также вычислительные ИИ-мощности в стоечном исполнении.

Для клиентов, разрабатывающих специализированные XPU, NVLink Fusion предлагает гетерогенную ИИ-инфраструктуру, полностью совместимую с системами NVIDIA, обеспечивая бесшовную интеграцию с платформами NVIDIA GPU, LPU, сетевыми и СХД-платформами, используя технологический стек NVIDIA и глобальную экосистему поставок. Ранее NVIDIA заключила похожие соглашения в отношении NVLink с SiFive, AWS, Arm, Fujitsu, Intel и MediaTek.

Компании также будут сотрудничать в ключевых областях, таких как кремниевая фотоника и телекоммуникационные сети с целью преобразования сетей в инфраструктуру ИИ с помощью NVIDIA Aerial AI-RAN для 5G/6G и развития передовых решений для оптического интерконнекта. «Вместе с Marvell мы даём клиентам возможность использовать экосистему ИИ-инфраструктуры NVIDIA и масштабировать её для создания специализированных вычислительных ИИ-мощностей», — заявил гендиректор NVIDIA Дженсен Хуанг (Jensen Huang).

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Эта сделка является частью более широкой стратегии NVIDIA по инвестированию в ИИ-экосистему с целью укрепления своего лидерства на ИИ-рынке. Недавно NVIDIA инвестировала аналогичные суммы в несколько компаний, включая Synopsys, Nokia, CoreWeave, Coherent, Lumentum и Nebius, тем самым укрепляя свое влияние по всей цепочке создания стоимости.

Таким образом NVIDIA стремится удовлетворить экспоненциальный рост спроса на вычислительные мощности, обусловленный ИИ-инференсом и генерацией контента. Используя стратегические партнёрства, NVIDIA намерена ускорить развёртывание специализированной инфраструктуры и обеспечить разработку необходимых технологий для роста сегмента.

Постоянный URL: http://servernews.ru/1139215
31.03.2026 [17:55], Сергей Карасёв

«Альт Сервер» и «Альт Домен» 11.1: выбор редакции на этапе установки, улучшения цифровой среды, управление службами через приложения

«Базальт СПО» выпустила обновление операционной системы «Альт Сервер» с программным комплексом «Альт Домен» 11.1. В новой версии на этапе установки можно выбрать редакцию: классический сервер («Альт Сервер») или контроллер домена («Альт Домен»). Также добавили приложение для настройки и управления сервисами «Альт Сервисы» и графические средства управления для среды GNOME.

Выбор редакции на этапе установки системы и быстрое переключение между ними

В установщике появилась возможность выбора редакции: «Альт Сервер» или «Альт Домен». Указанный вариант определяет состав программного обеспечения и условия лицензионного соглашения.

Чтобы быстро переключаться между «Альт Сервером» и «Альт Доменом» без переустановки, в центре управления добавили раздел «Альт Системная информация».

На одном из этапов установки системы можно загрузить дополнительные приложения, которые:

  • позволяют включать сервер в существующий домен;
  • добавляют поддержку графической подсистемы (GNOME);
  • позволяют оптимальнее работать внутри виртуальной машины;
  • добавляют классический доступ к веб-интерфейсу управления сервером по сети.

Управление программным обеспечением

В приложениях для управления программным обеспечением «Альт Компоненты» и «Альт Пакеты» добавлена защита от случайного удаления критических файлов. Система будет запрашивать дополнительное подтверждение операции.

«Альт Сервисы»: управление сервисами через приложения

Сервисы (службы) — фоновые процессы, которые запускаются в операционной системе для предоставления определённых функций или ресурсов (веб‑сервер, SSH, база данных и т. д.). Для их работы требуются файлы с настройками, определяющие параметры работы сервиса без необходимости изменения его исходного кода (файлы конфигурации). Раньше их приходилось править вручную.

Теперь эта задача автоматизирована. Настройки и управления сервисами выполняются через:

  • консольную утилиту alteratorctl;
  • через приложение «Альт Сервисы».

На данный момент реализовано управление службами Samba DC (контроллер домена) и Chrony (синхронизация времени). Со временем появится поддержка других сервисов.

Установить «Альт Сервисы» (alt-services) можно через приложение для управления наборами приложений «Альт Пакеты».

Тайминги межсайтовой репликации стали лучше

Изменились настройки тайминга межсайтовой репликации. Теперь можно четко прописать периодичность обмена данными между сайтами и выбрать время с наименьшей нагрузкой на каналы связи.

Центр расширенных настроек и дополнительные расширения для оболочки GNOME

Добавлен центр расширенных настроек «Тюнер», обеспечивающий контроль над интерфейсом и функциями с помощью плагинов. Он содержит дополнительный набор настроек системы, компонентов, приложений и т. д.

 Источник изображения: «Базальт СПО»

Источник изображения: «Базальт СПО»

Добавлены расширения для оболочки GNOME:

  • «Управление сеансами» (Session Keeper). Позволяет сохранять, закрывать и восстанавливать открытые окна (сеансы);
  • «Кофеин» (Caffeine). Позволяет оперативно отключать автоматический переход системы в режим сна, блокировку экрана и запуск скринсейвера.

Безопасность и защита данных

Для контроллера домена добавлена технология LAPSv2. Она используется для автоматизированного управления и регулярного изменения паролей учётных записей локальных администраторов на компьютерах, входящих в домен.

Резервное копирование

Proxmox Backup Server обновлен до версии 4. Основные новшества:

  • поддержка S3-совместимых объектных хранилищ. Можно напрямую сохранять резервные копии в публичные или частные облака с S3 API;
  • администраторы могут добавлять новые диски в существующие пулы RAIDZ, что позволяет гибко масштабировать хранилище без необходимости избыточного резервирования и простоев;
  • можно автоматически запускать синхронизацию данных сразу после подключения внешнего накопителя.

Архитектуры

«Альт Сервер» 11.1 совместим с процессорами на архитектурах x86_64 и AArch64. Идёт работа над обеспечением совместимости с Эльбрус V6.

Постоянный URL: http://servernews.ru/1139188
31.03.2026 [15:53], Руслан Авдеев

Selectel запустил защищённый катастрофоустойчивый облачный регион ru-6 с тремя зонами доступности

Российский провайдер облачной инфраструктуры Selectel запустил геораспределённый (Multi-AZ) облачный регион ru-6. Новое решение подойдёт корпоративным клиентам с крупными цифровыми проектами и сложными внутренними информационными системами, требующими высокопроизводительной вычислительной инфраструктуры, говорит компания. Регион включает три независимых зоны доступности (AZ) в Москве, с расстоянием до 15 км между дата-центрами. Связь площадок обеспечит высокоскоростная сеть с временем отклика менее 1 мс.

Если раньше для распределения нагрузок между зонами было необходимо ручное конфигурирование, то теперь устойчивость сетевых и PaaS-сервисов можно получить «из коробки». Мастер-ноды Managed Kubernetes и ноды облачных баз данных в геораспределённых кластерах автоматически размещаются в разных AZ. Аналогичным образом организовано и распределённое резервное копирование. Подобная архитектура обеспечит работоспособность клиентских нагрузок, даже если из строя выйдет одна из зон доступности целиком. В случае инцидента задержка восстановления сервисов будет минимальной, всего от нескольких минут.

В компании говорят о получении доступа к «отказоустойчивости как сервису». Связанные с работой ЦОД риски будут минимизироваться с помощью автоматической системы аварийного восстановления. Утверждается, что это обойдётся минимум вдвое дешевле обычного DR-механизма. В то же время сохранится возможность выбора того, где именно размещать критически важные сетевые компоненты с учётом требований к RTO и RPO.

 Источник изображения6 Selectel

Источник изображения6 Selectel

Уже организован доступ к инфраструктуре ru-6 по предварительному заказу на её сайте. Сегодня компании размещают критически важные информационные системы сразу в нескольких ЦОД, а в некоторых случаях — у нескольких облачных провайдеров. Новое решение обеспечивает устойчивые PaaS: Managed Kubernetes, облачные СУБД, S3-хранилище и др.

В основе нового региона — увеличенные лимиты произвольных конфигураций, выделенные ядра и возможность управлять топологией CPU. Облако построено на современном оборудовании с использованием собственной серверной платформы Selectel и процессоров AMD EPYC 9754 (Turin) и Intel Xeon 6747P (Granite Rapids-SP), сетевых дисков с производительностью 75 тыс. IOPS, а также ИИ-ускорителей NVIDIA H200 и RTX PRO 6000 Blackwell Server Edition.

Компания рассчитывает дополнить систему геораспределённым хранилищем S3 с высокоскоростным подключением к облачным серверам, появится и специальное файловое хранилище. Планируется добавить функцию резервирования выделенных хостов виртуализации для конфиденциальных вычислений и экспорт бэкапов в другие географические регионы.

Постоянный URL: http://servernews.ru/1139192
31.03.2026 [14:57], Владимир Мироненко

Nebius построит в Финляндии крупнейший в Европе ИИ ЦОД

Провайдер облачных ИИ-сервисов Nebius (ранее Yandex N.V.) объявил о строительстве новой «ИИ-фабрики» мощностью до 310 МВт в финском городе Лаппеенранта (Lappeenranta). Как сообщает Reuters, новый ИИ ЦОД стоимостью более $10 млрд станет крупнейшим на континенте. Это уже десятый объект компании, который финский девелопер Polarnode строит в Лаппеенранте. Ввод мощностей ИИ ЦОД будет производиться поэтапно, начиная с 2027 года. Сообщается, что он не будет привязан ни к одному из клиентов компании.

Строительство ЦОД в Лаппеенранте следует за недавним расширением Nebius своего первого ЦОД в Финляндии в Мянтсяля (Mäntsälä) до 75 МВт, завершённым ранее в этом году. Компания планирует дальнейшее расширение в Финляндии, чему способствуют благоприятные условия — низкие цены на энергоносители, возобновляемые источники электроэнергии и прохладный климат, позволяющий снизить затраты на охлаждение. Компания отметила, что Лаппеенранта отвечает всем требованиям для строительства ИИ ЦОД, включая доступность оформления участка под объект и пропускную способность сетей.

«Мы считаем, что и общая экосистема здесь очень благоприятна», — сказала компания агентству Reuters. ЦОД в Лаппеенранте станет крупнейшим объектом Nebius за пределами США, превзойдя недавно анонсированный проект мощностью 240 МВт невдалеке от Лилля (Lille, Франция). «Мы много лет работаем в Финляндии и рады расширению нашего присутствия здесь. Лаппеенранта станет значительным дополнением к нашей глобальной инфраструктуре ИИ и внесет существенный вклад в достижение наших целей по мощности», — заявил основатель и генеральный директор Nebius Аркадий Волож.

 Источник изображения: Nebius

Источник изображения: Nebius

ЦОД Nebius в Лаппеенранте представляет собой многокорпусный комплекс на промышленной площадке площадью около 40,5 га. Его строительство и дальнейшая эксплуатация создадут новые рабочие места в регионе Южная Карелия в Финляндии. Ожидается, что появится около 100 рабочих мест после ввода ЦОД в эксплуатацию, а также сотни косвенных вакансий в сфере эксплуатации и технического обслуживания. Ключевым принципом проектирования ЦОД в Лаппеенранте будет экологичность, как и в ЦОД в Мянтсяля, который входит в число самых энергоэффективных объектов в мире, сообщила Nebius.

Серверы будут охлаждаться с помощью замкнутой СЖО, что исключит необходимость использования воды из местных источников. Как и в Мянтсяля, система охлаждения будет спроектирована с учётом системы рекуперации тепла, что позволит передавать избыточное тепло от серверов в местную теплосеть. В Мянтсяля такой подход позволил избежать выбросов примерно 4 тыс. т CO2-эквивалента, связанных с производством тепла, в 2025 году и снизить затраты на отопление для подключённых домохозяйств примерно на 10 %.

Nebius сообщила, что создаёт одну из крупнейших в мире сетей специализированных вычислительных мощностей для ИИ и планирует к концу 2026 года обеспечить более 3 ГВт контрактной мощности. В рамках реализации этих планов компания недавно получила разрешение на строительство своей первой гигаваттной ИИ-фабрики в Индепенденсе (Independence, штат Миссури). В регионе EMEA компания законтрактовала более 750 МВт на своих собственных площадках и в других ЦОД. В ЦОД в Мянтсяля размещена платформа NVIDIA GB300 NVL72, позже в этом году Nebius предложит и Vera Rubin NVL72.

Постоянный URL: http://servernews.ru/1139189
31.03.2026 [14:48], Руслан Авдеев

Разработчик космических ЦОД Starcloud привлёк $170 млн, став «единорогом» всего за полтора года

Starcloud, занимающаяся созданием космических ЦОД, привлекла $170 млн в рамках раунда финансирования Series A при оценке капитализации на уровне $1,1 млрд. Участнице бизнес-акселератора Y Combinator удалось добиться статуса «единорога» через 17 месяцев после первой презентации. Пока это самый быстрорастущий стартап в истории Y Combinator, сообщает HPC Wire. Раунд возглавили Benchmark и EQT.

Статус «единорога» обычно получают компании с капитализацией выше $1 млрд, при этом ещё не вышедшие на биржу и не принадлежащие крупным корпорациям. Общий объём привлечённого компанией капитала увеличился до $200 млн. Новые средства позволят быстро масштабировать орбитальную инфраструктуру и удовлетворить спрос на экобезопасные ИИ-мощности, говорит компания. Новые инвестиции ускорят проектирование и строительство спутников нового поколения Starcloud-3, создание специализированного производства, расширение штата и заключение новых контрактов на вывод ЦОД в космос.

Поскольку ИИ стимулирует спрос на вычислительные мощности, наземной инфраструктуры для него не всегда достаточно, тем более что на получение разрешений на строительство новых ЦОД и получение электропитания может уйти до пяти лет. Starcloud предложила обойти эти ограничения, построив ЦОД на низкой околоземной орбите с доступом к практически неограниченной солнечной энергии.

 Источник изображения: Starcloud

Источник изображения: Starcloud

Starcloud запустила первый спутник Starcloud-1 с NVIDIA H100 на борту в ноябре 2025 года — он приблизительно в 100 раз производительнее всех предыдущих вычислителей на орбите. Компания первой дообучила ИИ-модель в космосе и успешно запустила инференс LLM Gemini. Имея всего $3 млн предварительного финансирования, Starcloud спроектировала, построила и запустила первый спутник за рекордный срок — всего 21 мес.

В конце 2026 года ожидается запуск спутника Starcloud-2. Его оснастят самым крупным коммерческим радиатором из когда-либо отправленных в космос, а сам спутник получит в 100 раз больше энергии в сравнении со Starcloud-1. Starcloud-2 станет первым спутником компании, выполняющим коммерческие периферийные и облачные вычисления. Первым клиентом стала Crusoe, также заключены партнёрства с AWS, Google Cloud и NVIDIA.

Раунд финансирования прошёл в два этапа. Первый и основной возглавила Benchmark (при участии EQT), дополнительный второй этап совместно возглавили оба инвестора. EQT представляет собой второй по величине фонд прямых инвестиций в мире, управляющий активами стоимостью более $100 млрд. Компания владеет более 70 ЦОД. Benchmark — один из наиболее успешных в мире фондов венчурных инвестиций.

В новом раунде финансирования спрос значительно превысил предложение. В нём также приняли участие крупнейший в мире инфраструктурный фонд Macquarie Capital, фондв NFX, Nebular, Y Combinator, Adjacent, 776 Ventures, Fuse Ventures, Manhattan West, Monolith Power Systems и частные инвесторы. Помимо прочих, в космосе желают разместить огромное количество микро-ЦОД компании SpaceX и Blue Origin.

Постоянный URL: http://servernews.ru/1139181
31.03.2026 [13:34], Руслан Авдеев

Mitsui и Hitachi готовятся размещать дата-центры на старых судах

Японские промышленные гиганты Mitsui и Hitachi предложили размещать плавучие дата-центры на подержанных судах. Компании намерены оценить целесообразность реализации такого подхода и его привлекательность до принятия окончательного решения о его развитии, сообщает Datacenter Dynamics.

Ставка делается на то, что такие ЦОД можно возводить в короткие сроки, их проще охлаждать с использованием морской и речной воды, а затрат на покупку земли и вовсе не будет. Согласно утверждениям Mitsui и Hitachi, строительство дата-центров на баржах даст возможность обойти ряд требований, предъявляемых к дата-центрам на суше. Ранее Mitsui прорабатывала похожий проект с турецкой Kinetics (Karpowership), выступающей оператором кораблей-электростанций

Если проект Floating Data Center одобрят, работы начнутся уже в 2027 году. Решение будет ориентировано на Японию, Малайзию и США. За морские аспекты реализации проекта будет отвечать «дочка» Mitsui — судоходная компания Mitsui OSK Lines, а Hitachi будет отвечать за собственно ЦОД. Потенциальные партнёры не уточнили, будет ли поставлять подержанные суда сама Mitsui или сторонние компании.

 Источник изображения: Mitsui

Источник изображения: Mitsui

Впрочем, Mitsui далеко не первая, кто рассматривает размещение дата-центров на судах. В 2008 году Google направила в патентное ведомство заявку, предлагающую создавать ЦОД на судах, использующих энергию морских волн для генерации электричества и морскую воду для охлаждения оборудования. Впрочем, Google пока не имеет на воде ни одного из подобных объектов.

Основанная в 2014 году американская Nautilus Data Technologies построила дата-центр мощностью 6,5 МВт и площадью 1,858 м2 на барже в Стоктоне (Stockton, Калифорния). Впрочем, в ноябре 2024 года флагманский проект выставили на продажу за $45 млн, а сама компания сменила профиль, занявшись системами охлаждения. Главным преимуществом проекта Mitsui и Hitachi являются размеры ЦОД. По данным Mitsui, предполагается использование судна-автовоза с доступной площадью 54 тыс. м2, это почти втрое больше баржи Nautilus.

Также плавучий ЦОД, в этом случае в Сингапуре, планирует построить компания Keppel. Согласно её отчёту за 2025 год, объект представляет собой четырёхэтажный модуль мощностью 19,2 МВт с охлаждением морской водой, а также береговую инфраструктуру. Всего 9870 м2 земли и 7580 м2 морского пространства.

Небольшой контейнерный ЦОД разместила Denv-R на плавучей платформе в Нанте (Nantes) и др. На фоне роста спроса на ЦОД реализуются разнообразные, в том числе необычные проекты. Китайская HiCloud предоставляет мощности ЦОД, размещённых как на морском дне, так и под самой поверхностью воды.

Постоянный URL: http://servernews.ru/1139165