Материалы по тегу: hardware
|
31.03.2026 [13:34], Руслан Авдеев
Mitsui и Hitachi готовятся размещать дата-центры на старых судахЯпонские промышленные гиганты Mitsui и Hitachi предложили размещать плавучие дата-центры на подержанных судах. Компании намерены оценить целесообразность реализации такого подхода и его привлекательность до принятия окончательного решения о его развитии, сообщает Datacenter Dynamics. Ставка делается на то, что такие ЦОД можно возводить в короткие сроки, их проще охлаждать с использованием морской и речной воды, а затрат на покупку земли и вовсе не будет. Согласно утверждениям Mitsui и Hitachi, строительство дата-центров на баржах даст возможность обойти ряд требований, предъявляемых к дата-центрам на суше. Ранее Mitsui прорабатывала похожий проект с турецкой Kinetics (Karpowership), выступающей оператором кораблей-электростанций Если проект Floating Data Center одобрят, работы начнутся уже в 2027 году. Решение будет ориентировано на Японию, Малайзию и США. За морские аспекты реализации проекта будет отвечать «дочка» Mitsui — судоходная компания Mitsui OSK Lines, а Hitachi будет отвечать за собственно ЦОД. Потенциальные партнёры не уточнили, будет ли поставлять подержанные суда сама Mitsui или сторонние компании.
Источник изображения: Mitsui Впрочем, Mitsui далеко не первая, кто рассматривает размещение дата-центров на судах. В 2008 году Google направила в патентное ведомство заявку, предлагающую создавать ЦОД на судах, использующих энергию морских волн для генерации электричества и морскую воду для охлаждения оборудования. Впрочем, Google пока не имеет на воде ни одного из подобных объектов. Основанная в 2014 году американская Nautilus Data Technologies построила дата-центр мощностью 6,5 МВт и площадью 1,858 м2 на барже в Стоктоне (Stockton, Калифорния). Впрочем, в ноябре 2024 года флагманский проект выставили на продажу за $45 млн, а сама компания сменила профиль, занявшись системами охлаждения. Главным преимуществом проекта Mitsui и Hitachi являются размеры ЦОД. По данным Mitsui, предполагается использование судна-автовоза с доступной площадью 54 тыс. м2, это почти втрое больше баржи Nautilus. Также плавучий ЦОД, в этом случае в Сингапуре, планирует построить компания Keppel. Согласно её отчёту за 2025 год, объект представляет собой четырёхэтажный модуль мощностью 19,2 МВт с охлаждением морской водой, а также береговую инфраструктуру. Всего 9870 м2 земли и 7580 м2 морского пространства. Небольшой контейнерный ЦОД разместила Denv-R на плавучей платформе в Нанте (Nantes) и др. На фоне роста спроса на ЦОД реализуются разнообразные, в том числе необычные проекты. Китайская HiCloud предоставляет мощности ЦОД, размещённых как на морском дне, так и под самой поверхностью воды.
31.03.2026 [13:09], Руслан Авдеев
Норвежская майнинговая ферма Bitdeer превратится в 180-МВт ИИ ЦОД для NVIDIA Vera RubinBitdeer Technologies Group заключила соглашение с Data Center Installations AS (DCI), предусматривающее трансформацию своего ЦОД Tydal Data Center (TDC) в Норвегии в крупный ИИ-объект. Установленная мощность должна составить в итоге 180 МВт, работы планируется завершить к декабрю 2026 года, сообщает Converge Digest. В основном площадку намерены использовать для новейшей ИИ-платформы NVIDIA Vera Rubin. Сингапурская Bitdeer Technologies Group специализируется на майнинговой вычислительной инфраструктуре. Основанная в 2020 году компания строит и эксплуатирует вертикально интегрированные платформы ЦОД. В последние годы Bitdeer всё чаще позиционирует себя как поставщика цифровой инфраструктуры широкого профиля. Среди её последних инициатив — преобразование в ИИ-объекты крупных майнинговых предприятий и организация поддержки новейших ИИ-платформ. Расположенный в норвежском Трёнделаге (Trøndelag) ЦОД Tydal получит эталонную архитектуру NVIDIA для обеспечения рабочих ИИ-нагрузок. Bitdeer называет объект краеугольным камнем своей стратегии по расширению бизнеса и переходу от майнинга биткоинов к ИИ-проектам. Впрочем, истинна причина может быть прозаичней — Норвегия с недавних пор охладела к майнинговым дата-центрам. Партнёром проекта выступит дочерняя структура Sparc Group AB — компания DCI, которая имеет опыт развёртывания крупных ЦОД в Северной Европе. Она обеспечит проектирование, монтаж и ввод в эксплуатацию обновлённого объекта. После завершения строительства объект должен стать крупнейшим действующим ИИ ЦОД в Норвегии и одним из крупнейших в Европе. Но в целом изменение бизнес-модели Bitdeer в пользу инфраструктурных ИИ-проектов отражает общую тенденцию рынка криптомайнинга — операторы соответствующих ЦОД меняют профиль своих энергоёмких площадок для выполнения задач, связанных с искусственным интеллектом. Соответствующие изменения зарегистрированы в Северной Америке и Европе — дело в высоком спросе на кластеры ИИ-ускорителей и близости отдельных регионов к недорогим, в том числе возобновляемым источникам энергии. В последнее время переход компаний вроде CoreWeave и др. с майнинга на ИИ вот-вот приобретёт характер эпидемии. Так, в феврале появилась информация о том, что Bitfarms переоборудует свои ЦОД под NVIDIA Vera Rubin, а падение курса биткоина ведёт к разорению компаний вроде NFN8 при малейших неприятностях — стартап подал заявление о банкротстве после пожара, не сумев справиться с последствиями.
31.03.2026 [11:53], Сергей Карасёв
Foremay представила космический SSD серии InterStellar с защитой от радиацииКомпания Foremay анонсировала SSD семейства InterStellar, которые рассчитаны на работу в составе коммерческих и военных спутников, располагающихся на низких, средних, геостационарных и высоких орбитах. Особенностью накопителей является защита от космической радиации (космического излучения). Отмечается, что стандартные SSD индустриального класса часто выходят из строя в течение нескольких месяцев после вывода на орбиту. Устройства InterStellar обладают повышенной надёжностью при работе в условиях космического пространства благодаря использованию архитектуры экранирования Graded-Z на основе проприетарных и запатентованных технологий Foremay. Применённое решение, как утверждается, эффективно замедляет протоны и захватывает вторичные нейтроны, снижая исходную дозу облучения в 10 тыс. килорад (100 тыс. Гр) до приемлемого порога в 500 килорад. Устройства способны противостоять мощным выбросам высокоэнергетических заряженных частиц из атмосферы Солнца, а также галактическим космическим лучам в открытом и дальнем космосе.
Источник изображения: Foremay SSD серии InterStellar получили фирменную технологию IABM (Interstellar AI-Driven Block Management) на основе ИИ. Специальное ПО с алгоритмами машинного обучения формирует карту «радиационного риска» в реальном времени. Отслеживая частоту ошибок и показания от датчиков, система заблаговременно перемещает критически важные данные из «горячих зон», наиболее подверженных воздействию высокоэнергетических тяжёлых частиц, в более безопасные области. Накопители доступны в различных вариантах исполнения — SFF SATA, U.2 (NVMe), 1.8″ SATA, BGA NAND DOC (Disk-on-Chip), M.2 2230, M.2 2242, M.2 2260, M.2 2280 (NVMe), 3U VPX. Диапазон рабочих температур простирается от -55 до +125 °C. Упомянута поддержка шифрования данных.
30.03.2026 [14:21], Руслан Авдеев
Французская Mistral AI привлекла в долг $830 млн для оснащения ИИ ЦОД и конкуренции с американскими техногигантамиВедущий европейский ИИ-провайдер Mistral AI привлёк $830 млн долгового финансирования для покупки 13,8 тыс. ускорителей NVIDIA для крупного дата-центра в окрестностях Парижа. Европа стремится масштабировать ИИ-инфраструктуру для конкуренции с США и Китаем, сообщает Reuters. Сделка является первым привлечением долгового финансирования компанией Mistral и указывает на растущую уверенность инвесторов в европейских ИИ-компаниях, желающих бросить вызов доминированию на рынке искусственного интеллекта американским техногигантам вроде Microsoft, Google и Amazon в сфере облачных и ИИ-сервисов. Средства на финансирование Mistral выделил консорциум из семи банков, включая BNP Paribas, Crédit Agricole CIB, HSBC и MUFG. Дата-центр в коммуне Брюйер-ле-Шатель (Bruyeres-le-Chatel) должен заработать во II квартале 2026 года.
Источник изображения: Pedro Lastra/unspalsh.com Mistral выбрала площадку под свой первый дата-центр в феврале 2025 года. В прошлом месяце компания представила планы строительства второго объекта, на этот раз в Швеции, и объявила, что к концу 2027 года ей потребуется зарезервировать 200 МВт в Европе. По словам представителя компании, масштабирование инфраструктуры в Европе имеет критическое значение для расширения возможностей её клиентов. В частности, это необходимо для обеспечения ИИ-инноваций «в сердце Европы». Парижский стартап, обеспечивающий ИИ-модели французским вооружённым силам, позиционировал себя как европейская альтернатива американским гиперскейлерам, предложив как ИИ-модели, так и инфраструктурные сервисы для государственных структур и корпоративных клиентов, пытающихся добиться большего технологического суверенитета. В сентябре 2025 года компания уже привлекла на развитие €1,7 млрд при участии ASML в ходе раунда финансирования Series C. Летом того же года сообщалось, что она ведёт переговоры с базирующимся в Абу-Даби (ОАЭ) фондом MGX и другими структурами о привлечении до $1 млрд акционерного капитала для обеспечения конкуренции с OpenAI.
30.03.2026 [12:01], Сергей Карасёв
Производительность ирландского суперкомпьютера CASPIr составит 15 ПфлопсЕвропейское совместное предприятие по развитию высокопроизводительных вычислений (EuroHPC JU) объявило тендер на создание в Ирландии суперкомпьютера CASPIr (Computation Analysis and Simulation Platform for Ireland). Система будет обслуживать широкий круг пользователей в научном сообществе, промышленной сфере и государственном секторе в Европе. CASPIr — это вычислительный комплекс среднего уровня. Его технические характеристики пока не раскрываются, но известно, что производительность составит около 15 Пфлопс. Использовать суперкомпьютер планируется для решения задач в области ИИ, включая обучение моделей и инференс. Система CASPIr будет находиться в совместной собственности EuroHPC JU и Университета Голуэя (University of Galway). За управление будет отвечать Ирландский центр высокопроизводительных вычислений (ICHEC). Инвестиции в проект оцениваются в €25 млн, из которых 35% предоставит EuroHPC JU, а оставшиеся 65% — власти Ирландии через свои национальные фонды. Подрядчику предстоит осуществить поставку и монтаж вычислительного комплекса с последующим техническим обслуживанием.
Источник изображения: EuroHPC JU Отмечается, что EuroHPC JU продолжает развивать инфраструктуру высокопроизводительных вычислений в Европе. На сегодняшний день приобретены в общей сложности 12 суперкомпьютеров, включая JUPITER — первую европейскую машину экзафлопсного класса. Кроме того, EuroHPC JU курирует развёртывание так называемых ИИ-фабрик — площадок, ориентированных на ресурсоёмкие задачи в области ИИ: такие объекты создаются в Финляндии, Германии, Греции, Италии, Люксембурге, Испании, Швеции и пр. Ещё одним направление работ является формирование инфраструктуры квантовых вычислений.
30.03.2026 [11:59], Сергей Карасёв
ИИ-сервер Gigabyte G894-AD3 использует платформу NVIDIA HGX B300 и чипы Intel Xeon 6900Компания Gigabyte пополнила ассортимент серверов мощной моделью G894-AD3-AAX7, предназначенной для решения ресурсоёмких задач в сфере ИИ. Система выполнена на платформе NVIDIA HGX B300 с восемью SXM-ускорителями Blackwell Ultra. Допускается установка двух процессоров Intel Xeon 6900P поколения Granite Rapids-SP в исполнении LGA 7529 (Socket BR) с показателем TDP до 500 Вт. Доступны 24 слота для модулей DDR5-6400/8800 RDIMM/MRDIMM, два внутренних коннектора M.2 2280/22110 для SSD с интерфейсом PCIe 5.0 x4 и PCIe 5.0 x2, а также восемь отсеков для SFF-накопителей (NVMe) с доступом через фронтальную панель (возможна горячая замена). Реализованы четыре слота PCIe 5.0 x16 для карт расширения FHHL. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на основе Intel X710-AT2, выделенный сетевой порт управления 1GbE, а также восемь портов 800G OSFP InfiniBand XDR (NVIDIA ConnectX-8 SuperNIC). Подсистема питания включает 12 блоков мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с 27 вентиляторами в следующей конфигурации: 6 × 60 мм в области материнской платы, 4 × 40 мм в зоне портов OSFP, 2 × 80 мм в секции PCIe-слотов и 15 × 80 мм в лотке GPU.
Источник изображения: Gigabyte Сервер выполнен в форм-факторе 8U с габаритами 447 × 351 × 923 мм, а масса составляет 91,6 кг. Диапазон рабочих температур — от +10 до +30 °C. Среди прочего упомянуты два порта USB 3.0 Type-A (5 Гбит/с), аналоговый интерфейс D-Sub, а также три гнезда RJ45 для сетевых кабелей. Опционально может быть добавлен модуль TPM 2.0 для обеспечения безопасности.
30.03.2026 [09:54], Руслан Авдеев
Meta✴ пообещала увеличить инвестиции в кампус ЦОД в Техасе до $10 млрдMeta✴ объявила об увеличении плановых инвестиций в строительство нового ЦОД в техасском Эль-Пасо (El Paso)— сумма вложений в кампус мощностью до 1 ГВт вырастет до $10 млрд, сообщает Datacenter Dynamics. Информация о намерении Meta✴ возвести ЦОД в Эль-Пасо появилась в конце 2023 года — сообщалось, что техногигант купит участок площадью более 400 га при посредничестве дочерней WurldWide LLC. Первоначально заявлялось о намерении потратить $1,5 млрд на строительство первой очереди. Всего планировалось до пяти этапов, на каждом из которых будет построен ЦОД площадью около 74 тыс. м2. По данным компании, с ростом инвестиций более амбициозными станут и цели проекта. После того, как объекты будут введены в эксплуатацию, на площадке рассчитывают создать 300 рабочих мест. Дополнительно Meta✴ намерена выделить грант на $500 тыс., чтобы поддержать новую программу подготовки кадров при взаимодействии с государственными образовательными учреждениями Эль-Пасо.
Источник изображения: Meta✴ Более того, компания намерена локально «восстанавливать» 200 % воды, потребляемой дата-центрами. Также компания рассчитывает компенсировать энергосистеме города 100 % потреблённой ЦОД электроэнергии за счёт электричества из возобновляемых источников. Meta✴ сообщает, что сейчас только в Техасе она реализует «зелёные» энергопроекты мощностью более 5 ГВт. Строительство объектов началось в октрябре 2025 года, а в феврале компания сообщила о планах ввести в эксплуатацию для этой площадки 813 газовых генератора — они должны заработать к 2027 году. Общая мощность генераторов должна составить 366 МВт, они обойдутся в $473 млн. Эль-Пасо находится вблизи от границ с Мексикой и Нью-Мексико. Город и его окрестности не являются крупным хабом ЦОД — более востребованы в этом отношении территории к востоку от него — Даллас, Остин и даже Хьюстон. Крупным центром концентрации мощностей ЦОД является Финикс в близлежащей Аризоне.
Источник изображения: Meta✴ Новый кампус станет уже третьим дата-центром Meta✴ в Техасе. У компании уже имеются ЦОД в Форт-Уэрте (Fort Worth) и Темпле (Temple). Также Meta✴ управляет площадками в Лос-Лунасе (Нью-Мексико) и Месе (Аризона). Ранее компания сформировала новое подразделение Meta✴ Compute, задачей которого станет надзор за проектами строительства ИИ ЦОД.
29.03.2026 [19:24], Сергей Карасёв
MSI XpertStation WS300 — рабочая станция для ИИ на базе NVIDIA GB300Компания MSI официально представила мощную рабочую станцию XpertStation WS300, ориентированную на задачи ИИ. Новинка построена на платформе NVIDIA DGX Station, сердцем которой является суперчип GB300. Утверждается, что устройство предлагает производительность уровня ЦОД в формате десктопа. Габариты системы составляют 247,8 × 527,9 × 567,7 мм. Задействованы процессор NVIDIA Grace с 72 ядрами Arm Neoverse V2 (Demeter) и ускоритель Blackwell Ultra. При этом CPU использует 496 Гбайт LPDDR5X с пропускной способностью до 396 Гбайт/с, а GPU — 252 Гбайт HBM3e (ПСП 7,1 Тбайт/с). Применён модуль жидкостного охлаждения (CPU+GPU). Доступны по два разъёма M.2 2280/22110 для SSD с интерфейсом PCIe 5.0 x4 и PCIe 6.0 x4, а также коннектор M.2 2230 для комбинированного адаптера Wi-Fi/Bluetooth. Есть один слот PCIe 5.0 x16 для карты расширения FHFL двойной ширины и два слота PCIe 5.0 x16 для карт FHFL одинарной ширины. В качестве опции предлагается установка ускорителей RTX PRO 6000 Blackwell Workstation Edition, RTX PRO 6000 Blackwell Max-Q Workstation Edition, RTX PRO 4000 Blackwell SFF Edition и RTX PRO 2000 Blackwell. В оснащение входят контроллер ASPEED AST2600 с выделенным портом управления 1GbE, сетевой адаптер NVIDIA ConnectX-8 SuperNIC с двумя портами QSFP112, а также 10GbE-контроллер Marvell AQC113. Есть четыре порта USB 3.1 Type-A, интерфейсы Mini-DP и Micro-USB (COM). Питание обеспечивает блок мощностью 1600 Вт с сертификатом 80 PLUS Titanium. За безопасность отвечает модуль TPM 2.0. Диапазон рабочих температур — от +10 до +35 °C.
29.03.2026 [19:05], Руслан Авдеев
«Кремниевая прерия»: Crusoe пристроит к ИИ ЦОД OpenAI Stargate ещё 900 МВт, но уже для MicrosoftCrusoe готовится расширить присутствие на западе Техаса. В Абилине (Abilene) рядом с первым кампусом OpenAI Stargate появится ещё один — мощностью 900 МВт, предназаченный для Microsoft. Таким образом, общая мощность площадки будет увеличена до 2,1 ГВт и она войдёт в число крупнейших ИИ ЦОД США. Crusoe начала строить объект в Абилине в середине 2024 года на территоррии технопарка Lancium Clean Campus. ИИ ЦОД строится для Oracle, но в интересах OpenAI. Приблизительно за год были построены два здания мощностью около 200 МВт, что весьма быстро для проектов гиперскейлеров. Общая мощность кампуса составит 1,2 ГВт, он будет включать восемь зданий. Crusoe предложила расширить кампус, но OpenAI и Oracle отказались, зато интерес проявили Meta✴ и Microsoft. Crusoe подчёркивает, что в современных ЦОД важную роль играют не только вычислительные мощности, но и доступность электроэнергии. Проект включает собственнн электростанцию на 900 МВт, не зависящую от магистральной электросети, а также аккумуляторное энергохранилище. Кроме того, площадка в Абилине площадка получит доступ к «зелёной» энергии. Для Microsoft сделка позволяет расширить портфолио масштабных инфраструктурных партнёрств, направленных на развитие ИИ.
Источник изображения: Crusoe Местные власти подчёркивают, что проект свидетельствует о превращении запада Техаса в хаб ИИ-инфраструктуры, некоторые даже говорят о становлении «Кремниевой прерии для ИИ» (по аналогии с «Кремниевой долиной»). По некоторым оценкам, на Техас приходится 15 % всех новых подключений ЦОД в США по мощности, что подчёркивает роль штата в развитии структур гиперскейл-уровня. По некоторым данным, в ближайшие годы 50–65 крупных ЦОД будут работать «за счётчиком», т.е. от автономных источников энергии. В целом речь идёт о новой модели, параметры которой определяются доступом к энергии, скоростью и гибкостью реализации, а не близостью к хабам традиционных электросетей.
28.03.2026 [13:40], Сергей Карасёв
В России наблюдаются массовые сбои оборудования в устаревающих ЦОДЗа последние полгода в России резко возросло количество аварий в дата-центрах, созданных 10–15 лет назад. Речь идёт, в частности, о многочисленных сбоях в небольших коммерческих ЦОД и на локальных площадках некрупных компаний. О проблеме сообщает РБК, ссылаясь на информацию, полученную от участников рынка, интеграторов и отраслевых аналитиков. «К2Теха» сообщила, что за шесть месяцев в компанию поступили более десятка обращений от владельцев дата-центров, у которых инженерная инфраструктура «находится в предсмертном состоянии». В I половине 2025-го и раньше подобных запросов вообще не фиксировалось. Об увеличении количества сбоев в устаревающих ЦОД также говорит «Ультиматек». По оценкам, с проблемой столкнулись около 20 % коммерческих дата-центров в России. Связано это с тем, что техника, которая находилась в эксплуатации более 10–15 лет, приблизилась к концу своего жизненного цикла. Из строя в массовом порядке выходят аккумуляторы в ИБП, дизель-генераторные установки, охлаждающее оборудование и другие компоненты. Наблюдающаяся ситуация может привести к крайне негативным последствиям, включая остановку конвейеров в промышленности, отключение кассовых аппаратов, нарушение логистики, а также коллапс сервисов в финансовом секторе, пишет РБК. Проблема усугубляется из-за сформировавшейся экономической и геополитической обстановки. Из-за ухода зарубежных производителей из России отечественные компании столкнулись с трудностями при закупке необходимых запчастей и обновлении парка техники. При этом стоимость иностранной продукции растет, тогда как во многих организациях урезаны бюджеты, из-за чего средств на плановую модернизацию не хватает. Частично решить проблему можно путем замены узлов на китайские или российские альтернативы, однако такой подход возможен не во всех случаях. Некоторые участники рынка заблаговременно сформировали запас комплектующих. Так, IXcellerate сообщила, что у неё на складе есть достаточно компонентов для работы дата-центров без аварий и замены элементов инфраструктуры «в течение ближайших десяти лет». А РТК-ЦОД («Ростелеком») говорит, что нашла «доступные аналоги» и у неё нет проблем. |
|

