Материалы по тегу: hardware
06.05.2025 [11:12], Сергей Карасёв
Nebius внедрит системы хранения DDN в свою ИИ-инфраструктуруКомпания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, объявила о заключении партнёрского соглашения с разработчиком ИИ-решений Nebius (бывшая материнская структура «Яндекса»). В рамках соглашения стороны займутся созданием высокопроизводительной подсистемы хранения данных для ресурсоёмких ИИ-задач. Речь идёт об интеграции решений DDN Infinia и EXAScaler в облачную инфраструктуру Nebius AI Cloud. Эти системы будут использоваться для хранения данных, предназначенных для обучения больших языковых моделей, инференса и поддержания работы ИИ-приложений в реальном времени. По заявлениям DDN, Infinia гарантирует надёжность и передовую производительность, благодаря чему ускоряется обучение и развёртывание моделей ИИ. Вместе с тем EXAScaler обеспечивает высокую пропускную способность и согласованность операций ввода-вывода. Другим преимуществом названных решений является возможность масштабирования в рамках облачных и локальных развёртываний: заказчики смогут быстро наращивать ресурсы в ИИ-облаке Nebius, гибридных и изолированных средах, используя параллельную файловую систему EXAScaler. ![]() Источник изображения: Nebius Утверждается, что Infinia и EXAScaler устраняют проблемы с задержками при обработке данных. В результате, нагрузки ИИ могут обрабатываться с максимальной эффективностью — даже в случае моделей с несколькими триллионами параметров. В целом, как отмечают партнёры, благодаря интеграции систем DDN в облако Nebius клиенты смогут решать ИИ-задачи с более высокой скоростью и с меньшими временными и финансовыми затратами.
06.05.2025 [09:19], Руслан Авдеев
Британские операторы ЦОД намерены строить собственные газовые электростанцииБританские операторы дата-центров намерена строить собственные газовые электростанции и подключаться к местным газовым сетям из-за длительных очередей на присоединение к энергосети страны, сообщает Datacenter Dynamics. Издание приводит статистику The Times, согласно которой только за последние шесть месяцев газовые компании получили более 30 запросов на подключение к объектам, связанным с ЦОД. В среднем от момента подачи заявки до подключения к энергосети в Великобритании проходит 5–10 лет, а стоимость может достигать £10 млн ($13,38 млн). Хотя правительство только недавно объявило об упрощении процедуры подключения для приоритетных цифровых проектов, не смолкают споры о том, поможет ли это скорейшему присоединению дата-центров. В результате многие операторы решили взять дело в свои руки и теперь стремятся обеспечить надёжное подключение к газопроводам, чтобы построить на своей территории небольшие газовые электростанции. При этом на надёжное подключение к газопроводам часто требуется всего полгода. Газотранспортная сеть Великобритании включает восемь отдельных сетей, охватывающих 8 тыс. км стальных труб высокого давления и более 500 надземных развёртываний. Меры, принимаемые индустрией ЦОД, соответствуют проекту Clean Energy Plan 2030, реализуемому британскими властями. В частности, он предусматривает массовые инвестиции в местные региональные электросети для поддержки интеграции инфраструктуры чистой энергии. В отчёте за прошлый год National Energy System Operator объявил, что к 2030 году можно построить, подключить и ввести в эксплуатацию «чистую» энергосистему для Великобритании, в то же время поддерживая четырёхкратный рост спроса на электроэнергию со стороны ЦОД. По прогнозам национальной энергетической компании Великобритании National Grid, спрос на электроэнергию со стороны британских дата-центров в ближайшие десять лет вырастет в шесть раз. Тем не менее, сохраняются опасения относительно того, сможет ли британская сеть поддерживать расширение ЦОД. Ожидается, что в рынок ЦОД Великобритании к 2029 году вырастет до 3,6 ГВт с 2,1 ГВт в 2024 году. В апреле совет AI Energy Council при британском правительстве провёл первое заседание, пытаясь найти решение непростой проблемы — огромные амбиции страны в сфере ИИ, похоже, не вполне соответствуют возможностям местной энергетической инфраструктуры, да и электроэнергия здесь считается одной из самых дорогих в Европе. Тем временем в США уже давно нет места «зелёной повестке» в том виде, в котором она была при Байдене. В январе Дональд Трамп (Donald Trump) фактически дал зелёный свет ископаемому топливу.
05.05.2025 [23:50], Руслан Авдеев
ЦОД Испании и Португалии успешно пережили крупнейший блэкаут в истории стран, а вот телеком-инфраструктура испытала серьёзные проблемыНа минувшей неделе Испания и Португалия пережили крупнейшее отключение электричества в истории. Испанский оператор национальной энергосети Red Electrica исключил кибератаку — потеря электроснабжения связывается с инцидентами, касающимися работы солнечных электростанций на юго-западе Испании, вызвавшими нестабильность энергосистемы. В итоге сбои привели к проблемам не только в Испании, но и во Франции и Португалии, сообщает Datacenter Dynamics. При этом индустрия ЦОД с блэкаутом справилась на удивление неплохо. В Испании действуют 156 дата-центров, ещё 41 — в Португалии. В регионе работают как местные игроки, так и гиперскейлеры вроде AWS, Meta✴ и Microsoft. Большинство операторов справилось с проблемой. Например, Equinix сообщила, что ЦОД компании в Испании и Португалии полностью сохранили работоспособность на время блэкаута, резервные системы сработали, как и ожидалось. В Iron Mountain тоже сообщили, что дата-центры сработали без сбоев, а новичок Start Campus объявил, что стабильность сохранялась в течение всего периода. Посадочная станция Barcelona Cable Landing Station тоже сообщила, что работа кабеля не пострадала, как и задачи клиентов, Nabiax объявила, что в её ЦОД в Испании проблем не наблюдалось, а NTT поведала, что объект MAD1 в Мадриде смог перейти на ИБП, а потом на резервное питание. Data4, которая тоже работает в Мадриде, тоже объявила, что на клиентах сбой не сказался. В компании подчеркнули важность создания надёжной цифровой инфраструктуры. В ЦОД Nixval в Валенсии сообщили, что операции не пострадали, при этом у некоторых клиентов не работал телефон, поэтому они вынуждены были явиться в ЦОД лично, чтобы проверить состояние дел. В Global Switch подчеркнули, что гордятся тем, как сработала инфраструктура компании, в Edged тоже заявили, что инфраструктура не пострадала. Провайдер ЦОД Walhalla, правда, отметил, что координация между властями и поставщиками энергии была «нулевой». При этом в телеком-сфере проблемы были гораздо серьёзнее, пострадали интернет-сервисы в Испании, Португалии и за пределами стран. Например, по данным Cloudflare, трафик в Португалии сократился более чем на 50 %, а позже — и на 90 %. Нечто подобное наблюдалось и в Испании (60 % в сравнении с неделей ранее сразу и на 80 % в ближайшие пять часов соответственно). Беспроводным операторам пришлось включить резервные генераторы — там, где они были. В некоторой степени пострадал даже Starlink. Хотя связь не прерывалась, трафик направлялся обходными маршрутами из-за отключения некоторых наземных станций.
05.05.2025 [22:44], Руслан Авдеев
Индонезия намерена построить АЭС на 10 ГВт в рамках масштабного энергетического экопроектаПо словам старшего помощника президента Индонезии Прабово Субианто (Prabowo Subianto), к 2040 году страна намерена значительно расширить мощности «зелёной» энергетики. В том числе речь идёт о вводе в эксплуатацию АЭС суммарной мощностью 10 ГВт. Ряд контрактов заключат в следующие пять лет, сообщает Reuters. Пока Индонезия является одним из крупнейших в мире источников выбросов парниковых газов, но стремится к достижению углеродной нейтральности к 2050 году. К 2040 году Индонезия развернёт ещё 103 ГВт генерирующих мощностей, из них 75 ГВт придётся на солнечную, ветряную, геотермальную энергетику, а также на электричество, получаемого за счёт переработки биомассы. 10 ГВт придётся на АЭС, а оставшиеся 18 ГВт — на газ. Пока установленная мощность в стране составляет 90 ГВт, более половины приходится на угольные электростанции, ещё 15 ГВт дают возобновляемые источники, а атомных электростанций нет вообще. ![]() Источник изображения: Guilherme Cunha/unspalsh.com По данным властей, интерес проявляют российский концерн «Росатом», Китайская национальная ядерная корпорация, британская Rolls Royce, французская EDF и американская компания NuScale Power Corporation, специализирующаяся на малых модульных реакторах (SMR). Не исключается, что они станут инвестировать в отрасль совместно с недавно созданным индонезийским суверенным фондом Danantara Indonesia. Решений о местах строительства новых атомных электростанций пока не принято, вопрос весьма важен для страны, находящейся в сейсмоопасном регионе с высокой вулканической активностью. Предполагается, что запад Индонезии подходит для строительства АЭС с одной площадкой, где один блок сможет вырабатывать по 1 ГВт электричества. На востоке речь идёт скорее о строительстве плавучих малых модульных реакторов мощностью до 700 МВт. ![]() Источник изображения: Guilherme Cunha/unspalsh.com Хотя правительство Индонезии выражает приверженность «энергетическому переходу», власти намерены придерживаться сбалансированного подхода для достижения экологических целей. Власти не желает совершать «экономическое самоубийство», снижая зависимость от мощностей с большими выбросами поэтапно. В стране ожидают, что сделка с Азиатским банком развития, предполагающая досрочный вывод из эксплуатации 660-МВт угольной электростанции Cirebon-1 в провинции Западная Ява (West Java), будет завершена в ближайшие месяцы. Сделка стоимостью $20 млрд поддерживается JETP (Just Energy Transition Partnership, JETP). Основной камень преткновения — опасения, связанные с финансовыми и юридическими рисками из-за закрытия электростанции, а новый вызов для будущего энергетического перехода — выход США из JETP. Индонезия — один из перспективных регионов, интерес к которому проявляют как гиперскейлеры, так и операторы ЦОД помельче. Как и другие страны, она делает ставку на развитие энергетики, поскольку её остро не хватает для ЦОД. Аналогичные проблемы есть и в других регионах мира — так, в Великобритании, намеренной превратиться в «ИИ-сверхдержаву», тоже намерены уделить немало внимания атомной энергетике, не говоря уже о других странах вроде США. Deloitte сообщало, что АЭС смогут обеспечить 10 % будущего спроса ЦОД США на электроэнергию.
05.05.2025 [13:28], Сергей Карасёв
GigaIO и d-Matrix предоставят инференс-платформу для масштабных ИИ-развёртыванийКомпании GigaIO и d-Matrix объявили о стратегическом партнёрстве с целью создания «самого масштабируемого в мире» решения для инференса, ориентированного на крупные предприятия, которые разворачивают ИИ в большом масштабе. Ожидается, что новая платформа поможет устранить узкие места в плане производительности и упростить внедрение крупных ИИ-систем. В рамках сотрудничества осуществлена интеграция ИИ-ускорителей d-Matrix Corsair в состав НРС-платформы GigaIO SuperNODE. Архитектура Corsair основана на модифицированных ячейках SRAM для вычислений в памяти (DIMC), работающих на скорости около 150 Тбайт/с. По заявлениям d-Matrix, ускоритель обеспечивает непревзойдённую производительность и эффективность инференса для генеративного ИИ. Устройство выполнено в виде карты расширения с интерфейсом PCIe 5.0 х16. Быстродействие достигает 2,4 Пфлопс с (8-бит вычисления). Изделие имеет двухслотовое исполнение, а показатель TDP равен 600 Вт. В свою очередь, SuperNODE использует фирменную архитектуру FabreX на базе PCIe, которая позволяет объединять различные компоненты, включая GPU, FPGA и пулы памяти. По сравнению с обычными серверными кластерами SuperNODE обеспечивает более эффективное использование ресурсов. ![]() Источник изображения: d-Matrix Новая модификация SuperNODE поддерживает десятки ускорителей Corsair в одном узле. Производительность составляет до 30 тыс. токенов в секунду при времени обработки 2 мс на токен для таких моделей, как Llama3 70B. По сравнению с решениями на базе GPU обещаны трёхкратное повышение энергоэффективности и в три раза более высокое быстродействие при сопоставимой стоимости владения. «Наша система избавляет от необходимости создания сложных многоузловых конфигураций и упрощает развёртывание, позволяя предприятиям быстро адаптироваться к меняющимся рабочим нагрузкам ИИ, при этом значительно улучшая совокупную стоимость владения и операционную эффективность», — говорит Alan Benjamin (Алан Бенджамин), генеральный директор GigaIO.
05.05.2025 [12:38], Сергей Карасёв
McKinsey: инвестиции в ИИ ЦОД к 2030 году превысят $5 трлнКонсалтинговая компания McKinsey обнародовала прогноз по развитию дата-центров в глобальном масштабе до 2030 года. Аналитики отмечают, что ключевым драйвером отрасли будет оставаться ИИ, а операторы ЦОД и гиперскейлеры продолжат активно наращивать мощности. В общей сложности, как ожидается, капиталовложения в дата-центры по всему миру к концу десятилетия достигнут $6,7 трлн. Из этой суммы, полагают специалисты McKinsey, примерно $5,2 трлн будет потрачено на объекты, оптимизированные для задач ИИ, а оставшиеся $1,5 трлн — на ЦОД, рассчитанные на традиционные рабочие нагрузки. Если прогноз McKinsey оправдается, то в ИИ-сегменте из общей суммы в $5,2 трлн на строительные работы пойдёт приблизительно 15 %, или $800 млрд: это средства на землю, материалы и возведение необходимых сооружений. Ещё около 25 %, или $1,3 трлн, составят затраты, связанные с поставками и использованием энергии, включая электрическую инфраструктуру (трансформаторы, генераторы) и системы охлаждения. Оставшиеся 60 %, или $3,1 трлн, будут направлены на закупки необходимого IT-оборудования и систем, в том числе серверов, GPU-ускорителей, стоечных решений и пр. Вместе с инвестициями будут расти и мощности дата-центров. В 2025 году общемировой показатель, по данным McKinsey, окажется на уровне 82 ГВт, из которых 44 ГВт придётся на ИИ-нагрузки, ещё 38 ГВт — на традиционные задачи. К 2030 году суммарная мощность ЦОД достигнет 219 ГВт, в том числе 156 ГВт под нагрузки ИИ и 64 ГВт под прочие задачи. Таким образом, общая мощность дата-центров для приложений ИИ в период 2025–2030 гг. поднимется приблизительно в 3,5 раза.
05.05.2025 [10:08], Сергей Карасёв
Intel показала новую СЖО для отвода тепла от чипов с TDP до 1000 ВтКорпорация Intel на мероприятии Foundry Direct Connect продемонстрировала экспериментальную систему жидкостного охлаждения процессоров. Решение, которое находится в разработке в течение нескольких лет, проектируется с прицелом на наиболее мощные чипы для задач ИИ и НРС. В отличие от других технологий прямого жидкостного охлаждения (DLC) новая система Intel предполагает применение специального блока, монтируемого непосредственно поверх корпуса CPU. Блок оснащён медными микроканалами, по которым жидкость может направляться к наиболее горячим зонам. Intel утверждает, что система способна отводить тепло от чипов с TDP до 1000 Вт с использованием стандартной охлаждающей жидкости. Уже готовы рабочие прототипы для процессоров в исполнениях LGA и BGA. Корпорация продемонстрировала возможности решения на примере изделий Core Ultra и Xeon. Известно, что для системы предусмотрено применение термоинтерфейса TIM (Thermal Interface Material) на основе жидкого металла. Этот материал в сравнении с обычным полимерным TIM обеспечивает улучшение теплового контакта. Intel работает над разными вариантами термоинтерфейса для различных процессоров. В целом, по заявлениям Intel, предложенная технология даёт возможность повысить эффективность отвода тепла на 15–20 % по сравнению с традиционным прямым жидкостным охлаждением на кристалле с отсоединенной процессорной крышкой. В настоящее время корпорация продолжает дорабатывать систему для последующего практического внедрения в дата-центрах.
05.05.2025 [09:06], Сергей Карасёв
«Фрикулинг» с СЖО: JetCool представила CDU для охлаждения 300-кВт стоек горячей водойКомпания JetCool, которая в конце 2024 года была куплена производителем электроники и инфраструктуры для дата-центров Flex, представила блок распределения охлаждающей жидкости (CDU) SmartSense для HPC/ИИ ЦОД. Температура на входе может составлять более +60 °C, что устраняет необходимость в чиллерах, а также сокращает потребление энергии и воды. SmartSense может использоваться для охлаждения стоек мощностью до 301 кВт. Возможно масштабирование до 2,1 МВт для охлаждения целого ряда стоек. Решение SmartSense выполнено в форм-факторе 6U. Говорится о совместимости со стойками типоразмера 19″ и ORv3 глубиной 42″ (1070 мм) и более. Применены высокоэффективные насосы с резервирование, работающие на скорости 3600 об/мин, что обеспечивает низкий уровень шума. Типовая потребляемая мощность составляет 2000 Вт (максимум 3400 Вт). Скорость потока может достигать 400 л/мин. Диапазон температур теплоносителя — от +15 до +70 °C. SmartSense CDU может использоваться в сочетании с водоблоками SmartPlate, которые специально разработаны для удовлетворения жёстких требований к теплоотводу в эпоху ИИ. Такое решение, как утверждается, обеспечивает возможность эксплуатации оборудования при больших нагрузках даже в условиях высокой температуры окружающей среды. Компания Flex обещает всестороннюю поддержку заказчиков, приобретающих блоки SmartSense. В число услуг входят установка, интеграция, тестирование и ввод систем в эксплуатацию. Благодаря глобальной логистической инфраструктуре Flex гарантирует доступность критически важных запасных частей, что сведёт к минимуму перебои в обслуживании, заявляет компания.
05.05.2025 [08:34], Сергей Карасёв
xMEMS представила твердотельные кулеры µCooling для трансиверовКомпания xMEMS Labs анонсировала т.н. «вентилятор на чипе» (fan-on-a-chip) µCooling для отвода тепла от компонентов в дата-центрах. Новое изделие представляет собой миниатюрный элемент охлаждения, выполненный на основе микроэлектромеханических систем (MEMS). В отличие от традиционных кулеров, предназначенных для высокопроизводительных CPU и GPU, решение µCooling ориентировано на менее мощные компоненты — в частности, на оптические трансиверы 400G/800G и 1,6T, которые являются важной составляющей инфраструктуры ИИ. Такие чипы, как утверждается, могут создавать тепловые проблемы, ограничивая производительность и надёжность каналов передачи данных по мере роста их пропускной способности. µCooling обеспечивает целенаправленное гиперлокализованное активное охлаждение для DSP в составе оптических трансиверов, показатель TDP которых может превышать 18 Вт. Отвод тепла от таких компонентов может быть серьёзно затруднён из-за высокой плотности монтажа оборудования в ЦОД. Изделие µCooling производится на кремниевой пластине. Принцип работы заключается в использовании преобразователя piezoMEMS на основе обратного пьезоэлектрического эффекта: при подаче напряжения крошечные кремниевые структуры начинают колебаться на ультразвуковых частотах, формируя воздушные импульсы, которые, в свою очередь, создают поток воздуха, отводящий тепло от того или иного узла. Ключевой особенностью решения µCooling является применение изолированного пути для прохождения воздушного потока, который термически связан с источником тепла, но физически отделен от оптической секции трансивера. Нагретый воздух отводится по специальным каналам под платой с DSP. Такая архитектура гарантирует, что оптические компоненты защищены от пыли и прочих загрязнений. µCooling может отводить локально до 5 Вт, снижая рабочую температуру DSP более чем на 15 %. Отсутствие электрического мотора и других традиционных подвижных частей, которые имеются в традиционных вентиляторах, обеспечивает надёжность и нулевой уровень шума. Кроме того, такой системе не требуется обслуживание. Размеры охладителя составляют 9,3 × 7,6 × 1,13 мм.
05.05.2025 [00:50], Руслан Авдеев
Похоже, Эрик Шмидт купил Relativity Space, чтобы заняться запуском космических ЦОДХотя бывший глава Google Эрик Шмидт (Eric Schmidt) не делал публичных заявлений относительно планов на подконтрольную ему компанию Relativity Space, но похоже, что миллиардер намерен развернуть в космосе вычислительную инфраструктуру, сообщает Ars Technica. В апреле Шмидт выступил перед Комитетом по энергетике и торговли Палаты представителей американского парламента. Он говорил как о будущем ИИ и конкурентоспособности США, в том числе о необходимости получения больших объёмов энергии для питания ИИ ЦОД. По словам Шмидта, средняя АЭС в США вырабатывает порядка 1 ГВт, при этом уже есть проекты ЦОД на 10 ГВт — можно только представить масштабы кризиса. Согласно одной из наиболее вероятных, по мнению Шмидта, оценок, дата-центрам к 2027 году потребуется ещё 29 ГВт, а к 2030 году — все 67 ГВт. К резкому росту спроса энергетика США подготовлена очень плохо, поскольку за последние 10 лет энергопотребление росло лишь на 0,5 % в год. Кроме того, ИИ ЦОД потребляют и очень много воды. Ars Technica предположила, что Шмидт мог приобрести Relativity Space именно для поддержки строительства дата-центров в космосе. В идеале такие объекты легко запитать от солнечных батарей, хотя с охлаждением придётся повозиться. Когда один из редакторов Ars Technica Эрик Бергер (Eric Berger) упомянул в соцсети X о возможных соответствующих планах Шмидта, тот со временем прокомментировал реплику, но лишь одним словом — «Да». В США не так много компаний, имеющих большие ракеты, либо разрабатывающих их. Relativity Space — одна из таких. Компания, как предполагается, в течение пары лет запустит ракету Terran R, потенциально способную выводить на низкую околоземную орбиту до 33,5 т в «одноразовом» режиме или 23,5 т с многоразовой первой ступенью. Однако Шмидт не так богат, как Илон Маск (Elon Musk) или Джефф Безос (Jeff Bezos), управляющие собственными космическими проектами — его состояние оценивается «всего» в $20 млрд. Поэтому, как сообщают некоторые источники, он ищет партнёров для совместного финансирования возрождённой Relativity. Проектов космических ЦОД уже немало. В феврале 2025 года разработчики Lonestar Data проверили возможность хранения данных на Луне. В сентябре прошлого года Lumen Orbit (Starcloud) предложила гигантские космические ЦОД с питанием от солнечной энергии и пассивным охлаждением, а совсем недавно было объявлено, что Axiom Space планирует развернуть в космосе два узла ЦОД к концу 2025 года. |
|