Лента новостей
05.08.2025 [11:28], Владимир Мироненко
SNIA анонсировала проект Storage.AI для стандартизации обработки ИИ-нагрузокStorage Networking Industry Association (SNIA) — некоммерческая организация, специализирующаяся на технологиях обработки и оптимизации данных — анонсировала проект Storage.AI, основанный на открытых стандартах для эффективных сервисов обработки данных, связанных с рабочими ИИ-нагрузками. Проект будет сфокусирован на стандартных для отрасли, непатентованных и нейтральных подходах к решению задач, связанных с обработкой данных для ИИ, с целью оптимизации производительности, энергоэффективности и экономичности соответствующих рабочих процессов. К инициативе уже присоединились AMD, Cisco, DDN, Dell, IBM, Intel, KIOXIA, Microchip, Micron, NetApp, Pure Storage, Samsung, Seagate, Solidigm и WEKA. Отдельно отмечается отсутствие NVIDIA — крупнейшего поставщика ИИ-ускорителей. Как указано в пресс-релизе, рабочие ИИ-нагрузки чрезвычайно сложны и ограничены такими факторами, как задержки, доступное пространство, энергопотребление и охлаждение, объём памяти и стоимость. Решение этих проблем в рамках открытой отраслевой инициативы рассматривается как наиболее быстрый путь к оптимизации и широкому внедрению ИИ. По словам Дж. Метца (J Metz), председателя SNIA, беспрецедентные требования со стороны ИИ требуют целостного взгляда на весь конвейер данных — от храненилищ и памяти до сетевых технологий и вычислений. Он подчеркнул, что Storage.AI предоставляет отраслевому сообществу независимую от вендоров платформу, предназначенную для координации широкого спектра сервисов обработки данных и создания эффективных, открытых решений, необходимых для ускоренного внедрения ИИ-технологий. Инициатива координирует ряд технических спецификаций, которые до сих пор существовали обособленно и не были адаптированы под нужды ИИ-нагрузок. Первоначальный набор спецификаций включает:
Предполагается, что в рамках проекта Storage.AI будет создана открытая экосистема эффективных сервисов обработки данных, способных справляться с наиболее сложными задачами, связанными с ИИ-нагрузками, и устранять текущие пробелы в обработке и доступе к данным. В обеспечении широкой поддержки экосистемы также примут участие партнёры SNIA, включая UEC, NVM Express, OCP, OFA, DMTF и SPEC.
05.08.2025 [11:16], Сергей Карасёв
Европейские чипы Cinco Ranch на базе RISC-V близки к началу массового производстваУчастники проекта Barcelona Zettascale Laboratory (BZL), координируемого Барселонским суперкомпьютерным центром (BSC) в Испании, по сообщению ресурса EETimes, достигли фазы Tape-out в рамках разработки европейских процессоров Cinco Ranch на открытой архитектуре RISC-V. Tape-out — это финальная стадия проектирования интегральных схем или печатных плат перед их отправкой в производство. Данный процесс предполагает перенос цифрового макета чипа на фотошаблон для последующего изготовления. Производством изделий займётся предприятие Intel Foundry с применением техпроцесса Intel 3. Cinco Ranch представляет собой пятое поколение чипов серии Lagarto. По сути, это «система на кристалле» (SoC) промышленного класса с высокой энергетической эффективностью. Конструкция чипа включает три отдельных специализированных ядра, каждое из которых оптимизировано под определённые вычислительные задачи. В частности, присутствует ядро Sargantana (RV64G) с однопоточным выполнением инструкций по порядку. Кроме того, имеется двухпоточное ядро Lagarto Ka с внеочередным исполнением машинных инструкций. Довершает картину высокопроизводительное 6-поточное ядро Lagarto Ox (RV64GC) с внеочередным исполнением инструкций. Нужное ядро выбирается в момент загрузки системы. ![]() Источник изображения: BSC Решение Cinco Ranch содержит 16-канальный векторный блок Vitruvius++ VPU и трёхуровневую систему кеша. Реализована поддержка памяти DDR5 и интерфейса PCIe 3.0. Площадь чипа составляет 16 мм2. Главной целью проекта BZL является разработка суверенных суперкомпьютерных технологий в Европе. Предполагается, что создаваемые чипы найдут применение в различных областях, включая НРС-платформы, автономные транспортные средства, системы ИИ и пр. После всестороннего тестирования чипов Cinco Ranch будет освоено их массовое производство.
05.08.2025 [10:39], Сергей Карасёв
HyperPort на 3,2 Тбит/с: Broadcom выпустила чип-коммутатор Jericho4 для распределённой ИИ-инфраструктурыКомпания Broadcom объявила о начале поставок коммутационного чипа Jericho4, специально разработанного для распределённой инфраструктуры ИИ. Изделие, как утверждается, позволяет объединять более миллиона ускорителей (GPU, TPU) в географически разнесённых дата-центрах, преодолевая традиционные ограничения масштабирования. Отмечается, что по мере роста размера и сложности моделей ИИ требования к инфраструктуре ЦОД повышаются: создаётся необходимость в объединении ресурсов нескольких площадок, каждая из которых обеспечивает мощность в десятки или сотни мегаватт. Для этого требуется оборудование нового поколения, оптимизированное для сверхширокополосной и безопасной передачи данных на значительные расстояния. Новинка позволяет решить проблему. Jericho4 обладает коммутационной способностью 51,2 Тбит/с. Благодаря глубокой буферизации и интеллектуальному управлению перегрузкой изделие обеспечивает поддержку RoCE без потерь на расстоянии более 100 км, что позволяет формировать распределённую инфраструктуру ИИ, говорит Broadcom. Могут быть задействованы интерфейсы 50GbE, 100GbE, 200GbE, 400GbE, 800GbE и 1.6TbE. Реализована технология HyperPort, которая объединяет четыре порта 800GbE в один канал с пропускной способность 3,2 Тбит/с, что упрощает проектирование и управление сетью. Единая инфраструктура на базе Jericho4 может масштабироваться до 36 тыс. портов HyperPort, каждый из которых работает со скоростью 3,2 Тбит/с. Jericho4 поддерживает шифрование MACsec на каждом порту на полной скорости для защиты передаваемой между ЦОД информации без ущерба для производительности — даже при самых высоких нагрузках. Новинка полностью соответствует спецификациям, разработанным консорциумом Ultra Ethernet (UEC): благодаря этому достигается бесшовная интеграция с широкой экосистемой сетевых карт, коммутаторов и программных стеков. Чип Jericho4 производится по 3-нм технологии. Он оснащён модулями Broadcom PAM4 SerDes 200G. Это устраняет необходимость в дополнительных компонентах, таких как ретаймеры, что способствует снижению энергопотребления и повышению надёжности системы в целом. В частности, энергозатраты уменьшены на 40 % в расчёте на бит по сравнению с решениями предыдущего поколения. Это помогает организациям снижать эксплуатационные расходы и достигать целей устойчивого развития, говорит Broadcom.
05.08.2025 [10:00], Сергей Карасёв
«Базис» внедрил нейросетевые технологии для повышения эффективности процессов«Базис», крупнейший российский разработчик решений для управления динамической ИТ-инфраструктурой, внедрил нейросетевые технологии в бизнес-процессы, связанные с реагированием на инциденты и технической поддержкой продуктов. Использование генеративного искусственного интеллекта позволило на 20–50 % уменьшить затраты времени на рутинные операции, а скорость выполнения связанных с ними задач выросла до 6 раз. В результате эффективность труда выросла, а заказчики компании получили более качественный и оперативный сервис. Разработанные специалистами «Базиса» решения базируются на открытых языковых моделях, способных понимать естественный язык, анализировать большие объёмы технической документации и генерировать программный код. Они интегрированы в существующие рабочие процессы компании и функционируют как цифровые помощники, берущие на себя рутинные операции. Работа нейросети — в том числе её обучение и применение (инференс) — организована в изолированном защищённом контуре. Все инструменты размещены внутри собственной инфраструктуры компании — такой подход обеспечивает полный контроль над данными и исключает риски, связанные с использованием внешних сервисов. Ключевые результаты внедренияСокращение времени реакции на инциденты.Время, которое ответственный инженер тратил на организацию работы в случае инцидента, сократилось на 70 %. Если раньше ему приходилось вручную формировать рабочие группы, создавать коммуникационные каналы и готовить первичную информацию о проблеме, то после внедрения нейросетевых технологий эти процессы были автоматизированы. В результате все необходимые специалисты в максимально короткий срок получают структурированную информацию об инциденте и могут немедленно приступать к его устранению, что критически важно для обеспечения бесперебойной работы сервисов. В планах есть дальнейшее развитие этого направления: на цифрового помощника будет возложен учёт и контроль процесса решения инцидента, ведение его хронологии, он будет «участвовать» в обсуждении и анализе логов, подготовке черновика отчёта и ретроспективы по инциденту. Мгновенный поиск информации.На базе нейросети создан интеллектуальный помощник (цифровой техлид), который мгновенно находит ответы в корпоративной базе знаний и предоставляет готовые решения. Система анализирует запросы пользователей, находит релевантную информацию среди сотен технических документов и формирует точные ответы с конкретными инструкциями. Особенно важно, что помощник успешно обрабатывает запросы даже при нечётких формулировках, понимая суть проблемы и предлагая оптимальные пути решения. Он также предоставляет пользователю процесс размышления и список ссылок на использованную для генерации ответа документацию. Это позволяет специалисту заметить нюансы, которые помощник мог упустить, или прийти к более глубокому пониманию проблемы. ![]() Источник изображения: «Базис» Ускорение разработки скриптов и тестов.Рутинные задачи по написанию несложного кода, которые раньше отнимали часы работы квалифицированных специалистов, теперь выполняются за 10–15 минут. Производительность при решении этих задач выросла в 3–4 раза. Нейросеть взяла на себя написание скриптов, создание тестов и анализ существующих решений. «Внедрение нейросетевых технологий стало логичным шагом в развитии нашей компании. Мы не просто следуем технологическим трендам — мы создаём практические инструменты, которые реально повышают эффективность работы. И за последние полгода мы добились значительных результатов, в том числе благодаря коллегам из "Публичного облака" РТК-ЦОД, которые помогли нам с организацией инфраструктуры. Постепенно мы переходим от простой автоматизации рутинных задач и подготовки документации к интеграции нейросетевых технологий с другими нашими системами и процессами. Это позволит повысить эффективность нашей работы и, как следствие, обеспечить нашим заказчикам более оперативный и качественный сервис», — отметил Денис Романов, директор департамента Professional services компании «Базис». Реклама | ООО "БАЗИС" ИНН 7731316059 erid: F7NfYUJCUneTRySCHKkW
04.08.2025 [23:58], Владимир Мироненко
Дефицит мощностей поднял цены на колокейшн в Москве и Петербурге на 13–17 %В столичных регионах продолжает расти стоимость услуг колокации, пишет «Коммерсантъ» со ссылкой на исследование агентства iKS-Consulting и оператора ЦОД 3data. В нём сообщается, что в Москве и Московской области во II квартале 2025 года услуги подорожали в среднем на 13 % — до 147,5 тыс. руб., а в Санкт-Петербурге и Ленинградской области — на 17 %, до 104,3 тыс. руб. Хотя свободных мощностей на рынке стало немного больше за счёт ввода в коммерческую эксплуатацию ЦОД DC N1 в Телекомплексе НТВ и новых машинных залов ЦОД MOS5 в Южном кампусе IXcellerate, остальные московские ЦОД, по оценке iKS-Consulting, заполнены примерно на 95 %, а свободная мощность в столичном регионе не превышает 1,4 тыс. стоек. В Санкт-Петербурге и Ленинградской области предложение стойко-мест также остаётся минимальным, а запущенные проекты пока заморожены из-за высокой ключевой ставки ЦБ. В I квартале цены в Москве и области выросли на 31,4 %, а в Санкт-Петербурге и Ленинградской области — на 10,9 %. Это происходило на фоне роста требований заказчиков к ЦОД, включая условия по обеспечению мощности для работы с ИИ. В 3data сообщили, что 80–85 % всех ЦОД в РФ сосредоточено в Москве и Санкт-Петербурге. Как объясняют в Selectel, это связано в первую очередь с высокой концентрацией основных потребителей услуг — крупного и среднего бизнеса. При этом в компании полагают, что в дальнейшем это создаст потенциал для более равномерного распределения потребления услуг дата-центров по стране. В «МегаФоне» рассказали, что недавно запустили два ЦОД — в Екатеринбурге и Твери. В РТК-ЦОД (входит в структуры «Ростелекома») утверждают, что спрос на услуги ЦОД в регионах сопоставим с показателями столиц, и что из-за нехватки новых мощностей в Москве и Санкт-Петербурге клиенты начали переходить на региональные площадки. Эксперты считают, что снижение ключевой ставки позитивно скажется на строительстве ЦОД, которое в большинстве случаев ведётся на заёмные средства. В 3data полагают, что при снижении ставки ЦБ проекты по расширению инфраструктуры будут разморожены, а на рынке появятся новые игроки, в том числе девелоперы.
04.08.2025 [16:21], Руслан Авдеев
AEP увеличит мощности подключений ЦОД на 18 ГВт к 2029 году — Exelon, PPL и PG&E прогнозируют ещё десяткиКлючевая для США коммунальная группа American Electric Power (AEP) сообщила о планах увеличить электрические мощности для ЦОД на 18 ГВт к 2029 году. Не менее впечатляющие цифры обнародовали и некоторые другие коммунальные компании США, а некоторые даже превзошли AEP, сообщает Datacenter Dynamics. В финансовом отчёте AEP за II квартал говорится о росте операционной прибыли на акцию, что в первую очередь обусловлено увеличением числа подключаемых дата-центров. Именно на их долю придётся наибольшая часть новой нагрузки из 24 ГВт, прогнозируемой к концу десятилетия. Благодаря развитию рынка ЦОД объём проектов в очереди на подключение к сети вырос до 190 ГВт, что привело к увеличению пятилетнего инвестиционного плана на 30 % — до $70 млрд. Средства распределены на развитие передачи электроэнергии (50 %), генерации (40 %) и распределительных сетей (10 %). Сообщается, что на все 24 ГВт уже подписаны будущие соглашения, что защищает от возможных колебаний спроса. ![]() Источник изображения: Randy Laybourne/unsplash.com Энергокомпания зафиксировала рост пикового спроса на электроэнергию более чем на 4 ГВт по сравнению с прошлым годом. Основная причина — ввод в эксплуатацию новых ЦОД в Индиане, Огайо и Техасе. По словам руководства компании, район её ответственности чрезвычайно привлекателен для операторов ЦОД: здесь есть достаточное количество оптоволоконных соединений, доступ к воде и крупнейшая в стране ЛЭП, включая магистральную сеть на 765 кВ. Впрочем, в компании признают, что в сфере ЦОД остаётся немало нерешённых задач. Приоритет AEP — предложение инновационных решений. Особо отмечено соглашение с AWS и Cologix о поставке электроэнергии с помощью твёрдооксидных топливных элементов Bloom Energy. В прошлом году AEP Ohio подписала с Bloom соглашение о поставке до 1 ГВт для ЦОД. Также подчёркивается важность нового законодательства для ЦОД. Недавно регуляторы в Огайо утвердили нормы, согласно которым новые дата-центры должны будут оплачивать не менее 85 % заявленной ежемесячной потребности в энергии, даже если фактическое потребление окажется меньше, — для покрытия расходов на инфраструктуру. Тем временем Exelon объявила, что в очереди на подключение к её сетям находятся ЦОД общей мощностью 33 ГВт. Компания обслуживает более 10 млн клиентов в Делавэре, Иллинойсе, Мэриленде, Нью-Джерси, Пенсильвании и Вашингтоне, контролируя шесть коммунальных предприятий. Из этих 33 ГВт 17 ГВт уже находятся в очереди на подключение, а ещё 16 ГВт, вероятно, будут официально добавлены в этом году. От общего объёма 10 % должны быть подключены к 2028 году, ещё треть — к 2030-му и 75 % — к 2034-му. Для удовлетворения спроса владелец сетей даже рассматривает возможность строительства собственных электростанций. Правда, в нескольких штатах такая практика запрещена по антимонопольным соображениям, но законы могут пересмотреть на фоне энергодефицита. В целом финансовые показатели компании заметно различаются по штатам. ![]() Источник изображения: Miguel Bruna/unsplash.com Также появились данные о показателях за II квартал крупнейшей в Калифорнии коммунальной компании Pacific Gas and Electric Company (PG&E). Сейчас в очереди на подключение к её сетям находятся ЦОД суммарной мощностью 10 ГВт, которые должны быть подключены в течение ближайших десяти лет. Ещё в мае речь шла о 8,7 ГВт, а в феврале — о 5,5 ГВт. Из этих 10 ГВт 17 проектов дата-центров суммарной мощностью 1,5 ГВт находятся в завершающей стадии проектирования. Их ввод в эксплуатацию намечен на 2026–2030 гг. Большинство объектов расположено в Кремниевой долине. Предполагается, что подключения благоприятно скажутся на стоимости электричества для налогоплательщиков, обеспечив экономию на уровне 1–2 % в месяц. Кроме того, рост спроса позволит активнее использовать энергетическую инфраструктуру: по данным PG&E, в зоне ответственности компании она задействована лишь на 45 %. При этом компания сможет получать за это больше дохода. Однако, несмотря на прогресс в подключении ЦОД, финансовые показатели PG&E во II квартале оказались слабыми: операционные и эксплуатационные расходы выросли на 3,7 %. Ранее компанию обвиняли в причастности к пожарам из-за неудовлетворительного обслуживания сетей, что вынудило увеличить расходы. В прошлом году компания объявила о планах построить три ЦОД в Сан-Хосе (San Jose) общей мощностью 200 МВт. Проект реализуется совместно с Westbank. В прошлом месяце PG&E подписала первое в своём роде соглашение с Сан-Хосе об оптимизации и гарантиях поставок энергии для дата-центров и других крупных клиентов. Также недавно компания заключила соглашение с бизнесом Smart Wires о проекте по повышению надёжности сети и поддержке роста энергопотребления ЦОД в Сан-Хосе. Наконец, PPL Electric, которая в основном обслуживает Пенсильванию, объявила, что запросы со стороны ЦОД вырастут с 800 МВт в 2026 году до 14,4 ГВт в 2034-м. Часть проектов общей мощностью 5 ГВт уже были публично анонсированы. Среди них гигантский ИИ ЦОД AWS стоимостью $20 млрд, а также целый ряд других объектов поменьше. В конце 2024 года сообщалось, что в 2028 году на дата-центры США может прийтись уже 12 % энергопотребления всей страны.
04.08.2025 [16:08], Руслан Авдеев
CoreWeave заняла ещё $2,6 млрд для масштабирования ИИ-проектов OpenAICoreWeave закрыла сделку по получению отложенного кредита (DDTL 3.0) на сумму $2,6 млрд. Средства будут потрачены на покупку и обслуживание современного оборудования и элементов облачной инфраструктуры для предоставления услуг в рамках долгосрочного соглашения с OpenAI, сообщает Datacenter Dynamics. Раунд финансирования возглавили Morgan Stanley и MUFG, в качестве организатора выступила Goldman Sachs. В сделке также приняли участие JPMorgan Chase, Wells Fargo, BBVA, Crédit Agricole, SMBC, PNC и Société Générale. В CoreWeave подчеркнули, что гордятся сотрудничеством с ведущими финансовыми учреждениями на пути масштабирования узкоспециализированной облачной ИИ-платформы для удовлетворения потребностей клиентов-инноваторов. В OpenAI отметили, что CoreWeave является важным партнёром для комплексной инфраструктуры компании. Масштабирование ИИ-проектов требует вычислительных ресурсов мирового уровня, а партнёрство с CoreWeave и ведущими финансовыми учреждениями даёт возможность обучать более эффективные ИИ-модели и предоставлять более качественные услуги. В мае 2025 года CoreWeave подписала с OpenAI новый контракт на $4 млрд, дополнив предыдущее соглашение на $11,9 млрд. Также сообщается, что CoreWeave предоставит часть вычислительных мощностей для сделки OpenAI и Google. ![]() Источник изображения: CoreWeave Кредит DDTL 3.0 предоставлен CoreWeave под плавающую ставку SOFR + 4 % (SOFR — базовая ставка ФРС) и должен быть погашен к 21 августа 2030 года. Залогом выступают практически все активы дочерней компании CoreWeave Compute Acquisition Co. VII, LLC. Новый раунд финансирования состоялся после закрытия 28 июля продажи облигаций на $1,75 млрд. Первоначально планировалось привлечь $1,5 млрд, однако сумма была увеличена. Средства будут направлены на общие корпоративные цели, включая погашение долгов и покрытие сопутствующих расходов. Это уже третий крупный раунд финансирования в 2025 году после майского привлечения $2 млрд. По данным CoreWeave, за последние 18 месяцев компания привлекла более $25 млрд как за счёт акционерного капитала, так и за счёт заёмных средств. Это превысило план в $21 млрд, озвученный в мае 2025 года. Дополнительно стало известно, что CoreWeave заключила соглашение с Applied Digital об аренде ЦОД мощностью 150 МВт, дополнив июньское соглашение с той же компанией на 250 МВт. Совокупная выручка Applied Digital составит $11 млрд за 15 лет. Кроме того, CoreWeave приобрела дата-центр Northeast Science & Technology Center (NEST) за $322 млн в Кенилворте (Нью-Джерси). Площадь кампуса составляет более 43 га, продавцами выступили Machine Investment Group и Onyx Equities. CoreWeave арендовала здание № 11 в кампусе ещё в октябре 2024 года, планируя превратить лабораторный и промышленный корпус площадью 26 тыс. м² в ЦОД, инвестировав $1,2 млрд. Ещё $50 млн на модернизацию должны были вложить предыдущие владельцы. Теперь компания приобрела весь кампус «смешанного назначения» площадью 185 тыс. м², включающий офисные здания, подстанцию на 50 МВт, котельную и другие помещения. В 2023 год нынешние владельцы купили кампус за $187,5 млн, но не преуспели в его использовании. В последнее время CoreWeave стремится получить управляемые ей ЦОД в собственность — в июле она сообщила о покупке компании Core Scientific за $9 млрд, у которой сейчас арендет ЦОД на 840 ГВт.
04.08.2025 [14:29], Андрей Крупин
RuVDS запустил в Заполярье виртуальный ЦОД на базе мощностей «Ростелекома»Хостинг-провайдер RuVDS сообщил о вводе в эксплуатацию виртуального центра обработки данных в Мурманске. Новая площадка стала первой локацией компании за Полярным кругом и предназначена для обслуживания как частных пользователей, так и коммерческих организаций, а также научных и государственных учреждений, работающих над развитием Арктики и Северного морского пути. Размещённый в арктической зоне России инфраструктурный объект RuVDS развёрнут на базе функционирующего в регионе дата-центра компании «Ростелеком». На площадке реализована система бесперебойного электроснабжения, соответствующая первой особой категории электропитания, предусмотрена дизель-генераторная установка на 220 кВА, задействована современная система пожаротушения. ЦОД оснащён двумя независимыми вводами интернет-кабелей, также используются высокоскоростные каналы связи с большой пропускной способностью для обеспечения быстрой и бесперебойной передачи данных. ![]() География вычислительных площадок RuVDS (источник изображения: ruvds.com) «Заполярье — перспективный регион, который активно развивается и получает поддержку на самом высшем государственном уровне. Осваивать его жизненно необходимо — в том числе и с точки зрения информационной инфраструктуры. Уверен, что наша новая площадка сыграет значимую роль в дальнейшем развитии региона и повышении его привлекательности для инвесторов из самых разных индустрий: от добывающей и логистической до IT и госуправления. Кроме того, Арктика — это уже знакомая для нас среда: в прошлом году RuVDS успешно испытывал оборудование на Северном полюсе, так что мы здесь уже не гости, а полноценные игроки», — отметил генеральный директор хостинг-провайдера RuVDS. Новая площадка стала 18-й в портфолио RuVDS. Помимо Мурманска в активе компании значатся ещё 10 локаций в разных регионах России, а также семь — в странах ближнего и дальнего зарубежья.
04.08.2025 [14:17], Владимир Мироненко
Суперускоритель с «батарейкой» — NVIDIA GB300 NVL72 получили особые блоки питания для сглаживания энергопотребленияNVIDIA представила решение для платформы GB300 NVL72, которое позволяет смягчать колебания напряжения, вызванные синхронной работой тысяч ускорителей (GPU) при работе ИИ-систем, и снижать пиковую нагрузку на сеть до 30 %. Подобные колебания крайне негативно влияют на энергосеть и других потребителей. Новое решение NVIDIA также будет использоваться в системах GB200 NVL72. В процессе обучения ИИ-моделей тысячи ускорителей работают синхронно и выполняют одни и те же вычисления с разными данными. Эта синхронизация приводит к колебаниям мощности на уровне сети — падению напряжения или появлению излишков энергии при внезапных простоях, в отличие от традиционных рабочих нагрузок ЦОД, где ускорители работают асинхронно и некоррелированные задачи «сглаживают» нагрузку. Meta✴ даже пришлось в качестве временной меры добавить в PyTorch опцию PYTORCH_NO_POWERPLANT_BLOWUP, которая загружает ускорители бессмысленной работой в моменты простоя. Для решения этой проблемы компания оснастила NVIDIA GB300 блоком питания с конденсаторами, т.е. накопителями энергии, разработанными с привлечением компании LITEON Technology, а также необходимым аппаратным и программным обеспечением. На разных этапах работы системы используется несколько механизмов, включая ограничение мощности, накопление энергии и «сжигание» энергии — функция NVIDIA GPU Burn. Электролитические конденсаторы обеспечивают равномерное энергопотребление непосредственно в стойке. Они занимают почти половину объёма БП и обеспечивают накопление 65 джоулей энергии на каждый ускоритель. Накопитель (конденсатор) заряжается при низком потреблении энергии ускорителем и разряжается при высоком. Этот своего рода буфер помогает снизить колебания энергопотребления, что продемонстрировано в сравнительных тестах GB200 и GB300 при одинаковой нагрузке. GB300 снижает пиковую нагрузку на сеть на 30 %, обеспечивая при этом аналогичную мощность для ускорителей. GB300 ограничивает скачки, пошагово увеличивая энергопотребление ускорителя. Ограничение по мощности увеличивается постепенно, в соответствии с возможностями сети. По завершении задания, программный драйвер, реализующий алгоритм сглаживания энергопотребления, активирует аппаратное снижение энергопотребления. Ускоритель продолжает потреблять постоянную мощность благодаря функции NVIDIA GPU Burn, ожидая возобновления нагрузки. Если нагрузка не возобновляется, ускоритель плавно снижает энергопотребление. Если нагрузка на ускоритель возобновляется, функция NVIDIA GPU Burn мгновенно отключается. После завершения нагрузки ускоритель с помощью NVIDIA GPU Burn постепенно снижает энергопотребление со скоростью, соответствующей возможностям сети, а затем отключается. Эти параметры контролируются такими настройками, как минимальное энергопотребление в режиме ожидания и время постепенного снижения нагрузки, которые можно настроить с помощью NVIDIA SMI или Redfish. Такой полный контроль энергопотребления снижает нагрузку на электросеть и делает планирование заданий более предсказуемым. Как отметил ресурс The Futurum Group, благодаря предложенной NVIDIA схеме питания ЦОД больше не нужно строить с учётом пиковых потребностей в мощности. Вместо этого их можно масштабировать ближе к средним показателям использования, что означает возможность размещения большего количества оборудования в том же пространстве или снижение общих затрат на электроэнергию. Суперконденсаторы в качестве энергетического буфера для всего объекта целиком предлагает Siemens, хотя уже есть и более компактные решения размером со стойку. Кроме того, поскольку сглаживание потребления мощности ограничено стойкой без её подачи обратно в сеть, операторы получают больше контроля над энергопотреблением. Такое сочетание аппаратного и программного обеспечения обеспечивает масштабируемость и делает ЦОД дружественными к энергосети, независимо от того, используют ли они системы GB200 или GB300 NVL72. Как отметил ресурс ServeTheHome, использование дополнительных аккумулирующих модулей в стойке, предложенное LITEON, также поможет более равномерному распределению нагрузки между крупными ИИ-кластерами. Сантьяго Грихальва (Santiago Grijalva), профессор электротехники и вычислительной техники в Технологическом институте Джорджии, назвал новую технологию «довольно серьёзным событием», учитывая доминирующую роль NVIDIA в этой области. «Но это решение ограничено высококлассными системами NVIDIA, — указал он в электронном письме ресурсу Utility Dive. — Это решение конкурирует с решениями Tesla и аппаратными оптимизациями Meta✴, предлагая существенное, но не революционное усовершенствование существующих методов управления питанием».
04.08.2025 [12:39], Руслан Авдеев
Meta✴ начала пилотный проект по использованию древесины для строительства дата-центровКомпания Meta✴ начала использовать массив древесины при строительстве собственных кампусов ЦОД. IT-гигант запустил пилотный проект в начале текущего года, стремясь заменить сталь и другие строительные материалы продукцией на основе деревянных элементов, разработанных с учётом требований к прочности и долговечности, сообщает Datacenter Dynamics. Meta✴ готовится активно внедрять древесину во всех своих ЦОД и уже сообщила, что планирует применять её при строительстве административных зданий, складов и даже критически важных машинных залов. По данным Meta✴, такое деревянное сырьё предназначено для промышленного применения, в том числе в ЦОД. Речь идёт о клеёном брусе, деревянных балках и колоннах, фанере и конструкциях для стен. В текущем году Meta✴ построила первое административное здание из массива древесины на территории своего кампуса в Эйкене (Aiken, Южная Каролина) совместно с компаниями DPR и SmartLam. В 2025 году компания намерена начать возводить другие здания из массива древесины на территории объекта в Шайенне (Cheyenne, Вайоминг) вместе с Fortis Construction и Mercer Mass Timber. Кроме того, использовать природные материалы планируется в Монтгомери (Montgomery, Алабама) в сотрудничестве с Hensel Phelps и Binderholz. ![]() Источник изображения: Meta✴ Использование таких материалов может существенно улучшить экологические показатели ЦОД, снизив «углеродную ёмкость» строительства. В Meta✴ отмечают, что применение массива древесины позволит сократить содержание «воплощённого углерода» примерно на 41 % по сравнению с материалами, которые она заменяет. Кроме того, большинство деревянных изделий применяется в быстровозводимых сборных зданиях, что значительно уменьшает потребность в сварке стали на месте и позволяет сократить сроки строительства на несколько недель. Материалы обладают огнестойкостью благодаря специальному углеродному слою. Для обеспечения экологической устойчивости Meta✴ требует проведения независимых аудитов, подтверждающих ответственное происхождение и переработку древесины, а также возможность отслеживания её происхождения, что способствует сохранению окружающей среды. Компания заявила, что новые решения тесно связаны с её усилиями по устойчивому использованию лесных ресурсов. Так, в прошлом году она подписала соглашение с BTG Pactual Timberland Investment Group о сокращении выбросов углерода в рамках лесовосстановительных проектов на 1,3 млн т углеродных кредитов в Латинской Америке. Meta✴ не первой применила массив древесины для строительства своих дата-центров. В октябре о строительстве двух ЦОД в Северной Вирджинии, частично с использованием клееной древесины (CLT), объявила Microsoft. Она заявила, что это позволит сократить углеродный след дата-центров приблизительно на 35 %. Древесину использует и шведский застройщик EcoDataCenter. Кроме того, в начале 2025 года немецкая Prior1, занимающаяся дата-центрами, объявила о запуске сборного деревянного модуля ЦОД, в котором достаточно места для размещения пяти стоек, системы непрямого охлаждения на основе пропана на 14 кВт и ИБП на 15 кВА. |
|