Лента новостей
20.06.2025 [09:11], Владимир Мироненко
Pure Storage анонсировала All-Flash СХД FlashArray//XL R5, FlashArray//ST и FlashBlade//S R2Pure Storage вместе с запуском EDC также расширила портфель All-Flash массивов хранения, представив решения FlashArray//XL, FlashArray//ST и FlashBlade//S следующего поколения. FlashArray//XL R5 устанавливает новый стандарт производительности, отметил ресурс StorageReview.com. Новая модель обеспечивает вдвое больше IOPS на единицу стойки и до 50% больше «сырой» емкости, чем у предшественника, позволяя клиентам консолидировать различные рабочие нагрузки на одной платформе. Эта консолидация обеспечивает простоту эксплуатации и экономию средств, что является критически важными преимуществами для организаций, управляющих крупномасштабными средами. Реализована поддержка FC, iSCSI/RoCE и NFS/SMB. Задержка составляет 150 мкс, пропускная способность — 45 Гбайт/с. Предлагаются модели:
![]() Источник изображения: Pure Storage В свою очередь, FlashArray//ST специально создана для наиболее чувствительных к задержкам рабочих нагрузок, таких как базы данных в памяти, OLTP, запись журналов, масштабируемые или сегментированные базы данных NoSQL. Предоставляя более 10 млн IOPS всего в пяти стойках, FlashArray//ST обеспечивает производительность с низкой задержкой и высокой пропускной способностью, необходимую для приложений следующего поколения, говорит компания. Во FlashArray также была добавлена поддержка объектного хранилища, что позволяет организациям консолидировать блочное, файловое и объектное хранилище в одной СХД единую систему. Наконец, FlashBlade//S R2 также предназначено для чувствительных к задержкам рабочих нагрузок, таких как крупномасштабные конвейеры данных, ИИ-нагрузки, OLTP, запись журналов и масштабируемые или сегментированные базы данных NoSQL. Базовая конфигурация FlashBlade//S R2 включает 7–10 «лезвий» на 5U-шасси, до четырёх 37,5-Тбайт модулей DFM на узел //S100. Также есть 1U-шасси XFM, пара которых обеспечивает 16 подключений 400GbE.
20.06.2025 [00:00], Владимир Мироненко
Управлять данными, а не хранилищами: Pure Storage представила унифицированную облачную платформу Enterprise Data CloudPure Storage представила платформу Enterprise Data Cloud (EDC), которая предлагает простой, гибкий и унифицированный способ управления данными и хранилищами, позволяя организациям сосредоточиться на бизнес-задачах, а не на инфраструктуре. EDC позволяет управлять блочными, файловыми и объектными нагрузками в локальных, облачных и гибридных средах. Компания отметила, что использование традиционных моделей хранения влечёт за собой фрагментацию, разрозненность и неконтролируемое разрастание данных. Enterprise Data Cloud (EDC) предназначена для решения этих проблем, предоставляя виртуализированное облако данных с единым контролем, охватывающим различные среды. Такой подход обеспечивает интеллектуальное, автономное управление данными и управление во всём массиве данных, позволяя компаниям снизить риски, затраты и эксплуатационную неэффективность. «Пришло время прекратить управлять хранилищем и начать управлять данными. Поскольку ИИ увеличивает потенциальную ценность корпоративных данных, а киберугрозы ставят их под угрозу, архитектуры хранения данных и инструменты для управления данными не поспевают за развитием», — сообщил в пресс-релизе председатель и генеральный директор Pure Storage Чарльз Джанкарло (Charles Giancarlo). Как отметил ресурс Computer Weekly, EDC представляет собой объединение существующих архитектурных элементов и систем Pure Storage: Purity OS, которая является общей для всех массивов компании; Fusion, которая позволяет обнаруживать и управлять ресурсами хранения; Pure1, которая позволяет управлять парком оборудования с точки зрения производительности и детального управления ресурсами; подписка Evergreen. В основе платформы лежит решение Pure Fusion, объединяющее хранилища как пул адаптируемых ресурсов и рассматривающее все массивы как конечные точки в единой сети данных. Это позволяет администраторам управлять парком СХД через единый интерфейс и развёртывать рабочие нагрузки с использованием интеллектуальных шаблонов, которые автоматизируют такие параметры, как качество обслуживания, уровни защиты и требования к производительности. Слой Fusion изначально встроен в массивы Pure. Администраторы получили большую гибкость в реагировании на конкретные потребности каждой рабочей нагрузки и больше не должны предварительно планировать и настраивать развёртывания, что снижает риск несоответствия и повышает отказоустойчивость, гарантируя, что ресурсы для рабочих нагрузок будут подготовлены правильно с самого начала. Чтобы устранить проблемы, возникающие из-за ручных операций по подготовке, миграции и многого другого, автоматизация охватывает весь стек платформы с возможностями оркестрации на основе политик и самообслуживания. Встроенное соответствие требованиям и улучшенная киберустойчивость ещё больше минимизируют риск путём использования политик безопасности и управления. Эти новые возможности полностью переопределяют интеллектуальное управление хранением, считает компания. EDC поддерживает готовые сценарии для формирования рабочих процессов, которые интегрируют хранилище с вычислениями, сетями и приложениями, чтобы обеспечить сложные развёртывания, такие как репликация базы данных в нескольких ЦОД и в публичном облаке в рамках одной задачи. Чад Кенни (Chadd Kenney), вице-президент Pure Storage по технологиям, рассказал, что автоматизированные функции решают некоторые из рутинных задач развёртывания. «Если у кого-то есть приложение, которому требуется Oracle, администратор должен изучить парк массивов хранения, выяснить, какой из них способен принять новую рабочую нагрузку, а затем настроить его, убедившись в работоспособности репликации, наличии снапшотов и корректности политики качества обслуживания, — говорит Кенни. — Шаблоны позволяют вам задавать все конфигурации разом». Платформа предоставляет организованные шаблоны для рабочих процессов, созданные на основе тысяч существующих коннекторов для сторонних приложений и продуктов, в том числе от Cisco, Microsoft, VMware, ServiceNow и Slack. Шаблоны охватывают конфигурации хранилищ, вычислительных ресурсов, сетей, баз данных и приложений. Можно использовать готовые шаблоны от самой Pure и партнёров или создавать свои. Платформа включает в себя центр оркестрации с шаблонами автоматизации для таких функций, как DRaaS и предоставление данных, и имеет интеграцию с Rubrik Security Cloud и Crowdstrike Logscale. Например, Pure Fusion по сигналу от Rubrik автоматически маркирует снимки, отправляет их на сканирование и быстро выявляет среди них наиболее подходящие для восстановления. В случае с CrowdStrike компания предлагает первое в своём роде проверенное, локальное, устойчивое, безопасное и высокопроизводительное хранилище для Falcon LogScale. Кроме того, платформа предлагает расширенные возможности восстановления сред VMware. Наконец, интеллектуальный помощник компании AI Copilot, отслеживает в реальном времени телеметрию всего EDC, что позволяет ему мгновенно реагировать на запросы по производительности на уровне парка, предоставлять сценарии конфигурации и поддерживать быструю корректировку политики без вмешательства человека, заявила Pure Storage. «В течение 10 секунд он обработает все данные 100 различных систем, даст вам ответ и предоставит сценарий для развёртывания нагрузки», — рассказал Кенни.
19.06.2025 [17:13], Руслан Авдеев
Экзафлопсный суперкомпьютер Fugaku Next получит Arm-процессоры Fujitsu MONAKA-XЯпонская Fujitsu получила контракт на разработку преемника суперкомпьютера Fugaku, получившего условное название FugakuNEXT (Fugaku Next), сообщает Datacenter Dynamics. Информация об этом появилась ещё в прошлом году, но теперь заключено официальное соглашение. Новую машину разместят рядом с уже действующей в институте Riken (Япония) системой. Контракт включает и поставку вычислительного оборудования, а первая фаза проектирования продлится до конца февраля 2026 года. Fujitsu разрабатывает энергоэффективные 2-нм 144-ядерные Arm-процессоры MONAKA с 3.5D-упаковкой, начало выпуска которых запланировано на 2027 год. Для FugakuNEXT компания создаст процессоры MONAKA-X, которые позволят не только ускорить работу уже существующих приложений для Fugaku, но и добавят современные возможности ускорения ИИ-вычислений. В компании уверены, что новые процессоры пригодятся не только в очередном суперкомпьютере, но и в самых разных сферах экономики, общественной жизни и промышленности. Кроме того, компания направит усилия на создание NPU следующего поколения. Введённый в эксплуатацию весной 2020 года суперкомпьютер Fugaku несколько лет подряд занимал первые места в TOP500 и других рейтингах. В последнем списке TOP500 он занимает седьмую позицию. Министерством образования, культуры, спорта, науки и технологий Японии (MEXT) разработку FugakuNEXT анонсировало в августе 2024 года. Тогда утверждалось, что компьютер станет первой вычислительной машиной зеттафлопсного уровня. Впрочем, такая пиковая производительность относится только к ИИ-вычислениям. Так или иначе, ранее MEXT публиковало документ, согласно которому каждый узел Fugaku Next должен обеспечить пиковую производительность в сотни Тфлопс (FP64), что в совокупности может составить 1 Эфлопс.
19.06.2025 [16:13], Руслан Авдеев
Здесь ЦОД с ИИ, здесь Grok'ом пахнет: экоактивисты подали в суд на xAI за использование газовых турбин для суперкомпьютера ColossusОснованная Илоном Маском (Elon Musk) компания xAI столкнулась с судебным иском. Её обвиняют в нарушении «Закона о чистом воздухе» (US Clean Air Act) в Мемфисе. Именно там расположен ЦОД с ИИ-суперкомпьютером Colossus, для питания которого используются турбины на природном газе, сообщает Datacenter Dynamics. Истцами выступили НКО NAACP и SELC. Стартап обвиняют в незаконном использовании на объекте турбин, работающих на природном газе. Согласно иску, xAI не получала разрешений на эксплуатацию 26 турбин, установленных на объекте для обеспечения его электричеством. SELC ранее утверждала, что использование газовых турбин осуществлялось без оповещений местного населения и что оно наносит ему ущерб. В NCAAP заявили, что не могут позволить компаниям с оборотами в миллиарды долларов строить загрязняющие атмосферу производства без разрешений. Представители организации пообещали, что xAI не уйдёт от ответственности. В ответ компания заявляет, что имеют право на эксплуатацию турбин в течение 364 дней без отдельного разрешения, поэтому временные установки функционируют в соответствии с законами. Более того, компания намерена доработать турбины для сокращения выбросов в будущем. В SELC заявили, что для турбин таких временных исключений из правил не предусмотрено. Впрочем, срок в 364 дня уже всё равно истёк, а решение xAI установить и эксплуатировать десятки турбин, загрязняющих окружающую среду — явное нарушение Закона о чистом воздухе. В результате xAI можно привлечь к ответственности за незаконный отказ получать разрешения на газовые турбины. ![]() Источник изображения: Call Me Fred/unsplash.com ЦОД, запущенный в июле 2024 года, имел начальную мощность 150 МВт. Объект подключили к электросети местной коммунальной службы TVA, но поначалу xAI выделили всего 8 МВт, поэтому компания развернула около ЦОД газовые турбины. В конце прошлого года подведённую мощность разрешили довести до 150 МВт. В апреле 2025 года выяснилось, что ЦОД увеличил количество число газовых турбин до 35 — это нарушение выданного разрешения на локальную генерацию, поскольку оно допускало использование только 15 турбин. Дополнительные установки обнаружили на аэрофотоснимках. Общая мощность агрегатов, по оценкам, составляет 422 МВт. После этого была продана жалоба в местный департамент здравоохранения, в которой заявлялось, что ЦОД из-за турбин стал крупнейшим промышленным источником азотных загрязнений NOx, формирующих смог в Мемфисе. С тех пор сообщалось, что xAI начала убирать некоторые турбины с площадки после ввода в эксплуатацию новой подстанции. Также было установлено 168 аккумуляторных хранилищ Tesla Megapack. Компания намерена построить в городе второй ЦОД и уже приобрела для этого участок площадью более 92 тыс. м2. Он расположен рядом с газовой электростанцией Southaven Combined Cycle, вырабатывающей 780 МВт электричества. Однако компании надо гораздо больше мощности и она, по-видимому, готова повторить тот же трюк, развернув десятки турбин суммарной мощностью 1,56 ГВт.
19.06.2025 [13:19], Руслан Авдеев
Bloom Energy: к 2030 году более четверти ЦОД в США обзаведутся собственными электростанциямиКомпания Bloom Energy опубликовала обновление отчёта 2025 Data Center Power Report, представленного ранее в текущем году. В нём сообщается, что операторы ЦОД всё чаще используют генерацию энергии при кампусах в качестве основного источника электроснабжения своих объектов. При этом у ЦОД, вероятно, сохранятся проблемы со своевременным доступом к электроэнергии, сообщается в докладе. В докладе, передаёт Datacenter Dynamics, говорится, что при выборе площадки для строительства дата-центра всё важнее доступность электричества — 84 % респондентов назвали доступность в тройке главных критериев при выборе места. Строители дата-центров часто неверно оценивают время, в течение которого электроэнергия станет доступна объектам. Коммунальные компании сообщают о более длительных сроках присоединения на ключевых рынках США — на два года больше, чем рассчитывают гиперскейлеры и колокейшн-провайдеры. Всё важнее становится локальная генерация электричества. Ожидается, что в 2030 году 38 % объектов ЦОД будут использовать генерацию энергии на месте, тогда как год назад речь шла всего о 13 %. Важно, что 27 % объектов к этому моменту, вероятно, будут целиком полагаться на локальную генерацию, хотя в прошлом году таких было порядка 1 %. ![]() Источник изображения: Wolfgang Weiser/unsplash.com Внедрение ИИ будет способствовать строительству более крупных и энергоёмких ЦОД. Ожидается, что средний размер дата-центра вырастет с приблизительно 175 МВт сегодня до 275 МВт к 2030 году и до 375 МВт к 2035 году. В компании считают, что обычные энергосети не успевают за ИИ ЦОД, именно поэтому участники отрасли берутся за локальную генерацию энергии. Согласно результатам опроса, операторы ЦОД ищут решения, которые обеспечат быстрые сроки развёртывания энергетической инфраструктуры, низкие выбросы и возможность справиться с интенсивными и нестабильными ИИ-нагрузками. Ещё одним долгосрочным приоритетом, хотя и менее важным, является сокращение углеродных выбросов. 95 % опрошенных подтвердили актуальность для них целей по сокращению выбросов и обеспечению экоустойчивого развития — даже если идти к этим целям придётся нелинейно. Последний отчёт основан на данных, собранных с апреля 2024 года по апрель 2025-го. Было опрошено около 100 человек, принимающих решения в рамках экосистемы обеспечения дата-центров энергией, в том числе были проведены глубинные интервью. В документе отражаются точки зрения топ-менеджмента гиперскейлеров, колокейшн-провайдеров, коммунальных служб и поставщиков ускорителей.
19.06.2025 [11:21], Сергей Карасёв
AWS готовит чип Graviton и ускоритель Trainium следующего поколенияОблачная платформа Amazon Web Services (AWS), по сообщению ресурса CNBC, готовит обновлённую модификацию своего серверного процессора Graviton4, а также ускоритель Trainium следующего поколения, предназначенный для ресурсоёмких приложений ИИ. Оригинальная версия Graviton4 дебютировала в конце 2023 года. Изделие, разработанное подразделением Annapurna Labs в составе AWS, содержит 96 ядер Neoverse V2 Demeter с 2 Мбайт кеша L2 в расчёте на ядро. Используются 12 каналов памяти DDR5-5600. В общей сложности чип насчитывает 73 млрд транзисторов и изготавливается по 4-нм техпроцессу TSMC. По имеющейся информации, у инстансов на базе обновлённой версии Graviton4 пропускная способность сетевой подсистемы увеличится в 12 раз — с нынешних 50 Гбит/с до 600 Гбит/с. Прочие технические характеристики готовящегося изделия не раскрываются, но известно, что информацию о сроках его доступности AWS раскроет до конца текущего месяца. Сообщается также, что ускоритель Trainium следующего поколения выйдет до конца текущего года. Нынешнее решение Trainium2, основанное на ядрах NeuronCore-V3, было представлено в ноябре 2023-го. Его производительность достигает 1,29 Пфлопс в режиме FP8. Утверждается, что быстродействие Trainium3 увеличится в два раза, то есть будет составлять до 2,58 Пфлопс (FP8). Ранее появлялась информация, что энергопотребление Trainium3 может достигать 1000 Вт. Теперь говорится, что в плане энергетической эффективности ИИ-ускоритель нового поколения на 50 % превзойдёт предшественника. Возможно, имеется в виду быстродействие в расчёте на 1 Вт затрачиваемой энергии.
19.06.2025 [09:27], Владимир Мироненко
ИИ — это не только GPU: Marvell проектирует полсотни кастомных чипов для ЦОДПоскольку провайдеры облачных сервисов, ИИ-стартапы и суверенные субъекты масштабируют свои ЦОД, Marvell видит растущий спрос не только на основное вычислительное оборудование, включая пользовательские CPU, GPU и ускорители, но и на широкий спектр вспомогательных полупроводниковых элементов, включая контроллеры сетевых интерфейсов, чипы управления питанием, устройства расширения памяти и т.д., пишет Converge Digest. В ходе мероприятия для инвесторов AI Investor Day 2025 гендиректор Мэтт Мерфи (Matt Murphy) обрисовал растущую роль компании в поддержке ИИ-инфраструктуры, отметив два ключевых события, формирующих рынок: рост числа новых разработчиков ИИ-инфраструктуры за пределами традиционных четырёх ведущих гиперскейлеров и быстрое появление компонентов XPU Attach как важной новой категории кастомных полупроводников. Мерфи отметил, что эти тенденции способствуют формированию гораздо более крупного и разнообразного общего целевого рынка, чем прогнозировалось ранее. Мерфи рассказал, как резко выросли глобальные капитальные затраты на ЦОД, обусловленные ростом гиперскейлеров и развитием суверенного ИИ. Ведущие американские гиперскейлеры — AWS, Microsoft, Google и Meta✴ — увеличили совокупные капитальные затраты со $150 млрд в 2023 году до более чем $300 млрд в 2025 году. По прогнозам, на глобальном уровне к 2028 году затраты превысят уже $1 трлн. Marvell считает, что значительная часть этих расходов будет направлена на кастомные полупроводниковые платформы. Marvell пересмотрела прогноз общего целевого рынка (TAM) в сторону увеличения до $94 млрд к 2028 году, что на 25 % больше её оценки в прошлом году. Эта сумма включает:
Мерфи подчеркнул, что XPU Attach — прорывная категория, отметив, что «вычислительные ИИ-платформы больше не определяются одним чипом. Это сложные системы с бурным ростом числа сокетов — каждый из которых представляет собой новую возможность [для компании]». «В прошлом году у нас было три кастомных вычислительных чипа и TAM на $75 млрд. В этом году у нас 18 сокетов, TAM на $94 млрд и растущий поток из более чем 50 проектов. Рынок ИИ-инфраструктуры быстро развивается, и Marvell находится прямо в его центре», — подытожил Мерфи. Marvell на сегодняшний день обеспечила разработку 18 кастомных чипов:
Marvell сопровождает более 50 активных кастомных полупроводниковых проектов — сочетание XPU и Attach — с более чем 10 клиентами. Среди них облачные гиперскейлеры, новые ИИ-стартапы и национальные ИИ-инициативы. По оценкам компании, эти проекты принесут $75 млрд потенциального дохода за весь срок их реализации, и это без учёта 18 уже готовых проектов. Мерфи подчеркнул, что на этом рынке больше не доминирует несколько «мегасокетов». «Ещё в 2023 году на один сокет приходилось 75 % TAM. К 2028 году ни один сокет не будет превышать 10–15 %. Это огромная диверсификация — и она отлично подходит для нас», — сообщил глава Marvell.
18.06.2025 [23:12], Владимир Мироненко
По следам: Роскомнадзор потребует от операторов сведения об оборудовании и маршрутах трафикаРоскомнадзор планирует усилить контроль деятельности операторов, расширив перечень параметров, подлежащих оценке при проведении плановых и неплановых проверок, пишут «Ведомости» со ссылкой на проект нового проверочного листа, опубликованный на Федеральном портале проектов нормативных правовых актов. Согласно документу, помимо сведений о наличия лицензий, соблюдении правил присоединения и взаимодействия сетей, предоставления доступа к экстренным службам, перечень контрольных вопросов теперь касается технических аспектов работы сетевой инфраструктуры оператора, включая подтверждение того, что весь передаваемый трафик проходит через ТСПУ, к которым должен быть обеспечен доступ Центра мониторинга РКН. Также оператору будет необходимо предоставить сведения об устройствах, которые используются для обработки трафика и как реализовано к ним подключение. Новый перечень также теперь включает вопросы о пользовательском оборудовании и параметрах маршрутизации трафика — о MAC- и IP-адресах, характеристиках оборудования и направлениях маршрутизации трафика. Кроме того, в проекте добавлено требование к операторам по ограничению доступа к конфиденциальной информации подрядных организаций, занимающихся обслуживанием сетевой инфраструктуры. По словам источника «Ведомостей» в крупной IT-компании, проект проверочного листа не вводит новых обязанностей для операторов связи, поскольку все добавленные в него параметры закреплены действующим законодательством. Просто регулятор расширил перечень показателей, которые подлежат проверке при проведении контрольно-надзорных мероприятий. По мнению одного из экспертов, расширение отчётности регулятором может быть направлено на решение двух задач — пресечение преступлений экстремистской направленности и расширение его полномочий в области контроля цифрового пространства.
18.06.2025 [18:18], Руслан Авдеев
Дата-центры несут угрозу электросетям США из-за своей непредсказуемостиАмериканский регулятор North American Electric Reliability Corp. (NERC), отвечающий за надзор за электросетями и сопутствующей инфраструктурой в США, заявил, что подключение к сетям ЦОД в настоящее время весьма рискованно. Речь идёт об одной из самых серьёзных угроз надёжности сетей в краткосрочной перспективе, сообщает Bloomberg. Растущие кампусы ЦОД, занимающиеся майнингом криптовалют и ИИ-вычислениями, развиваются значительно быстрее, чем электростанции и линии электропередач, необходимые для обеспечения таких объектов электроэнергией. В результате, как заявляется в отчёте NERC, такая ситуация может привести к нарушению стабильности энергосистемы в целом. В первую очередь это связано с тем, что дата-центрам необходимо огромное количество энергии в непредсказуемые интервалы времени. Кроме того, они очень чувствительны к перепадам напряжения, что делает их главным, плохо прогнозируемым фактором влияния на энергосистемы. Они попросту не готовы к такому режиму использования. Как заявляют в NERC, в мировой «столице» ЦОД, регионе Северная Вирджиния, в июле 2024 года разом отключились дата-центры общей мощностью около 1,5 ГВт. В феврале текущего года из-за проблем с напряжением ситуация снова повторилась, затронув уже 1,8 ГВт мощностей. Считается, что отключения подобных масштабов могут иметь «волновой» эффект, распространяющийся на всю энергосеть страны. В отчёте NERC утверждается, что отключения нагрузки подобного масштаба сопоставимы с неожиданным включением в сеть крупной атомной электростанции. В результате из-за излишков энергии создаётся гигантский дисбаланс. ![]() Источник изображения: Matt Richmond/unsplash.com Расследование NERC показало, что в случае серии коротких сбоев в течение небольшого периода времени дата-центры не переключаются обратно на основную энергосеть — это приходится делать вручную, причём ЦОД в этом время часами питаются от резервных источников. Пока что такие резкие перепады не привели к катастрофам, но операторам энергосетей пришлось принимать меры для сокращения подачи электричества в сеть. Более того, в будущем подобные проблемы, вероятно, станут более распространёнными, поскольку спрос на электричество для ЦОД в Вирджинии только растёт. Регулятор утверждает, что необходимо срочно найти способ максимально безболезненно интегрировать дата-центры в электросети. США всё ещё находятся на ранней стадии бума ИИ, который в Вашингтоне считают необходимым для обеспечения национальной безопасности. В NERC заявили о необходимости разработки моделей, позволяющих лучше понять, как именно ЦОД используют электричество. Регулятор пришёл к выводу, что полезнее всего для обеспечения стабильности сетей будет применение аккумуляторных хранилищ. В конце прошлого года сообщалось, что в 2028 году на дата-центры США может прийтись уже 12 % энергопотребления всей страны. По данным Международного энергетического агентства (IEA), в мировом масштабе энергопотребление ЦОД к 2030 году вырастет более чем вдвое, а из-за ИИ придётся сжигать больше угля и газа.
18.06.2025 [16:03], Руслан Авдеев
Cove Architecture представили первый ЦОД, полностью спроектированный ИИКомпания Cove Architecture, вероятно, впервые в отрасли представила проект ЦОД, полностью созданный ИИ. Речь идёт об объекте площадью чуть менее 1 тыс. м2 — за 30 дней выполнено то, на что обычно уходят месяцы, сообщает Datacenter Knowledge. ИИ ЦОД стали одним из важнейших направлений работ в архитектуре — при этом операторы всё чаще используют ИИ для оптимизации систем охлаждения, управления инфраструктурой (DCIM) и выбора площадок для строительства. Представленный Cove Architecture проект ЦОД для Хартсела (Hartsel, Колорадо) пока ожидает одобрения властей. Это первый проект в отрасли, разработанный с использованием ИИ-платформы для архитекторов, утверждает компания. ИИ помог протестировать и оптимизировать различные конфигурации дата-центра, сократив время работы с недель до минут. При этом достигнут отличный показатель энергоэффективности (PUE) на уровне 1,2. ![]() Источник изображения: Cove Architecture Ключевые детали проекта:
ИИ меняет принципы проектирования дата-центров, позволяя комплексно оптимизировать энергопотребление и вычислительные мощности вместо использования разрозненных решений. Это не только экологично, но и экономически выгодно. Опора на ИИ, по словам представителей компании, меняет правила игры в отрасли. С использованием цифровых двойников будет гораздо дешевле проводить проверки качества, чем делать это в полевых условиях. При этом, как считают в Omdia, человеческая составляющая по-прежнему необходима и в ближайшее время это не изменится, поскольку при проектировании необходимо учитывать множество факторов. ![]() Источник изображения: Zan Lazarevic/unsplash.com В компании настроены оптимистично и заявляют, что ИИ-платформа позволяет учитывать местные требования к зонированию территорий, исторические данные о юридической практике одобрений таких проектов и даже климатические нюансы. Как заявляют в Cove Architecture, использование ИИ в проектировании дата-центров позволяет найти баланс для сложных, часто противоречивых требований: обеспечение доходности, соответствия стандартам, высокого качества дизайна и максимальной эффективности без ущерба экоустойчивости. Такое проектирование — лучший пример того, как технологии помогают избегать традиционных компромиссов в архитектуре, когда одним показателем приходится жертвовать в пользу другого. |
|