Материалы по тегу: ии
17.08.2025 [18:08], Руслан Авдеев
Google потратит $9 млрд на развитие облачной и ИИ-инфраструктуры в Оклахоме — часть пойдёт на обучение электриковКомпания Google взяла обязательство вложить $9 млрд в расширение собственной облачной и ИИ-инфраструктуры на территории штата Оклахома (США). Инвестиции направят на развитие кампуса ЦОД в Стиллуотере (Stillwater) и расширение уже имеющегося объекта в Прайоре (Prior), сообщает Datacenter Dynamics. Часть выделенных средств будет потрачена на программы образования и развития персонала. В марте 2025 года стало известно, что Google подала заявку на строительство кампуса ЦОД в Стиллоутере. Тогда было объявлено, что на него потратят $3 млрд, а площадь кампуса составит более 160 га. Подробных данных о кампусе нет, но согласно проекту плана экономического развития от августа 2024 года, предполагается построить до шести зданий, каждое площадью почти 29 тыс. м2. На каждом этапе строительства предполагается строить по одному ЦОД. Объект в Прайоре Google анонсировала ещё в 2007 году, запуск состоялся в 2011-м. С тех пор дата-центр регулярно расширялся. Университет Оклахомы (University of Oklahoma) и Университет штата Оклахома (Oklahoma State University) готовы участвовать в инициативе Google AI for Education Accelerator. В её рамках можно будет получить сертификаты Google Career Certificates, а также доступ к бесплатным курсам обучения ИИ-навыкам. Также Google финансирует в Оклахоме национальную программу обучения, созданную для подготовки квалифицированных электриков — Electrical Training Alliance. ![]() Источник изображения: Gerson Repreza/unsplash.com Ранее Оклахома никогда не считалась крупным рынком ЦОД и сопутствующих технологий. Среди недавно анонсировавших проекты ЦОД в Оклахоме — компании Cerebras, Damac и CoreWeave с Core Scientific. По слухам, кампус площадью около 138 га готовит и Meta✴. Также есть данные, что в мае подана заявка на строительство кампуса площадью более 200 га в Талсе (Tulsa), но что за компания стоит за проектом, не разглашается.
17.08.2025 [14:15], Сергей Карасёв
Inspur разработала СЖО для мегаваттных стоек с 3-кВт ИИ-ускорителямиКитайская компания Inspur Information представила передовую систему двухфазного жидкостного охлаждения для ИИ-платформ следующего поколения, таких как суперускоритель Metabrain SD200. Решение может использоваться для отвода тепла от серверных стоек мегаваттного класса. Inspur отмечает, что из-за стремительного развития ИИ наблюдается тенденция к повышению плотности вычислений. Это приводит к быстрому увеличению энергопотребления стоек с серверным оборудованием. Различные компании, такие как Aligned, JetCool и CyrusOne, разрабатывают решения для стоек мощностью 300 кВт, тогда как крупные ЦОД-операторы и гиперскейлеры готовятся к появлению мегаваттных установок. В таких условиях возможностей стандартных систем охлаждения становится недостаточно. Двухфазная СЖО Inspur способна охлаждать кристаллы мощностью более 3000 Вт, тогда как показатель теплосъёма превышает 250 Вт на квадратный 1 см2. Благодаря изоляции хладагента предотвращается коррозия, что сводит к минимуму риск коротких замыканий, снижает износ и отказы компонентов, говорит компания. Ключевыми преимуществами новой СЖО названы надёжность и долговечность, отсутствие утечек, простота эксплуатации, безопасная работа IT-оборудования, а также уменьшение общей стоимости владения по сравнению с другими аналогичными решениями. При разработке системы специалистам Inspur Information удалось преодолеть узкие места управления температурой и давлением фазового перехода, а также решить проблемы дисбаланса потока и перегрева во время скачков нагрузки: утверждается, что в конфигурации с 200 чипами отклонение распределения потока составляет менее 10 %, а разница температур — менее 2 °C. Применяется специально разработанный хладагент низкого давления, который безопасен для окружающей среды. Несмотря на отсутствие риска утечки, рабочее давление системы составляет менее 1 МПа.
16.08.2025 [15:16], Сергей Карасёв
Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметровКитайская компания Inspur создала суперускоритель Metabrain SD200 для наиболее ресурсоёмких задач ИИ. Система, как утверждается, может работать с моделями, насчитывающими более 1 трлн параметров. Платформа Metabrain SD200 объединяет 64 карты в единый суперузел с унифицированной памятью. В основу положены открытая архитектура 3D Mesh и проприетарные коммутаторы Open Fabric Switch. Иными словами, ускорители на базе GPU, распределённые по разным серверам, объединяются посредством высокоскоростного интерконнекта в единый домен. Суперускоритель предоставляет доступ к 4 Тбайт VRAM и 64 Тбайт основной RAM. Благодаря этому возможен одновременный запуск четырёх китайских ИИ-моделей с открытым исходным кодом, включая DeepSeek R1 и Kimi K2. Кроме того, поддерживается совместная работа нескольких ИИ-агентов в режиме реального времени. Для Metabrain SD200 заявлена низкая задержка при передаче данных, которая исчисляется «сотнями наносекунд». В распространённых сценариях инференса, предполагающих обработку небольших пакетов данных, по величине задержки система превосходит распространённые отраслевые решения. В составе новой платформы задействованы средства оптимизации. В частности, инструмент Smart Fabric Manager автоматически формирует оптимальные маршруты данных на основе характеристик нагрузки. Metabrain SD200 совместим с распространёнными фреймворками, такими как PyTorch, vllm и SGLang: благодаря этому возможен быстрый перенос существующих моделей и ИИ-агентов без необходимости переписывать программный код с нуля. Таким образом, значительно снижается стоимость миграции. В целом, реализованная технология удалённого vGPU позволяет ускорителям, распределённым по разным серверам, взаимодействовать столь же эффективно, как если бы они находились на одном хосте. При этом достигается восьмикратное расширение адресного пространства, что обеспечивает полную загрузку ресурсов и эффективную работу даже при использовании ИИ-моделей с триллионами параметров.
15.08.2025 [18:15], Руслан Авдеев
Саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВтКомпания center3 из Саудовской Аравии, принадлежащая STC (Saudi Telecom) и занимающаяся строительством дата-центров, к 2030 году намерена довести мощность своих ЦОД до 1 ГВт — в дополнение к уже потраченным на дата-центры $3 млрд будут инвестированы ещё $10 млрд, сообщает Datacenter Dynamics. Center3, основанная в 2022 году, является дочерней структурой STC. Компания строит и эксплуатирует в Саудовской Аравии за её пределами, в том числе в Бахрейне, около 20 дата-центров. Согласно её планам, общая установленная мощность к 2027 году должна достичь 300 МВт. Подробности о том, как именно компания намерена инвестировать $10 млрд и где именно разместятся новые дата-центры, пока не разглашаются. ![]() Источник изображения: SALEH/unsplash.com По словам генерального директора center3 Фахада Аль-Хаджери (Fahad AlHajeri), речь идёт не просто о расширении портфолио дата-центров, но и о создании условий для развития цифровой экономики будущего. Как заявил глава компании, выбор мощности в 1 ГВт закладывает основу для ИИ-проектов, облачных вычислений и выполнения рабочих нагрузок гиперскейл-уровня. Это гарантирует Саудовской Аравии и всему региону создание инфраструктуры мирового класса, которая позволит пробиться в мировые лидеры в ходе следующей волны глобальных инноваций. В 2024 году компания расширила кампус ЦОД Khurais Riyadh в Эр-Рияде, увеличив его мощность на 9,6 МВт. В августе 2024 года Oracle объявила о размещении своего облачного региона в дата-центре center3. В ЦОД center3 размещается и облачный регион Huawei. В октябре center3 объявила о партнёрстве с саудовским строителем дата-центров DataVolt.
15.08.2025 [17:41], Сергей Карасёв
ИИ-стартап Rivos, успевший посудиться с Apple, ищет $500 млн, чтобы побороться с NVIDIAАмериканский стартап Rivos, по сообщению ресурса The Information, намерен получить финансирование в объеме до $500 млн, что увеличит его рыночную стоимость до $2 млрд. Средства в случае их привлечения помогут ускорить вывод на рынок ИИ-ускорителей нового типа, которые, как ожидается, смогут составить конкуренцию изделиям NVIDIA. Фирма Rivos, базирующаяся в Санта-Кларе (Калифорния, США), основана в 2021 году. Она занимается проектированием чипов на открытой архитектуре RISC-V: отсюда и название стартапа — RISC-V Open Source. Создаваемые изделия предназначены для приложений ИИ и больших языковых моделей (LLM). Штат Rivos насчитывает приблизительно 450 сотрудников. Компания уже завершила разработку первого RISC-V-ускорителя: чип передан в опытное производство на предприятие TSMC. Осведомлённые источники утверждают, что массовый выпуск новинки может быть организован в 2026-м. Rivos якобы планирует сотрудничать с некой «крупной публичной компанией по созданию микрочипов» для разработки будущих ускорителей. Кроме того, стартап близок к заключению сделки по поставкам своей продукции неназванному партнёру. На сегодняшний день компания привлекла около $370 млн финансирования. В частности, $250 млн было получено в апреле 2024 года в ходе инвестиционного раунда Series-A3, в котором приняли участие Matrix Capital Management, Intel Capital, Dell Technologies Capital, MediaTek и др. В 2022-м Rivos столкнулся с судебным иском со стороны Apple. Компания из Купертино обвинила стартап в том, что он нанял на работу ряд бывших инженеров Apple, а затем использовал полученную от них конфиденциальную информацию для разработки собственных изделий. Rivos отвергла обвинения и подала встречный иск. Однако, как сообщалось, в ходе разбирательства компания уволила около 6 % своих сотрудников и отложила раунд финансирования Series A. Стороны окончательно урегулировали претензии в феврале 2024 года.
15.08.2025 [15:15], Руслан Авдеев
Расходы гиперскейлеров на дата-центры превысили ВВП целых странУровень современных инвестиций в новую инфраструктуру операторами дата-центров оказался сопоставим с ВВП некоторых государств, причём не самых маленьких. Так, в Omdia подсчитали, что капиталовложения Amazon в ЦОД за год сейчас превышают $100 млрд — это сопоставимо с ВВП Коста-Рики и значительно больше ВВП Люксембурга или Литвы, сообщает The Register. Схожим образом ситуация обстоит и с другими игроками облачного рынка. Так, капитальные вложения Google составляют $82 млрд — выше объёма экономики Словении, а в случае с Microsoft речь идёт об $75 млрд, это выше ВВП Уганды. На долю Meta✴ приходится $69 млрд — больше, чем ВВП Бахрейна. По оценкам экспертов, капитальные затраты на ЦОД превысят в 2025 году $657 млрд. Это означает, что расходы выросли почти вдвое с 2023 года, когда речь шла об $330 млрд. Во многом такие расходы объясняются стремлением гиперскейлеров наращивать мощности для развития ИИ в надежде на то, что когда-то это окупится. Например, xAI, даже не будучи гиперскейлером, тратит по $1 млрд в месяц, рассчитывая на будущую отдачу. Согласно отчёту McKinsey & Company, многие топ-менеджеры скептически относятся к предположениям, что огромные сумму, расходуемые на ИИ, обеспечат соизмеримую отдачу в ближайшем будущем. Например, в отчёте за II квартал 2025 года Meta✴ отметила, что прибыль приносят традиционные модели машинного обучения — основа её рекомендательных систем, а не проекты, связанные с генеративным ИИ. Впрочем, облачные операторы с готовностью предлагают свои сервисы клиентам, желающим получить больше ИИ-инфраструктуры. ![]() Источник изображения: Samuel Regan-Asante/unsplash.com В последнем обзоре рынков облаков и ЦОД Omdia отмечает, что в ближайшей перспективе вычислительные ИИ-ресурсы будут в дефиците. Разработка более масштабных и «прожорливых» моделей вроде недавно представленной GPT-5, стимулирует спрос на вычислительные мощности. В то же время широкое внедрение ИИ стимулирует спрос на инференс. По данным Omdia, значительная часть населения развитых стран так или иначе использует ИИ. Только ChatGPT пользуется более 700 млн человек, а ежедневно — более 120 млн. Анализируя инвестиции в ЦОД, Omdia отмечает, что несмотря на то, что IT-оборудование останется самой крупной статьёй расходов на ЦОД в ближайшие годы, затраты на физическую инфраструктуру (электроснабжение, распределение энергии и системы охлаждения) будут расти быстрее. Это связано с растущим спросом на мощные серверы. Плотность вычислений в стойках сегодня растёт экспоненциально, это требует «значительных и постоянных инноваций» в сфере систем охлаждения и электроснабжения. В то же время растущие потребности всей этой IT-инфраструктуры в энергии, вероятно, вынудит операторов инвестировать в локальные генерирующие мощности и «микросети как услугу», что отчасти происходит уже сегодня, и даже в крупных масштабах. В Omdia ожидают, что темпы строительства дата-центров увеличатся, а мощность крупнейших площадок вырастет, появятся и объекты от гигаватта в США, Индии и других странах. Крупные проекты уже находятся в стадии реализации. Meta✴ сообщила о нескольких кампусах на несколько гигаватт, которые она намерена запускать с 2026 года. В недавнем отчёте Deloitte Insights утверждается, что мощность некоторых площадок, находящиеся на ранних стадиях планирования, может превысить 5 ГВт.
14.08.2025 [17:29], Руслан Авдеев
Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие моделиНедавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют. По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч. Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США. В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3. Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений. Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o. Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.
14.08.2025 [16:17], Сергей Карасёв
Arenadata и Selectel представили отечественный ПАК для высоконагруженной аналитикиКомпания Selectel и группа Arenadata сообщили о выпуске совместного программно-аппаратного комплекса (ПАК), предназначенного для построения отказоустойчивых платформ для высоконагруженной аналитики и корпоративных хранилищ данных. Решение, как утверждается, ориентировано на крупный бизнес с повышенными требованиями к безопасности и устойчивости IT-инфраструктуры. Аппаратная составляющая платформы базируется на оборудовании Selectel, включая серверы собственной разработки. Эта компания также обеспечивает поддержку. Программная часть выполнена на основе аналитической СУБД Arenadata DB (ADB). Кроме того, предоставляются инструменты, упрощающие запуск, масштабирование и эксплуатацию инфраструктуры. Партнёры отмечают, что все компоненты ПАК прошли предварительное тестирование на совместимость — это «гарантирует стабильную и предсказуемую работу». Кроме того, говорится о полной локализации. Решение может быть развёрнуто на собственной площадке клиента или в дата-центрах Selectel. Возможна организация гибридной модели использования. ![]() Источник изображения: Selectel В качестве потенциальных заказчиков ПАК названы телекоммуникационные компании, финансовые организации, промышленные предприятия, логистические операторы, энергетические структуры и пр. Разработчики утверждают, что платформа гибко адаптируется под специфические требования бизнеса, обеспечивая в числе прочего поддержку ИИ-нагрузок. Среди преимуществ решения названы сокращение технических и организационных издержек, уменьшение сроков развёртывания аналитических систем и минимизация рисков при внедрении. Подчеркивается, что система обеспечивает минимальные задержки благодаря встроенным механизмам работы с непрерывными потоками данных, что может быть важно при реализации определённых проектов в IoT-области.
14.08.2025 [15:48], Владимир Мироненко
Вместе, а не вместо: российские компании не спешат отказываться от зарубежных систем управления проектами, сочетая их с отечественнымиПочти треть (28 %) крупных российских компаний продолжает использовать иностранные решения для управления проектами, например, продукты Microsoft, Oracle или Atlassian, пишут «Ведомости» со ссылкой на исследование компании Naumen, опросившей представителей 60 компаний крупного бизнеса, средняя выручка которых составила 360 млрд руб. Четверть (около 25 %) респондентов вообще не использует никаких решений такого класса, а 12 % пользуется самописными разработками. В 2021 году весь рынок подобных решений составлял 5,8 млрд руб., из этой суммы 4,3 млрд руб. приходилось на иностранных разработки (около 74 %). В 2022 году объём рынка сократился до 4,9 млрд руб., а в 2023 году вырос до 5,4 млрд руб., затем составив в 2024 году 6,0 млрд руб. На фоне этой динамики выручка от российских решений последовательно росла с 2,1 млрд руб. в 2022 год, до 3,3 млрд в 2023 году и 4,4 млрд — в 2024 году. Совокупный среднегодовой темп роста (CAGR) российских решений в 2020–2024 гг. составил 46 %, а доля рынка российских решений увеличилась до 73 %. Согласно прогнозу Naumen, в 2025 году объём рынка может составить 6,6 млрд руб., из которых 5,4 млрд придётся на российские решения., т.е. их выручка вырастет сразу на 1 млрд руб. Тем не менее, бизнес предпочитает совмещать зарубежные и отечественные продукты. 10–15 % крупных компаний после импортозамещения продолжают использовать иностранное ПО, так как оно в этом классе систем остается признанным стандартом, а полного доверия отечественным решениям всё ещё нет. В Naumen отметили, что на российском рынке решений для управления проектами распространены монопродуктовые компании, такие как Yougile, Kaiten и Advanta, для которых продукт является основным или единственным — они заняли почти половину рынка в 2024 году (около 2 млрд руб.). На мультипродуктовые компании пришлось 1,8 млрд руб., а третье место заняли бигтех-компании (600 млн руб.). Сегмент крупного бизнеса и госсектора резко снизил долю в 2022 году из-за ухода иностранных компаний, и она до сих пор до конца не восстановилась. Освоение отечественных решений крупным бизнесом и госсектором началось только в 2024 году. Опрошенные «Ведомостями» эксперты отмечают, что перенос процессов с зарубежных решений является сложной и дорогой задачей, на которую могут уйти годы. Поэтому даже во время тестирования российского ПО компании продолжают использовать иностранные продукты, стараясь до конца использовать действующие лицензии или выбирая бесплатные версии. Кроме того, российские решения могут внедряться в новых проектах, тогда как старые по-прежнему полагаются на уже имеющееся ПО. В любом случае доля отечественных решений продолжает расти.
13.08.2025 [14:39], Руслан Авдеев
Нужно больше меди: рост дата-центров усугубит нехватку и так дефицитного металлаПо мнению экспертов BloombergNEF (BNEF), устойчивый рост спроса со стороны дата-центров ускорит потенциальное возникновение существенного дефицита на мировом рынке меди уже во второй половине текущего десятилетия. При этом к 2035 году дефицит, вероятно, достигнет 6 млн т. Аналитики BNEF заявили, что для строительства ИИ ЦОД требуется всё больше меди, при этом поставки металла, являющегося ключевым компонентом в самых разных продуктах, от сантехники до силовых кабелей и электромобилей, ограничены из-за многолетнего недофинансирования. Как следует из отчёта, около 6 % капитальных затрат ЦОД может приходиться именно на медь. Цена этого металла, к 2028 году, вероятно, достигнет пика и составит $13,5 тыс. за тонну. По мнению экспертов, расширение мощностей ИИ ЦОД усиливает давление на рынок, на котором и без того сложилась напряжённая ситуация. Проблема ещё и в том, что использование меди в секторах вроде передачи электроэнергии и ветроэнергетики должно удвоиться к 2035 году, а предложение на рынке растёт медленнее, чем необходимо. ![]() Источник изображения: Joanna Kosinska/unsplash.com Согласно докладу BloombergNEF, спрос на медь (косвенно со стороны ЦОД) в течение следующего десятилетия будет составлять 400 тыс. т ежегодно. Пик на уровне 572 тыс. т будет достигнут в 2028 году. В течение следующего десятилетия общий объём использования меди в ЦОД, вероятно, превысит 4,3 млн т. В то же время предложение к 2035 году достигнет 29 млн т — на 6 млн т меньше ожидаемого спроса. В апреле 2024 года появилась информация, что рост ИИ и ЦОД увеличит потребление дорожающего металла на 1 млн т в 2030 году. В ноябре того же года эксперты заявили, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и, что немаловажно, чистой меди, рост дефицита которой прогнозировался уже тогда. |
|