Материалы по тегу: ии
|
14.01.2026 [16:27], Руслан Авдеев
США являются лидерами в сфере развития ЦОД, но темпы роста отрасли в Китае остаются загадкойНа сегодняшний день в мире реализуются проекты 1947 новых дата-центров — более 20 % от числа действующих сегодня (9019 шт.). Учитываются как уже строящиеся или анонсированные объекты, так и те, для которых пока куплена только земля. Более половины новых проектов реализуется в США, но есть и сильный конкурент, данные о котором неполны, сообщает IEEE Spectrum. Если бы появились полные данные, роль США на рынке ЦОД, вероятно, оказалась бы ещё важнее. По словам эксперта Electric Power Research Institute (EPRI) Тома Уилсона (Tom Wilson), из-за доступности земли и специализации на HPC-сервисах средние размеры и энергопотребление ЦОД в США значительно выше, чем в других странах. Среди ключевых застройщиков называются AWS, Microsoft, Stack Infrastructure, Google и CloudHQ. При этом надо отметить, что гиперскейлеры не только строят собственные дата-центры, но и арендуют их. Тем не менее, по словам Уилсона, имеющаяся статистика, предоставленная Data Center Map, может недостаточно полно учитывать новые китайские дата-центры, поскольку зачастую никто не объявляет о них публично. Но даже если бы данные о китайских дата-центрах были актуальными, Уилсон считает, что США всё равно считались бы лидерами, а за ними, с некоторым отставанием, всё равно шёл бы Китай. Уилсона беспокоит способность электросетей США удовлетворить спрос новых дата-центров на энергию. Спрос оставался неизменным буквально в течение двадцати последних лет, а теперь индустрия ЦОД в США требует энергии в огромных объёмах. По словам эксперта, решение проблемы с энергоснабжением может заключаться в договорённости с операторами ЦОД, чтобы те потребляли энергию более «гибко». Например, речь может идти о проведении сложных вычислений вне пиковых нагрузок на энергосети или об использовании на площадках ЦОД энергохранилищ, что отчасти снизит нагрузку на энергосети. Будет ли таких мер достаточно для удовлетворения спроса — остаётся открытым пока вопросом. Известно другое. В декабре 2025 года экоактивисты более 230 организаций призвали США немедленно остановить строительство всех ИИ ЦОД, поскольку ИИ-бум представляет большую экологическую и общественную угрозу. Более того, в США начали расследование влияния ИИ ЦОД на рост тарифов на электроэнергию. Всего, по оценкам Omdia, капитальные затраты на ЦОД в мире превысят в 2025 году $657 млрд, расходы гиперскейлеров на дата-центры уже превысили ВВП целых стран.
14.01.2026 [15:39], Руслан Авдеев
США разрешили экспорт NVIDIA H200 в Китай, а Китай импорт H200 не разрешилСША официально разрешили поставки чипов NVIDIA H200 китайским клиентам несмотря на неодобрение некоторых политиков. Впрочем, как оказалось, в Китае эти ускорители не очень ждут, сообщает Reuters. Параллельно США прикрыли лазейку в законах, позволявшую КНР пользоваться передовыми ИИ-чипами в зарубежных ЦОД и облаках. Согласно новым американским правилам, продаваемые в КНР чипы должны перед поставками проверяться независимыми лабораториями для подтверждения их технических характеристик. При этом в Поднебесную запрещено продавать более 50 % от общего объёма чипов, продаваемых американским клиентам. NVIDIA придётся доказать, что в США достаточно ускорителей H200, а китайские клиенты должны пройти «необходимые процедуры безопасности» и не должны использовать полупроводники в военных целях. Ранее об этих условиях не сообщалось. В NVIDIA подчёркивают, что критики новых правил непреднамеренно продвигают интересы конкурентов компании, находящихся в американском «чёрном списке». В декабре было объявлено о возможности продавать чипы NVIDIA H200 в КНР с условием уплаты в американский бюджет пошлины в объёме 25 % от их стоимости. Китайским технологическим компаниям нужно порядка 2 млн H200, причём каждый из ускорителей стоит около $27 тыс. Это превышает запасы NVIDIA, на складах которой имеется не более 700 тыс. таких чипов. Глава NVIDIA Дженсен Хуанг (Jensen Huang) заявил, что компания нарастит производство H200. По словам Reuters, пожелавшие остаться анонимными сотрудники китайской таможни заявили, что ввоз чипов NVIDIA H200 в Китай пока не разрешён. Также, по некоторым данным, китайские власти пригласили представителей местных технологических компаний на встречу, в ходе которой недвусмысленно указали не покупать H200 без крайней необходимости. Фактически, по данным источников СЧМИ, речь идёт о временном запрете закупок, который может стать постоянным. H200 в последнее время находится в центре обсуждений американо-китайских отношений. Хотя спрос со стороны китайского бизнеса велик, есть вероятность, что Пекин вовсе запретит ввоз таких чипов, чтобы местные разработчики ИИ-чипов могли развивать собственные проекты. Также возможно, что вопросы, касающиеся поставок H200, станут предметом торга с Вашингтоном. Пока нет данных, касается ли запрет уже сделанных заказов, или только новых. Желая замедлить развитие Китая в сфере ИИ и технологий в целом, США с 2022 года ввела ограничения на экспорт в КНР передовых полупроводников. В 2025 году США сначала запретили, а позже разрешили экспорт ускорителей H20, но поставки с августа фактически заблокировал сам Китай. Дженсен Хуанг заявлял, что доля NVIDIA на рынке ИИ-чипов КНР уменьшилась до нуля. H200 приблизительно в шесть раз производительнее H20 и отказаться от такого предложения полностью КНР будет весьма затруднительно, особенно с учётом того, что собственные чипы китайской разработки далеко не столь производительны.
14.01.2026 [13:05], Руслан Авдеев
Дональд Трамп: американцы не должны оплачивать модернизацию энергетической инфраструктуры для ИИ ЦОДДональд Трамп (Donald Trump) заявил, что техногиганты должны сами оплачивать адаптацию энергетической инфраструктуры для новых дата-центров — вместо того, чтобы перекладывать эту ношу на обычных людей, сообщает The Register. Соответствующее заявление он опубликовал в собственной социальной сети Truth Social, подчеркнув, что граждане США не должны оплачивать повышенные счета за электричество из-за дата-центров. Администрация президента работает с ключевыми технологическими компаниями для получения от них соответствующих обязательств. Трамп сообщил, что первой в списке станет Microsoft, которая уже сотрудничает с властями по данному вопросу. Это новая задача для президента, в прошлом году пообещавшего представителям технологической олигархии, что та получит столько энергии, сколько необходимо для сохранения лидерства США в сфере ИИ. Microsoft уже ответила на инициативу Трампа, представив т.н. проект Community-First AI Infrastructure. В компании утверждают, что намерены быть «хорошим соседом» в тех сообществах, где они строят ЦОД, владеют и управляют ими. Президент компании Брэд Смит (Brad Smith) заявил, что технологические компании имеют уникальную возможность обеспечить преимущества, которые ожидаются от внедрения ИИ, но в то же время несут ответственность за новые вызовы, которые это внедрение создаёт. В июне 2025 года один из представителей Microsoft жаловался, что есть сообщества, не желающие присутствия компании, а также на «отсутствие понимания» того, почему дата-центры необходимы, со стороны широкой общественности. Инициатива Community-First AI Infrastructure Initiative предоставляет рамочную программу для того, чтобы справляться с подобными вызовами, и связана с пятью обязательствами Microsoft:
Утверждается, что Microsoft будет запрашивать у коммунальных компаний цены на электричество, достаточно высокие, чтобы покрывать его стоимость для ЦОД компании, включая стоимость расширения инфраструктуры электроснабжения. Впрочем, Смит также отметил, что ИИ принесёт столько благ, что общество само должно помочь оплатить дополнительное электричество, в котором нуждается страна. Дополнительно Microsoft вновь подтвердила, что сохраняет и приверженность снижению объёмов используемой воды для ЦОД, к 2030 году интенсивность использования воды дата-центрами должна снизиться на 40 %. Впрочем, как сообщалось в 2023 году, год к году использование воды компанией только выросло на 34 % до 6,4 млн м3. Также Microsoft обязуется создавать новые рабочие места, хотя противники дата-центров отмечают, что тысячи человек нужны только на время строительства ЦОД, а в ходе их эксплуатации может хватить и 50. Впрочем, несмотря на весь оптимизм, Смит пришёл к выводу, что расширение инфраструктуры всегда сопряжено с трудностями, финансовыми затратами и неизбежно порождает опасения и споры. В Microsoft считают, что частные компании могли бы помочь, поскольку техногигантам не удастся преодолеть неизбежные вызовы в одиночку. Хотя многие эксперты опасаются пузыря на рынке ИИ, способного вызвать непредсказуемые последствия для всех сфер жизни, JPMorgan прогнозирует, что затраты на дата-центры и ИИ-инфраструктуру составят $5 трлн, а спрос будет «астрономический». Тем временем, как сообщалось в декабре 2025 года, в США стартовало расследование, касающееся влияния ИИ ЦОД на рост тарифов на электроэнергию.
14.01.2026 [09:45], Владимир Мироненко
Самая загадочная сделка 2025 года: зачем NVIDIA потратила $20 млрд на Groq?Сделка NVIDIA с ИИ-стартапом Groq, фактически означающая его поглощение, вызвала вопросы по поводу целей, которые преследует лидер ИИ-рынка. Для того, чтобы избежать волокиты с одобрением сделки регулирующими органами и антимонопольных расследований, NVIDIA провела её под видом приобретения неисключительной лицензии на технологии Groq. В результате сделки ключевые кадры Groq перешли в NVIDIA, а остатки команды во главе с финансовым директором продолжат управлять инфраструктурой GroqCloud и вряд ли смогут сохранить былую конкурентоспособность стартапа. Похожую сделку NVIDIA провела немногим ранее, фактически поглотив стартап Enfabrica, занимавшийся разработкой интерконнекта. В случае с Enfabrica, по слухам, сумма сделки составила $900 млн. Это большая сумма для стартапа, находящегося на ранней стадии, но вполне обоснованная в нынешних условиях, пишет EE Times. Groq — более крупный стартап, но и стоимость сделки гораздо выше — $20 млрд при последней оценке стартапа на уровне $6,9 млрд. Если в отношении Enfabrica предполагалось, что сделка была связана, хотя бы частично, с наймом персонала, то для Groq такая большая сумма вряд ли выглядит оправданной, если речь идёт только о привлечении квалифицированных кадров. Можно допустить, что NVIDIA планирует выпускать чипы Groq. Их упомянул в электронном письме сотрудникам гендиректор NVIDIA Дженсен Хуанг: «Мы планируем интегрировать процессоры Groq с низкой задержкой в архитектуру NVIDIA AI Factory, расширив платформу для обслуживания ещё более широкого спектра задач ИИ-инференса и рабочих нагрузок в реальном времени». Вместе с тем в ходе CES 2026 Хуанг заявил, что технология Groq не станет частью основного портфолио NVIDIA для ЦОД. «[Groq] — это совсем, совсем другое, и я не ожидаю, что что-либо заменит то, что мы делаем с Vera Rubin и нашим следующим поколением, — сказал Хуанг. — Однако мы могли бы добавить его технологию таким образом, чтобы что-то постепенно улучшить, чего мир ещё не смог сделать». Судя по фразе «могли бы», NVIDIA пока окончательно не определилась с тем, что будет делать с активами Groq. Технология Groq позволит решать задачи, которые недоступны для Vera Rubin, в частности, сверхбыстрый инференс в реальном времени, пишет EE Times. Можно предположить, что NVIDIA будет производить и развёртывать чипы Groq как отдельное решение в ЦОД. Хотя Хуанг и сказал об интеграции чипов Groq с архитектурой NVIDIA AI Factory, это всё ещё кажется несколько надуманным, так как означает признание NVIDIA в том, что её GPU не вполне подходят для некоторых рабочих нагрузок. Однако Дженсен Хуанг в очередной раз подчеркнул на CES 2026, что гибкости GPU вполне хватит для любых нагрузок. Впрочем, анонс соускорителей Rubin CPX говорит скорее об обратном. У Groq есть собственный программный стек, но насколько он хорош, сказать трудно. Для перезапуска технологий Groq в качестве продукта NVIDIA потребуется немало работы над ПО, а полноценная интеграция в программную экосистему может оказаться очень сложной. Более реалистичным вариантом может быть использование чиплета Groq вместе с большим чиплетом GPU для обработки определённых нагрузок, но и в этом случае ПО станет камнем преткновения, поскольку аппаратная часть принципиально слабо совместима с CUDA. Возникает вопрос: «Что же есть у Groq, чего нет у NVIDIA?». Одним из ответов может быть детерминизм — концепция, лежащая в основе архитектуры LPU Groq, которую компания пыталась продвинуть в автомобильной промышленности в 2020 году. Детерминизм имеет существенные преимущества для приложений, требующих функциональной безопасности, включая робототехнику — Хуанг в письме, упомянутом выше, говорит о «приложениях реального времени». Но для этого NVIDIA придется изменить свою риторику, признав, что для периферийных вычислений её ускорители подходят не всегда. В любом случае, у NVIDIA имеются огромные ресурсы и команда квалифицированных специалистов. Если бы она захотела создать ИИ-ускоритель, ориентированный на работу со SRAM, а не HBM, это обошлось бы гораздо дешевле уплаченных за Groq $20 млрд. Кроме того, утверждает EE Times, она могла бы за существенно меньшую сумму пробрести d-Matrix или даже SambaNova, которая готова продаться Intel всего за $1,6 млрд. Как полагают аналитики EE Times, помимо лицензирования технологии и найма специалистов Groq, в принятии решения купить стартап также сыграли роль коммерческие факторы. Groq имеет обширные партнёрские отношения с крупными компаниями стран Персидского залива. У стартапа также есть соглашения о суверенном ИИ и в других странах, что могло показаться привлекательным для NVIDIA. Тем не менее, одним из главных аргументов в пользу покупки Groq до сих пор было то, что это вполне жизнеспособная и недорогая альтернатива NVIDIA для построения суверенной ИИ-инфраструктуры. То есть покупку Groq можно также объяснить желанием помешать одному из клиентов-гиперскейлеров купить Groq, будь то из-за аппаратной интеллектуальной собственности или уже развёрнутой инфраструктуры. Это может быть Meta✴, Microsoft или даже OpenAI, чьи планы по созданию собственного ИИ-оборудования всё ещё находятся на стадии подготовки или пока имеют умеренный успех, тогда как Google уже готов отдать «на сторону» свои ускорители TPU, а AWS со своими Trainium всё-таки готова сотрудничать с NVIDIA по аппаратной части. В свою очередь, аналитики ресурса The Register объясняют покупку Groq за столь крупную сумму интересом NVIDIA к «конвейерной архитектуре» (dataflow) стартапа, которая, по сути, создана специально для ускорения вычислений линейной алгебры, выполняемых в ходе инференса. Стоит отметить, что архитектуры с управляемым потоком данных не ограничиваются проектами, ориентированными на SRAM. Например, NextSilicon использует HBM. Groq выбрал SRAM только потому, что это упростило задачу, но нет никаких причин, по которым NVIDIA не могла бы создать dataflow-ускоритель на основе IP-блоков Groq, используя SRAM, HBM или GDDR, пишет The Register. Правильно реализовать такую архитектуру очень сложно, но Groq удалось заставить её работать надлежащим образом, по крайней мере, для инференса, утверждает The Register. Таким образом, Groq даст NVIDIA оптимизированную для инференса вычислительную архитектуру, чего ей так сильно не хватало, полагают аналитики ресурса. Именно этого и не хватает NVIDIA, поскольку у неё фактически нет выделенных чипов для этой задачи. Ситуация изменится с запуском NVIDIA Rubin в 2026 году и их «напарников» Rubin CPX. При этом ускорители Groq LPU в силу малого объёма SRAM для обработки современных LLM необходимо объединять в кластеры из десятков и сотен чипов. Это верно и для других ускорителей примерно того же типа, включая Cerebras. Вместе с тем LPU, по мнению The Register, теоретически могут пригодиться для т.н. спекулятивного декодирования, когда малая модель, не больше нескольких миллиардов параметров, используется для предсказания ответов большой модели. Если малая модель правильно «угадывает» их, общая производительность инференса может вырасти в два-три раза. Стоит ли такая опция $20 млрд, вопрос отдельный, но Хуанг, по-видимому, играет вдолгую.
14.01.2026 [01:29], Владимир Мироненко
Безоблачно: США запретили Китаю удалённый доступ к передовым ИИ-ускорителямПалата представителей США приняла подавляющим большинством «Закон о безопасности удалённого доступа» (Remote Access Security Act). Как сообщается на сайте Специального комитета Палаты Представителей США по стратегическому соперничеству между Соединёнными Штатами и Компартией Китая (CCP), этот закон расширяет действие «Закона о реформе экспортного контроля», позволяя федеральным властям «ограничивать возможности иностранных противников получать удалённый доступ к технологиям, включая ИИ-чипы, через облачные вычислительные сервисы». Проще говоря, теперь китайским компаниям запрещён доступ к передовым ускорителям в ЦОД и облаках за пределами КНР. Хотя экспорт ускорителей NVIDIA H200 теперь разрешён, поставка в Китай более мощных чипы на базе архитектуры Blackwell по-прежнему запрещена, как и ускорителей с новой архитектурой Vera Rubin. Новый закон призван перекрыть пробелы в законодательстве США, которыми с успехом пользуются китайские компании, получая доступ к находящимся под санкциями ИИ-ускорителям, покупая или арендуя их для использования на территории США. О таких обходных путях стало известно в 2024 году, когда выяснилось, что ByteDance, китайский владелец TikTok, арендовал передовые чипы NVIDIA у Oracle, пишет Data Center Dynamics. Как передаёт The Register, китайские компании обходят экспортные ограничения на высокопроизводительные ускорители NVIDIA и другие чипы, получая к ним доступ через такие платформы, как AWS и Azure, по крайней мере, с 2023 года. The Register также ранее сообщал, что китайские облачные провайдеры, такие как Alibaba и Tencent, могут предоставлять доступ к находящимся под экспортными ограничениями GPU клиентам в Китае, арендуя облачное оборудование, размещённое за пределами страны. В свою очередь, Microsoft и AWS предлагают в Китае через местных партнёров облачные услуги, в целом аналогичные тем, что доступны в других странах. «Амбиции КПК в области ИИ подпитываются доступом к американским чипам, размещённым в ЦОД за пределами Китая, — заявил председатель Специального комитета по Китаю, один из соавторов законопроекта. — Этот законопроект переводит наши законы в цифровую эпоху и ясно даёт понять, что облачные вычисления подпадают под действие американского законодательства об экспортном контроле, так же как и физические чипы. Устранение этих лазеек укрепит национальную безопасность США и защитит американские инновации». Новый закон теоретически может целиком перекрыть бизнес некоторых азиатских компаний. После появления сообщения о том, что NVIDIA потребует от китайских клиентов, приобретающих ускорители H200, полной предоплаты, чипмейкер выступил с опровержением, заявив агентству Reuters, которое первым сообщило об этом что «никогда не будет требовать от клиентов оплаты за продукцию, которую они не получают». В начале декабря администрация Трампа разрешила NVIDIA продавать H200 «одобренным клиентам» в Китае и других странах при условии выплаты 25-% пошлины. В свою очередь, китайское правительство попросило технологические компании страны приостановить оформление заказов на ускорители, пока регулирующие органы не определятся с соотношением приобретаемых чипов H200 и отечественных чипов «в нагрузку» к ним.
13.01.2026 [15:37], Руслан Авдеев
Стартап DayOne Data Centers привлёк более $2 млрд в раунде финансирования серии CОснованная в 2022 году компания DayOne Data Centers (ранее GDS International) сингапурского происхождения привлекла более $2 млрд в ходе раунда финансирования серии C для своих проектов дата-центров, сообщает Silicon Angle. Раунд возглавила компания Coatue, приняли участие и некоторые другие институциональные инвесторы, включая индонезийский фонд национального благосостояния. Ранее сообщалось, что DayOne получила $3,5 млрд на развитие ЦОД в малазийском Джохоре. Флагманский проект компании в финском городе Лахти (Lahti) площадью около 10 га обойдётся в €1,2 млрд, ввод в эксплуатацию запланирован на начало 2027 года. При полной загрузке речь будет идти о 120 МВт вычислительной инфраструктуры. Дата-центр будет по возможности использовать фрикулинг для экономии электроэнергии и воды. Объект оптимизирован для стоек с СЖО, оснащённых чипами NVIDIA. В Сингапуре компания строит 20-МВт объект, оснащённый твёрдооксидными топливными элементами, работающими на водороде.
Источник изображения: DayOne DayOne применяет предварительно собранные на заводе модульные конструкции. Компания заявляет, что такой подход ускоряет процесс строительства и снижает его стоимость. Возможностей компании хватит для выпуска до 2,5 тыс. модулей в год общей IT-мощностью 500 МВт. В своих ЦОД компания использует стек кастомного ПО для управления стойками с ИИ-ускорителями. Привлечённые средства используют для финансирования строительных проектов в Финляндии, Сингапуре, Японии и на некоторых других рынках. Компания сообщила, что уже зарезервировала мощности под клиентские заявки приблизительно на 1 ГВт. DayOne — как минимум третий оператор ЦОД, закрывший крупный раунд финансирования в последние месяцы. ИИ-облако Lambda привлекло более $1,5 млрд в ноябре 2025 года (перед выходом на IPO она хочет привлечь ещё $350 млн). Nscale к началу октабря также получила более $1,5 млрд в двух раундах инвестиций.
13.01.2026 [14:29], Руслан Авдеев
Поставки меди достигнут максимума на пике спроса — но их может не хватить из-за бума ИИЭксперты IT-отрасли обеспокоены ситуацией с поставками меди. Согласно результатам недавнего исследования, спрос, вероятно, превысит предложение в течении десятилетия. Это угрожает ограничить мировое технологическое развитие, сообщает The Register. Электрификация промышленности, транспорта и подогреваемый ИИ бум в сфере IT-инфраструктуры сказывается на спросе на медь, используемой буквально повсеместно, от питающих кабелей до интерконнектов и плат. Исследование S&P Global позволяет предположить, что мировое производство этого металла достигнет пика в 2030 году, составив 33 млн т, в то время как спрос продолжит расти и к 2040 году достигнет 42 млн т — это на 50 % больше, чем сегодня. В результате возникнет дефицит в объёме порядка 10 млн т без дальнейшего существенного увеличения добычи, что может привести к стремительному росту цен на медь, из-за которого производство электротоваров и IT-оборудования значительно подорожает. Цена металла по данным некоторых источников уже достигла рекорда в конце 2025 года. Хотя S&P назвала доклад «Медь в эпоху ИИ» (Copper in the Age of AI), бум ИИ ЦОД не является определяющим фактором при расчётах. На первый план выходит «домашняя» электрификация по всему миру, включая развивающиеся страны. Важное влияние оказывает и развитие рынка электромобилей, солнечной и ветряной генерации, а также расширение ЛЭП. И хотя мировой спрос на медь растёт, поставки в настоящее время падают, поскольку имеющиеся ресурсы истощаются.
Источник изображения: AnimGraph Lab/unsplash.com Первичные поставки металла горнодобывающим сектором переживают не лучшие времена, поскольку отрасль столкнулась с недостатком руд с высоким содержанием меди, ростом затрат и усложнением самой добычи. При этом ввод в эксплуатацию новых месторождений в среднем требует 17 лет. По данным доклада PricewaterhouseCoopers (PwC), добыче меди мешает и изменение климата — отрасль требует стабильных источников воды, хотя месторождения нередко находятся в засушливых регионах. Поставки за счёт переработки вторичного сырья, по данным S&P, не могут в полной мере компенсировать дефицит. Переход телеком-компаний на оптоволоконные кабели может высвободить до 800 тыс. т меди из кабелей, но аналитики уверены, что на переработанную медь к 2040 году придётся лишь треть от всех поставок металла. Его будет недоставать даже с учётом «агрессивного» совершенствования технологий сбора. Чтобы удовлетворить спрос, потребуются немалые усилия и инновации. S&P Global призывает сократить время выдачи разрешений, чтобы уменьшить сроки разработки месторождений, обеспечить стабильные условия инвестиций, внедрение новых технологий и расширение перерабатывающих мощностей вне уже существующих центров. На долю Китай приходится 40–50 % мировых мощностей по выплавке и переработке меди, поэтому цепочке поставок могут угрожать геополитические потрясения, особенно на фоне опасений, связанных с доминированием Китая в сфере редкоземельных металлов и не самых передовых, но весьма востребованных полупроводников.
Источник изображения: omid roshan/unsplash.com Так или иначе, первичное производство остаётся единственным настоящим решением для компенсации дефицита, но наращивание добычи и выплавки потребует значительных усилий и инвестиций. Как заявляют в S&P, будущие поставки меди зависят не только от геологов, инженеров, логистики и инвестиций, но и менеджмента и политиков. Отмечается, что выплавка и переработка является критически важным этапом в цепочке поставок, особенно если добывающие мощности сконцентрированы в ограниченном числе стран. В докладе подчёркивается, что для создания более надёжной системы поставок меди необходимо многостороннее сотрудничество и большая региональная диверсификация. При этом в сложившихся геополитических условиях само многостороннее сотрудничество надладить не всегда просто. Ещё в 2024 году сообщалось, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и чистой меди. В августе 2025 года эксперты BloombergNEF (BNEF) пришли к выводу, что рост дата-центров усугубит нехватку и без того дефицитного металла.
13.01.2026 [14:14], Руслан Авдеев
Meta✴ создаёт подразделение Meta✴ Compute для строительства ИИ ЦОД на десятки гигаваттКомпания Meta✴ Platforms запускает новое подразделение Meta✴ Compute, задачей которого станет надзор за проектами строительства ИИ ЦОД, активно реализуемыми IT-гигантом в последнее время. Meta✴ имеет масштабные планы расширения инфраструктуры, сообщает Silicon Angle. Курировать соответствующие проекты будет глава глобальных инфраструктурных проектов компании Сантош Джанардхан (Santosh Janardhan) совместно с одним из основателем Safe Superintelligence Дэниелем Гроссом (Daniel Gross). По словам главы Meta✴ Марка Цукерберга (Mark Zuckerberg), компания намерена ввести в эксплуатацию новую инфраструктуру ЦОД, потребляющую десятки гигаватт ещё в этом десятилетии и сотни гигаватт — в долгосрочной перспективе. Главной целью Meta✴ Compute является систематическое расширение ИИ-инфраструктуры в масштабе, выходящем далеко за пределы традиционного масштабирования ЦОД. Хотя Meta✴ уже управляет глобальной сетью гигантских дата-центров, речь идёт о беспрецедентных нововведениях.
Источник изображения: Adeolu Eletu/unspalsh.com ИИ-модели потребуют десятки гигаватт вычислительных мощностей, поэтому компания нуждается в покупке всё больших объёмов передового оборудования и строительства сотен зданий для его размещения. Создавая специальную организацию для решения соответствующих задач, компания рассчитывает заранее обеспечить доступ к земле, оборудованию и энергии, а не пытаться решать проблемы «на лету». Джанардхан сконцентрируется на технических аспектах строек Meta✴, включая стратегию развития, архитектуру систем компании, создание собственных чипов, ПО и инструментов разработки. Он же будет отвечать за повседневную работу ЦОД. Гросс возглавит новую группу, отвечающую за долгосрочное планирование создания новых мощностей и выстраивание цепочек поставок для обеспечения компании чипами, серверами и сетевым оборудованием для оснащения новых дата-центров. В частности, в сферу его ответственности входит упреждающее определение будущих вычислительных потребностей Meta✴, управление стратегическими отношениями с поставщиками, разработка и планирование новых бизнес-моделей, поддержка экспансии компании на многогигаваттном уровне и др. По словам Цукерберга, новая инициатива также позволит централизовать управление технологическим стеком компании — от программного обеспечения и архитектуры систем до чипов, сетей и ЦОД, что обеспечит максимально эффективное принятие любых инвестиционных решений. Кроме того, Meta✴ сможет отделить тактические задачи от долгосрочного стратегического планирования мощностей и создания цепочек поставок. Джанардхан и Гросс будут совместно работать с Диной Пауэлл МакКормик (Dina Powell McCormick) — новым президентом и вице-председателем компании. Одна из её задач — обеспечить соответствие многомиллиардных инвестиций в инфраструктуру стратегическим целям и добиться ощутимых экономических выгод в регионах присутствия. Также новый топ-менеджер отвечает за укрепление новых стратегических капитальных альянсов для усиления долгосрочной инвестиционной способности Meta✴. Создание Meta✴ Compute также может улучшить контроль отчётности в связи с её масштабными строительными проектами. В финансовом 2025 году капитальные расходы компании составили $72 млрд, большая часть средств ушла на ИИ ЦОД. Эти инвестиции ещё должны окупиться, поскольку самая передовая ИИ-модель компании — Llama 4 получила весьма сдержанные отклики. Хотя Meta✴ во многом сделала себе имя на рынке ИИ благодаря open source моделям, Llama 4 считается многими экспертами менее «сообразительной», чем ведущие базовые модели компаний уровня Google и OpenAI.
12.01.2026 [14:41], Сергей Карасёв
ASRock Rack показала ИИ-сервер на базе NVIDIA HGX B300 с СЖО ZutaCore HyperCoolКомпания ASRock Rack на выставке CES 2026 продемонстрировала ИИ-сервер 4U16X-GNR2/ZC, первая информация о котором была раскрыта в октябре прошлого года. Новинка создана в партнёрстве с разработчиком систем жидкостного охлаждения ZutaCore. Устройство выполнено в форм-факторе 4U. Возможна установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP). Доступны 32 слота для модулей оперативной памяти DDR5, три разъёма PCIe 5.0 x16 для карт FHHL и два сетевых порта 1GbE на базе контроллера Intel I350-AM2. Задействована аппаратная платформа NVIDIA HGX B300. Для отвода тепла используется система прямого жидкостного охлаждения ZutaCore HyperCool. Это двухфазное решение основано на применении специальной диэлектрической жидкости, которая не вызывает коррозии. Утверждается, что конструкция HyperCool безопасна для IT-оборудования и гарантирует сохранение работоспособности даже в случае утечки. СЖО поставляется в полностью собранном виде, что сокращает время монтажа в стойку. Сервер 4U16X-GNR2/ZC оборудован 12 фронтальными отсеками для SFF-накопителей с интерфейсом PCIe 5.0 x4 (NVMe); допускается горячая замена. Кроме того, есть внутренний разъём для одного SSD типоразмера М.2 (PCIe 5.0 x2). За питание отвечают десять блоков мощностью 3000 Вт с сертификатом 80 Plus Titanium. Габариты машины составляют 900 × 448 × 175 мм. Отмечается, что в стандартной стойке 42U могут быть размещены до восьми подобных серверов, что обеспечивает высокую плотность вычислительной мощности для наиболее ресурсоёмких нагрузок ИИ.
12.01.2026 [13:53], Руслан Авдеев
xAI представила тарифы Grok Business и Grok Enterprise для бизнес-пользователейКомпания xAI официально начала освоение рынка ИИ-сервисов для бизнес-пользователей. В самом конце декабря она представила два новых тарифа: Grok Business и Grok Enterprise. Предполагается, что они должны способствовать внедрению ИИ-моделей в компаниях для решения повседневных задач, причём со встроенными возможностями контроля настроек безопасности, конфиденциальности и др., сообщает Channel insider. Таким образом xAI выходит на высококонкурентный рынок корпоративных ИИ-инструментов. Аналогичные предложения уже имеются у OpenAI, Anthropic, Google и др. Для xAI это также означает переход от сервисов для индивидуальных экспериментов к предоставлению возможностей для выполнения совместных задач. Grok Business рассчитан на команды небольших и средних размеров и стоит $30/мес. за каждого пользователя. Предлагаются встроенные инструменты управления командами и организации общения, централизация платежей и контроль использования ПО. Другими словами, команды могут совместно работать в среде Grok, делиться результатами, а также подключать популярные инструменты вроде Google Drive, чтобы ИИ мог работать с информацией, которая уже использовалась. Grok Enterprise имееть расширенную функциональность для более крупных организаций. Цена не разглашается, но основной акцент будет сделан на ужесточении контроля и надзора. В частности, речь идёт о поддержке единой авторизации в масштабах всей компании, автоматизированном управлении профилями пользователей и функциями безопасности, разработанными для более крупных и сложных программных сред. В xAI утверждают, что оба плана построены с учётом необходимости обеспечивать корпоративную безопасность и конфиденциальность. Как подчёркивают в компании, корпоративная защита и конфиденциальность встроены в системы с самого начала — Grok не будет обучаться на предоставляемых клиентками данных.
Источник изображения: xAI Одна из наиболее примечательных функций — способность Grok работать с большими массивами документов. Grok обеспечивает агентный поиск с помощью Collections API. Это позволяет ИИ-модели использовать крупные хранилища документов в качестве первоочередных источников информации. Это может быть полезным, если необходим, например, анализ юридических документов или построение финансовых моделей. В ответы могут включаться цитаты, напрямую ведущие к исходным документам, с возможностью предварительного просмотра и выделения контекста. Для организаций со специальными требованиями к обеспечению безопасности материалов xAI предлагает вариант Enterprise Vault. Это даёт компаниям больше контроля над тем, как обрабатываются их данные, с предоставлением сопутствующей инфраструктуры, дополнительных уровней шифрования, которыми управляет сам пользователь, а не xAI. xAI утверждает, что данные зашифрованы как при передаче, так и при хранении. Тариф Enterprise также обеспечивает соответствие строгим требованиям: обеспечено соответствие инфраструктуры и процессов стандарту безопасности SOC 2 и нормативным актам (включая GDPR и CCPA). Также в его рамках предоставляется доступ к наиболее передовыми ИИ-моделям компании Grok 3, Grok 4 и Grok 4 Heavy. В то же время xAI продолжает наращивать инфраструктуру, необходимую для поддержки соответствующих проектов. Так, речь идёт о строительстве третьего дата-центра в штате Миссисипи (США). На днях появилась информация, что она привлекла $20 млрд на развитие бизнеса. |
|

