Материалы по тегу: hardware
|
04.12.2025 [16:13], Руслан Авдеев
TikTok вложит более $37 млрд в постройку дата-центра в БразилииСоциальная сеть TikTok китайской компании ByteDance инвестирует более R$200 млрд ($37,7 млрд) в строительство ЦОД в Бразилии, сообщает Bloomberg. Он станет первым объектом TikTok в Латинской Америке. Впервые новости о его возможном строительстве появились ещё в апреле 2025 года. TikTok намерена сотрудничать с компанией Omnia, специализирующейся на строительстве ЦОД, а также Casa dos Ventos — одним из ключевых поставщиков возобновляемой энергии в Бразилии. Как сообщает TikTok Brazil, компании примут участие в совместном строительстве ЦОД в северо-восточном штате Сеара (Ceara). Проект, реализация которого запланирована близ порта Песен (Pecem), будет целиком запитан «чистой» электроэнергией ветряных электростанций. Проект — одна из крупнейших инвестиций китайских компаний в создание ЦОД. Параллельно Alibaba Group и Tencent Holdings включаются в гонку с американскими гиперскейлерами по развитию ИИ-объектов. Инвестиции ByteDance в Бразилии распределят на 10 лет и позволят создать порядка 4 тыс. рабочих мест. Бразилия считается в регионе наиболее привлекательной страной для внешних инвестиций в ИИ-проекты. Она располагает многочисленными источниками возобновляемой энергии, имеет национальную энергетическую сеть со связанными между собой территориями, а также охвачена высокоскоростными ВОЛС. Кроме того, Китай является ключевым партнёром Бразилии и стремится расширять региональные связи — при этом отношения Бразилии с США оставляют желать лучшего. Порт Песен находится неподалёку от крупного хаба, где сходятся подводные интернет-кабели, с посадочной станцией в городе Форталеза (Fortaleza). Благодаря им обеспечивается один из кратчайших маршрутов для данных из Бразилии в Европу и Африку. В сентябре бразильскими властями подписаны распоряжения о временных мерах, стимулирующих строительство компаниями дата-центров в Бразилии, в т.ч. разрешено импортировать часть оборудования без уплаты налогов. TikTok использует ЦОД по всему миру для хранения и резервного копирования пользовательских данных. В последние годы социальная сеть активнее размещает большие объёмы данных в региональных ЦОД на фоне опасений местных властей по поводу безопасности пользовательской информации. Так, в прошлом году компания начала строить ЦОД в Финляндии для размещения информации о европейских пользователях, который дополнит ЦОД в Ирландии и Норвегии. В США Oracle предоставляет TikTok облачные площадки для защиты данных американцев от работающих в Китае сотрудников ByteDance. Также компания развивает ЦОД в Таиланде и Малайзии. При этом американская Bain Capital продала Chindata, оператора ЦОД TikTok в Китае. Развитие в Бразилии важно для TikTok, поскольку компания так и не смогла найти вариант спасения своего сервиса от блокировки в США. Месяц назад китайское правительство пообещало Вашингтону сотрудничество при решении судьбы американского сегмента TikTok, но не поддержало выделение TikTok в отдельное предприятие, которое принадлежало бы преимущественно американским инвесторам. Согласно прошлогоднему указу «О защите американцев от контролируемых иностранными противниками приложений» (Protecting Americans from Foreign Adversary Controlled Applications Act), ByteDance должна или продать TikTok в США, или уйти из страны, однако исполнение указа неоднократно переносилось.
04.12.2025 [15:49], Сергей Карасёв
Лаборатория МФТИ получила российский JBOG-массив RSC ScaleStream-C для решения сложных ИИ-задачЛаборатория машинного обучения в науках о Земле Московского физико-технического института (МФТИ) взяла на вооружение внешний массив PCIe-коммутации RSC ScaleStream-C, разработанный российской группой компаний РСК. Это решение предназначено для выполнения ресурсоёмких задач, связанных с ИИ. RSC ScaleStream-C представляет собой JBOG-платформу в форм-факторе 3U, допускающую установку до десяти карт с интерфейсом PCIe 4.0 x16 (могут применяться карты разной ширины), которая может быть подключена к четырём серверам. Мощности ускорителей могут динамически перераспределяться между серверами. По заявлениям РСК, такой подход позволяет значительно увеличить утилизацию GPU (в некоторых случаях на десятки процентов) по сравнению со стандартными конфигурациями, когда карты устанавливаются непосредственно в серверы. Лаборатория получила массив RSC ScaleStream-C с четырьмя GPU (модель не уточняется). В перспективе могут быть добавлены дополнительные карты. Предполагается, что система поможет ускорить выполнение задач, связанных с базовыми высокоразрешающими ИИ-моделями атмосферы, океана и климата. Ожидается, что применение RSC ScaleStream-C позволит Лаборатории машинного обучения в науках о Земле существенно расширить возможности уже имеющегося оборудования при работе с ИИ-моделями. Основным направлением деятельности Лаборатории является создание ИИ-методов для моделирования атмосферы, океана и климата, а также для обработки данных в фундаментальных и прикладных задачах морской геологии, морской биологии, экологии моря, метеорологии, в области взаимодействия океана и атмосферы, городской микрометеорологии и пр. Специалисты лаборатории занимаются обработкой данных натурных наблюдений и измерений в метеорологии и океанологии, экологическим мониторингом, моделированием природных процессов и другими задачами, для которых требуются значительные вычислительные ресурсы.
04.12.2025 [14:36], Владимир Мироненко
Nebius готова к трудным временам, рассчитывая на эффективность выбранной модели работы на ИИ-рынкеПоставщик облачных ИИ-решений Nebius Group N.V., успевший за непродолжительное время после выделения из бывшей материнской структуры «Яндекса» Yandex N.V. заключить крупные контракты с Microsoft и Meta✴, планирует использовать полученные средства для развития своего бизнеса в сфере ИИ как с крупными игроками, так и со стартапами, которые со временем могут стать технологическими гигантами, заявил соучредитель Nebius Роман Чернин (Roman Chernin) в интервью агентству Reuters. Благодаря сделкам с Microsoft и Meta✴ акции Nebius, котирующиеся на Nasdaq, взлетели в этом году на 248 %, что увеличило её рыночную капитализацию до более чем $25 млрд. В настоящее время компания расширяет свою клиентскую базу, особенно учитывая появившиеся опасения, что пузырь ИИ уже набирает обороты, говорит Чернин. Вместе с тем Nebius настроена оптимистично, утверждает он, отметив, что спады — вполне естественное явление во время технологической революции, но рынок услуг по предоставлению компаниям доступа к ИИ-инфраструктуре может вырасти в десять, а то и в сто раз, поскольку компании находятся в самом начале использования ИИ-моделей, которые тоже стремительно развиваются. В то же время компания готовится к трудным временам, развивая высокорентабельные услуги и долгосрочные отношения. «Мы должны быть готовы к “зиме”», — заявил Чернин, добавив, что Nebius выступит в качестве консолидатора. Он отметил, что компании только начинают пользоваться сервисам Nebius. Её клиенты представляют такие секторы, как производство, розничная торговля и банковское дело, при этом сотрудничество с фармацевтическими компаниями и финансовыми учреждениями, такими как хедж-фонды, развивается быстрее. При поддержке NVIDIA, которая является одним из её инвесторов, Nebius предлагает доступ к инфраструктуре на базе её ускорителей, являясь крупнейшим в Европе неооблаком, отметило Reuters. Преимуществом Nebius является то, что вместе с «железом» она предлагает ПО, необходимое для его эффективного использования и запуска специализированных ИИ-приложений, что позволяет ей конкурировать как с традиционными операторами ЦОД, так и с гиперскейлерами. Хотя основным рынком Nebius по выручке и установленной мощности являются США, у неё также есть ЦОД в Европе, в том числе в Великобритании, Исландии, Финляндии и Франции. К концу 2026 года компания планирует увеличить мощность своих объектов до 2,5 ГВт на фоне высокого спроса на свои услуги. По данным компании CBRE, за девять месяцев 2025 года объём мощностей, проданных европейским неооблакам, вырос год к году на 211 % до 414 МВт. Чернин подчеркнул, что заключая сделки с гиперскейлерами, Nebius отдавала приоритет рентабельности, а не выручке. После сделки с Microsoft компания привлекла $4,2 млрд в рамках IPO и от продажи конвертируемых облигаций. Поначалу клиентскую базу Nebius составляли компании, работающие в сфере ИИ, такие как французский разработчик ИИ-моделей Mistral, американский поставщик ПО Cursor и немецкая компания Black Forest, специализирующаяся на визуальном ИИ. По словам Чернина, эти компании имеют все возможности для того, чтобы превратиться в крупных игроков. Он сообщил, что свой рост в 2026 году Nebius планирует обеспечить за счёт существующих цифровых компаний, таких как Shopify, Prosus и ServiceNow, которые всегда полагались на американские облачные сервисы, но видят преимущества в специализированных предложениях Nebius в области ИИ, что подтверждает правильность выбранной компанией модели. Говоря о более далёкой перспективе, Чернин выразил надежду, что после 2027 года Nebius будет предоставлять услуги крупным компаниям, что принесёт больше пользы европейскому суверенитету, чем привлечение инвестиций в крупные ЦОД со стороны американских компаний. «Куда пойдут Siemens и BMW, когда им потребуется широкомасштабное внедрение ИИ?» — задаётся вопросом Чернин, добавив, что цель Nebius — «быть востребованной на этом рынке».
04.12.2025 [14:19], Руслан Авдеев
Cambricon Technologies утроит выпуск ИИ-чипов, чтобы заместить ускорители NVIDIA в КитаеКитайская Cambricon Tecnologies намерена в 2026 году более чем втрое увеличить выпуск ИИ-чипов. Предполагается, что это поможет ей отвоевать в КНР долю рынка у Huawei и заполнить вакуум, образовавшийся после вынужденного ухода с рынка NVIDIA, сообщает Bloomberg. По словам источников, знакомых с ситуацией, пекинская компания намерена поставить в 2026 году 500 тыс. ИИ-ускорителей. В том числе речь идёт о 300 тыс. наиболее современных чипов Siyuan 590 и 690. В первую очередь будет использоваться производственный техпроцесс SMIC, известный как 7-нм «N+2». Китайские производители чипов стремительно развиваются после того, как Пекин в 2025 году начал активно препятствовать использованию ускорителей NVIDIA на территории КНР. Это часть долгосрочной стратегии по обретению независимости от американских технологий. В 2026 году вдвое нарастить производство самых передовых ИИ-чипов намерена и Huawei. Перспективная Moore Threads Technology также намерена дебютировать с новыми продуктами. В ноябре глава NVIDIA Дженсен Хуанг (Jensen Huang) жаловался, что деятельность его компании фактически блокируется в Китае, что может привести усилению конкуренции на внутреннем рынке местных игроков. Хотя американские власти рассматривают разрешение продаж в КНР ускорителей NVIDIA H200, нет гарантий, что Пекин не будет препятствовать их распространению.
Источник изображения: Cambricon Cambricon стала одним из главных бенефициаров ситуации, в сентябрьском квартале увеличив выручку в 14 раз год к году. Её рыночная капитализация взлетела девятикратно в сравнении с 2021 годом. Теперь у неё все шансы получить крупнейшие заказы от китайских ИИ-гигантов, включая Alibaba Group. Одним из основных заказчиков считается ByteDance, на её долю уже приходится более 50 % заказов Cambricon. Достижение Cambricon своих целей не в последнюю очередь зависит от способности получить доступ к производственным мощностям китайской SMIC — главного контрактного производителя материкового Китая. Проблема в том, что на те же мощности претендует Huawei, а также другие компании. В 2025 году, по оценкам Goldman Sachs, Cambricon выпустит всего 142 тыс. ИИ-чипов. Препятствием могут стать и возможности самой SMIC. При выпуске передовых Cambricon Cambricon 590 и 690 процент выхода годных чипов составляет всего 20 %, что значительно повышает их себестоимость. Для сравнения, у тайваньской TSMC процент выхода составляет не менее 60 % в рамках 2-нм техпроцесса, который, по некоторым оценкам, опережает технологии SMIC на три поколения — приблизительно на семь лет. Ещё одна проблема — дефицит высокоскоростной памяти. С этой технологии имеются проблемы у китайских производителей, например, новейшие ускорители Huawei 910С по-прежнему используют южнокорейские модули SK Hynix и Samsung Electronics.
Источник изображения: Cambricon Тем не менее, стремление Пекина к «полупроводниковому суверенитету» может привлечь только в 2025 году $98 млрд в развитие ИИ-технологий. Huawei и Cambricon — лишь крупнейшие компании быстрорастущей отрасли. В гонку включились и быстро развивающиеся конкуренты вроде Hygon, и стартапы уровня Moore Threads и MetaX. В долгосрочной перспективе поставки отечественных ИИ-чипов будут иметь для китайских игроков от DeepSeek до Alibaba решающее решение — они надеются на равных конкурировать с OpenAI и Google. Китай раскритиковал попытки США ограничить поставки американских ИИ-чипов в страну и заявил, что будет наращивать внутренний потенциал, чтобы минимизировать зависимость от политических капризов Вашингтона. Как заявляют эксперты Bloomberg, хотя новые инициативы Huawei, Baidu и Cambricon привели к заметному росту поставок в Китае ИИ-ускорителей местного производства, существующий в стране спрос эта продукция удовлетворить не может. Дисбаланс усугубляется высоким процентом брака 7-нм техпроцесса SMIC, что, вероятно, не изменится в ближайшем будущем. При этом направление развития, вероятно, останется неизменным, поскольку неопределённость относительно доступности чипов NVIDIA подталкивает китайские ИИ-компании к выбору местных поставщиков ускорителей. В Bloomberg утверждают, что в итоге не исключено «раздвоение» глобальной экосистемы ИИ на китайскую и американскую.
04.12.2025 [12:21], Руслан Авдеев
Скромно, но со вкусом: Vultr при поддержке AMD построит за $1 млрд ИИ-кластер с 24 тыс. Instinct MI355XОблачный провайдер Vultr строит кластер мощностью 50 МВт из ИИ-ускорителей AMD в дата-центре в Огайо. Новый проект призван обеспечить дополнительные вычислительные мощности по сниженным ценам, сообщает Bloomberg. Поддерживаемая AMD компания намерена инвестировать в объект более $1 млрд, клиенты смогут обучать и эксплуатировать ИИ-модели. Ввод в эксплуатацию запланирован на I квартал 2026 года. Vultr входит в группу облачных провайдеров, желающих заработать на ажиотажном спросе на ИИ. Новый кластер гораздо меньше гигантских объектов Microsoft, Meta✴ и Google. При этом вычислительные мощности, по словам компании, будут предлагаться по более доступным тарифам. Облако Vultr, как правило, вдвое дешевле, чем предложения гиперскейлеров, сообщают в компании. Утверждается, что её 50-МВт ЦОД с 24 тыс. AMD Instinct MI355X сопоставим с некоторыми гигаваттными проектами по эффективности. Vultr одной из первых получила MI355X, а вскоре перейдёт на MI450. Кластер называют «беспрецедентным» для облачной компании такого масштаба, но для него пока нет готовых к подписанию соглашений клиентов, хотя активные переговоры уже ведутся. По имеющимся данным, действующие клиенты вроде Clarifai Inc. и LiquidMetal AI, а также биотехнологическая MindWalk Holdings уже пользуются сервисами Vultr на базе решений AMD. В общей сложности компания обслуживает «сотни тысяч» клиентов в 185 странах. Vultr была основана в 2014 году и многие годы предлагала доступ к решениям на базе CPU. В 2021 году Vultr начала закупать GPU. В последние пару лет ИИ-инфраструктура стала самой быстрорастущей частью бизнеса компании, т.ч. теперь она обеспечивает большую часть выручки. В 2026 году бизнес намерен уделять ИИ ещё больше внимания. В прошлом году компания привлекла $333 млн, в ходе раунда, возглавленного LuminArx Capital Management и AMD, её капитализация составила $3,5 млрд. В июне 2025 года дополнительно получены $329 млн кредитного финансирования, преимущественно от JPMorgan Chase, Bank of America и Wells Fargo. В эту сумму вошли $74 млн, обеспеченных активами комапнии, в т.ч. ИИ-ускорителями. Vultr значительно расширила кредитную линию для финансирования кластера AMD. Разрабатывающие ИИ-инфраструктуру компании всё чаще опасаются, что отрасль ожидает формирование пузыря. Также не исключается, что ИИ-ускорителя быстро обесценятся, что тоже способно привести рынок к кризису. В Vultr уверены, что ИИ-инфраструктура всё ещё остаётся «крайне неразвитой», даже если некоторые, чрезвычайно разросшиеся на этом рынке IT-гиганты, вероятно, потерпят неудачу. Что касается времени «обесценивания» технологий, Vultr уверена, что срок службы в шесть лет для ИИ-ускорителей — «разумная, консервативная оценка».
04.12.2025 [09:48], Владимир Мироненко
Частное ИИ-облако под ключ: Amazon представила AWS AI Factory для развёртывания в собственных ЦОД заказчиковAmazon представила AWS AI Factory — выделенную ИИ-инфраструктуру, включающую ускорители NVIDIA, чипы Trainium, а также сетевые решения, хранилища и базы данных AWS, которую можно развернуть в собственных ЦОД клиентов, обеспечивая их потребность в реализации суверенитета и соблюдении нормативных требований. «Клиенты могут использовать пространство своего существующего ЦОД, сетевое подключение и электроэнергию, в то время как AWS берет на себя все сложности развёртывания и управления интегрированной инфраструктурой», — пояснила компания. AWS отметила, что организации в регулируемых отраслях и государственном секторе при развёртывании своих масштабных проектов в сфере ИИ сталкиваются с проблемой их размещения в соответствующей требованиям инфраструктуре. Создание собственной ИИ-инфраструктуры требует значительных капиталовложений в покупку ускорителей, (до-)оснащение ЦОД и электроэнергию, а также сложных циклов закупок, выбора ИИ-модели для конкретного сценария использования и лицензирования моделей у разных поставщиков ИИ-технологий. Это требует много времени и усложняет эксплуатацию, отвлекая клиентов от основных бизнес-целей. AWS AI Factory позволяет решить эту проблему путём развёртывания готовой к использованию выделенной ИИ-инфраструктуры AWS в собственных дата-центрах клиентов. AWS AI Factory функционирует как частный облачный регион AWS, предоставляя безопасный доступ с низкой задержкой к вычислительным ресурсам, хранилищу данных, базам данных и ИИ-сервисам AWS для обучения и инференса ИИ-моделей. Кроме того, предоставляются управляемые сервисы, обеспечивающие доступ к ведущим базовым моделям без необходимости заключения отдельных контрактов с их поставщиками. Всё это помогает организациям соблюдать требования безопасности, суверенитета данных и нормам обработки и хранения данных, экономя усилия по развёртыванию и управлению инфраструктурой. Компания отметила, что AWS AI Factory разработаны в соответствии со строгими стандартами безопасности AWS, обеспечивая выполнение самых важных рабочих нагрузок на всех уровнях секретности: «Несекретно», «Конфиденциально», «Секретно» и «Совершенно секретно». AWS AI Factory — совместный проект AWS и NVIDIA, благодаря чему клиенты получат доступ к ПО NVIDIA и множеству приложений с ускорением на базе GPU. AWS Nitro и EC2 UltraClasters поддерживают платформы Grace Blackwell и Vera Rubin. AWS и NVIDIA также сотрудничают в рамках стратегического партнёрства с HUMAIN из Саудовской Аравии. AWS создаёт в Саудовской Аравии первую в своём роде «Зону искусственного интеллекта» (AI Zone) в кампусе HUMAIN, включающую до 150 тыс. ИИ-чипов, в том числе ускорители NVIDIA GB300 и Amazon Trainium, выделенную ИИ-инфраструктуру и ИИ-сервисы AWS.
03.12.2025 [20:51], Владимир Мироненко
HPE одной из первых начнёт выпускать интегрированные стоечные ИИ-платформы AMD Helios AI
amd
broadcom
epyc
hardware
hpc
hpe
instinct
juniper networks
mi400
ocp
ualink
venice
германия
ии
суперкомпьютер
AMD объявила о расширении сотрудничества с HPE, в рамках которого HPE станет одним из первых поставщиков стоечных систем AMD Helios AI, которые получат коммутаторы Juniper Networking (компания с недавних пор принадлежит HPE), разработанные совместно с Broadcom, и ПО для бесперебойного высокоскоростного подключения по Ethernet. AMD Helios AI — открытая полнофункциональная ИИ-платформа на базе архитектуры OCP Open Rack Wide (ORW), разработанная для крупномасштабных рабочих нагрузок и обеспечивающая FP4-производительность до 2,9 Эфлопс на стойку благодаря ускорителям AMD Instinct MI455X, процессорам EPYC Venice шестого поколения и DPU Pensando Vulcano, работающими под управлением открытой программной экосистемы ROCm для нагрузок ИИ и HPC. Как отметил The Register, сетевая архитектура этой системы будет представлять собой масштабируемую реализацию UALink over Ethernet (UALoE) и специализированным коммутатором Juniper Networks на базе сетевого чипа Broadcom Tomahawk 6 (102,4 Тбит/с). Система разработана для упрощения развёртывания крупномасштабных ИИ-кластеров, что позволяет сократить время разработки решений и повысить гибкость инфраструктуры. В отличие от NVIDIA, AMD не выпускает коммутаторы, предлагая открытую экосистему, так что HPE и другие компании могут интегрировать собственные сетевые решения. The Register полагает, что HPE и Broadcom решили не гнаться за отдельной аппаратной реализацией UALink, если данные можно передавать поверх Ethernet. «Это первое в отрасли масштабируемое решение, использующее Ethernet, стандартный Ethernet. Это означает, что оно полностью соответствует открытому стандарту и позволяет избежать привязки к проприетарному поставщику, использует проверенную сетевую технологию HPE Juniper для обеспечения масштабируемости и оптимальной производительности для рабочих нагрузок ИИ», — заявила HPE. HPE заявила, что это позволит её стоечной системе поддерживать трафик, необходимый для обучения модели с триллионами параметров, а также обеспечить высокую пропускную способность инференса. Стоечная система HPE будет включать 72 ускорителя AMD Instinct MI455X с 31 Тбайт HBM4 с агрегиированной пропускной способностью 1,4 Пбайт/с. Агрегированная скорость интерконнекта составит 260 Тбайт/с. Новинка будет доступна в 2026 году. AMD также сообщила, что Herder, новый суперкомпьютер для Центра высокопроизводительных вычислений в Штутгарте (HLRS) (Германия), получит Instinct MI430X и EPYC Venice. Он будет построена на платформе HPE Cray Supercomputing GX5000. Поставка Herder запланирована на II половину 2027 года, а ввод в эксплуатацию — к концу 2027 года. Herder заменит используемый центром суперкомпьютер Hunter.
03.12.2025 [17:56], Руслан Авдеев
Арифметика не сходится: без прорыва инвестиции в ИИ не окупятся «ни при каких обстоятельствах», заявила глава IBMПо словам генерального директора IBM Арвинда Кришны (Arvind Krishna), занимающиеся ИИ-проектами компании тратят миллиарды долларов в гонке за создание «общего искусственного интеллекта» (AGI), способного сравняться с человеком или заменить его. Но в экономической целесообразности таких проектов он сомневается, сообщает Business Insider. По его словам, расходы на ИИ-инфраструктуру постоянно растут, но компании, вероятно, «никаким образом» не смогут окупить такие затраты на дата-центры. По грубым оценкам бизнесмена, сегодня для дата-центра мощностью 1 ГВт требуется около $80 млрд. Если компания намерена построить дата-центры на 20–30 ГВт, её понадобится $1,5 трлн капиталовложений. При этом уже через пять лет ИИ-чипы в ЦОД потеряют актуальность, после чего будет необходимо всё «выбросить и заменить». Как заявил Кришна, если смотреть на инвестиции в сфере разработки AGI, то они составляют около 100 ГВт. При текущем уровне затрат на инфраструктуру общая стоимость гонки составит приблизительно $8 трлн. По словам Кришны, никакой прибыли ждать не приходится, поскольку только для выплаты процентов с $8 трлн кредитов потребуется около $800 млрд ежегодно. При этом без внешней финансовой и иной помощи не обойтись. В октябрьском послании к американским властям глава OpenAI Сэм Альтман (Sam Altman) рекомендовал США строить по 100 ГВт генерирующих мощностей в год, а сама OpenAI обязалась потратить около $1,4 трлн на различные сделки. Кришна не вполне согласен с Альтманом. Глава IBM вообще не уверен, что доступные сегодня технологии в принципе позволят создать AGI. Вероятность появления AGI без технологической революции Кришна оценил не более в чем 1 %. Простым масштабирование вычислительных мощностей, по-видимому, не обойтись. Скептически к идее ускорения создания AGI отнеслись и некоторые другие лидеры технологических компаний. Глава Salesforce Марк Бениофф (Marc Benioff) заявлял, что с «крайним подозрением» относится к продвижению AGI, сравнив процесс с гипнозом. Руководивший проектом Google Brain Эндрю Ын (Andrew Ng) говорил, что AGI «переоценен», а генеральный директор Mistral Артур Менш (Arthur Mensch) назвал AGI «маркетинговым ходом». По словам соучредителя OpenAI Ильи Суцкевера, эпоха масштабирования прошла, и даже стократное увеличение масштаба LLM не поможет сделать настоящий качественный скачок. Мир снова возвращается в эпоху исследований, только с очень большими компьютерами. Сам Кришна ничего против ИИ как такового не имеет. По его словам, ИИ-инструменты позволят предприятиям повысить эффективность, дав им триллионы долларов. Тем не менее, для AGI нужно больше технологий, чем просто современные LLM. Для его создания понадобится объединить LLM с «фундаментальными знаниями» (hard knowledge). Но даже в этом случае вероятность создания AGI можно отнести лишь к категории «возможно». Хотя оптимистичный прогноз NVIDIA снизил опасения по поводу возможного возникновения «пузыря» на рынке ИИ, о возможности его появления эксперты и участники отрасли высказывались неоднократно. При этом в ноябре The Wall Street Journal рассказал, что IT-гиганты вкладывают в отрасль всё больше средств, без оглядки на опасения.
03.12.2025 [16:39], Сергей Карасёв
ВТБ: к 2030 году энергопотребление дата-центров в России вырастет вдвоеВ течение ближайших пяти лет доля потребления электроэнергии российскими ЦОД и майнинговыми фермами может увеличиться примерно в 2,5 раза по сравнению с текущим показателем, достигнув 2 %. Об этом в кулуарах 16-го инвестиционного форума ВТБ «Россия Зовёт!» сообщил член правления банка Виталий Сергейчук. По его словам, от доступности электроэнергии во многом зависит успех цифровой трансформации российской экономики. Энергопотребление дата-центров быстро растёт на фоне стремительного внедрения ИИ и приложений НРС. В таких условиях требуется не только масштабная модернизация устаревшей энергосистемы, но и строительство новых объектов генерации. «Мы видим самый высокий уровень отложенного спроса на финансирование со стороны электроэнергетических компаний по сравнению с другими отраслями. Строительство новых энергетических мощностей потребует почти 6 трлн руб. капитальных затрат до 2030 года. ВТБ является одним из ключевых банков России с компетенциями в области электроэнергетики и участвует в инвестиционных отраслевых проектах», — сказал Сергейчук. Отмечается также, что в 2024 году в России зафиксирован рекордный темп прироста потребления электроэнергии — 3,1 % в годовом исчислении. В 2025-м показатель снизился примерно до 1 %, что связано с запретом майнинга криптовалют в ряде регионов. Но в 2026 году, как ожидается, рост снова ускорится, достигнув 2 % или более. Этому будут способствовать несколько факторов, включая увеличение промышленного производства, расширение транспортных систем, жилищное строительство, повышение спроса на кондиционеры на фоне активного развития внутреннего туризма, а также дальнейшее расширение инфраструктуры дата-центров. Согласно прогнозам, потребление электроэнергии в России к 2050 году вырастет на 38% по сравнению с 2024-м, составив 1624 млрд кВт·ч.
03.12.2025 [13:40], Руслан Авдеев
ИИ-столбы: британский стартап Conflow Power разместит NVIDIA Jetson в уличных фонаряхБританский стартап Conflow Power Group намерен разместить ИИ-оборудование в уличных фонарях. Речь идёт об «умных» фонарях компании iLamp, которые дооснастят вычислительными модулями NVIDIA Jetson, сообщает Datacenter Dynamics. Базовый вариант модели сегодня обойдётся в £7,5 тыс. ($9,9 тыс.). Компания заявляет, что покупатели могли бы зарабатывать сами, требуя плату с ИИ-провайдеров за использование ИИ-оборудования. Ранее в 2025 году Conflow Power анонсировала проект iLamp — обычный фонарный столб, дополненный солнечными панелями и аккумуляторами. Кроме того, конструкция предусматривала поддержку 5G и Wi-Fi, модули управления дорожным движением, видеонаблюдение, датчики контроля окружающей среды и прочие компоненты. Для работы собственно iLamp требуется 80 Вт, но внешнее оборудование вроде Jetson сможет получать до 200–260 Вт.
Источник изображения: Conflow Power Group Conflow Power даже заявляет, что классические ЦОД можно заменить на iLamps, оснащённые модулями NVIDIA Jetson. Фактически речь идёт о создании распределённого дата-центра — экологически безопасного, не требующего водных ресурсов и с низкой задержкой, поскольку серверы находятся рядом с пользователями, говорит компания. По имеющимся данным, Conflow уже ведёт переговоры с несколькими компаниями и даже правительствами о внедрении новой технологии. Ранее в этом году бельгийский стартап Tonomia объявил о сотрудничестве с британским поставщиком ИИ-оборудования Panchaea для формирования eCloud — распределённой ИИ-платформы, размещаемой в системах солнечных панелей на автопарковках. Правда, eCloud предполагает использование более традиционных edge-серверов, а не Jetson AGX Thor или IGX Thor. |
|
