Лента новостей
|
07.01.2026 [16:47], Владимир Мироненко
В попытке догнать Broadcom: Marvell купила за $540 млн XConn, разработчика коммутаторов PCIe и CXLПосле объявления о заключении окончательного соглашения о приобретении XConn Technologies, поставщика передовых коммутаторов PCIe и CXL, акции Marvell Technology пошли в гору — их цена выросла на 4 %, сообщил ресурс SiliconANGLE. Сумма сделки составляет около $540 млн. Примерно 60 % будет выплачено наличными и 40 % — акциями Marvell, при этом стоимость последних будет определяться на основе средневзвешенной цены за 20 дней. По словам Marvell, приобретение позволит ей расширить портфель коммутационных решений продуктами XConn PCIe и CXL, а также укрепить команду по разработке решений UALink высококвалифицированными инженерами XConn с глубокими знаниями в области высокопроизводительной коммутации. Коммутация необходима для соединения большого количества ИИ-микросхем в гигантские кластеры для запуска мощных больших языковых моделей. Компания XConn, основанная в 2020 году и финансируемая частными инвесторами, выпустила в марте 2024 года первый в отрасли коммутатор Apollo с поддержкой CXL 2.0 и PCIe 5.0, обеспечивающий 256 линий. Его выпускает TSMC с использованием техпроцессов N16 и N5, сообщил ресурс Data Center Dynamics. Затем она выпустила в марте 2025 года гибридный коммутатор Apollo 2, объединяющий CXL 3.1 и PCIe 6.2 на одном чипе в конфигурациях от 64 до 260 линий. Когда-то Marvell считалась одной из самых перспективных компаний после NVIDIA, и многие эксперты полагали, что она станет одним из главных бенефициаров бума ИИ. Однако она по-прежнему уступает по темпам развития NVIDIA, а заодно и своему основному конкуренту Broadcom, который разрабатывает чипы как минимум для четырёх гиперскейлеров. Покупка XConn призвана исправить ситуацию, дополняя недавнее приобретение Celestial AI. По словам Marvell, приобретение XConn добавит проверенные коммутационные продукты PCIe и CXL, IP-решения и инженерные кадры для расширения команды по масштабируемым коммутаторам UALink. «В сочетании с предстоящим приобретением Celestial AI мы будем иметь все возможности для предоставления клиентам производительности, гибкости и архитектурного выбора, необходимых им по мере роста размеров и сложности ИИ-систем», — отметил он. Сделка позволит Marvell расширить свой общий целевой рынок (Total Addressable Market, TAM) за счёт освоения растущих возможностей коммутаторов PCIe и CXL. PCIe-коммутаторы становятся критически важным строительным блоком для ИИ-инфраструктуры. В то же время CXL необходим для дезагрегации памяти в современных ЦОД. Сочетание контроллеров памяти Marvell CXL с коммутаторами XConn CXL позволит создать самый обширный в отрасли портфель коммутаторов для поддержки ресурсоёмких ИИ-задач. На данный момент у XConn насчитывается более чем 20 клиентов. Marvell ожидает, что продукты XConn CXL и PCIe начнут приносить доход во II половине 2027 финансового года. Также ожидается, что в результате сделки Marvell получит около $100 млн дополнительного дохода в 2028 финансовом году.
07.01.2026 [14:17], Руслан Авдеев
Не только баги, но и настоящий бэкдор: британская техподдержка Fujitsu Horizon была набрана из «легализованных хакеров»В скандале с печально известной системой Fujitsu Horizon для Почты Великобритании наметился неожиданный сюжетный поворот. Согласно новым данным, Horizon страдала не только от багов в области бухучёта, из-за которых по обвинению в воровстве были осуждены сотни невиновных сотрудников почтовых отделений — деньги вполне могли украсть сотрудники службы технической поддержки Horizon, причём так, что об этом никто бы никогда не догадался, сообщает Computer Weekly. Ричард Ролл (Richard Roll), работавший на третьей линии службы поддержки Horizon в 2001–2004 гг., дал показания в суде, которые помогли пострадавшим почтовым клеркам. По данным бывшего сотрудника Fujitsu, правила аудита удалённого доступа могли игнорироваться группой «легализованных» хакеров, способных использовать бэкдоры для доступа к счетам почтовых отделений. Ролл был опрошен ещё в 2015 году, но детали были обнародованы на фоне предстоящей встречи главы европейского подразделения Fujitsu с британским Комитетом по вопросам бизнеса и торговли (Business and Trade Committee). В 2015 году, через несколько месяцев после того, как Fujitsu отстранили от расследования инцидентов с Horizon, Ролл показал, что сотрудники японской компании могли обходить аудит удалённого доступа к счетам. По его словам, система была полна «дыр», а сотрудники техподдержки были «легализованными хакерами», которые «могли взломать что угодно». По словам Ролла, специалисты службы поддержки на деле никогда не воровали денег, но вполне могли бы, воспользовавшись бэкдорами. Во всяком случае, во время его работы коллеги в подобном замечены не были.
Источник изображения: Clint Patterson/unsplash.com В 2018–2019 гг. Ролл также давал показания в интересах пострадавших, судившихся с Почтой Великобритании. Около 800 сотрудников почт на основе данных Horizon ошибочно обвинили в финансовых преступлениях в 2000–2015 гг. В результате многие сотрудники лишились средств к существованию, а их привычным жизням пришёл конец после предъявления обвинений. На момент выявления инцидентов Почта Великобритании использовала свои полномочия, чтобы направлять дела управляющих почтовыми отделениями в суд или принуждать к заключению сделок о признании вины. Впоследствии почтовое ведомство, наконец, признало возможность скрытого удалённого доступа. В 2023 году возможность бесконтрольного доступа, в том числе к счетам почтовых отделений, признал и бывший IT-руководитель Fujitsu — фактически сотрудники компании могли скрыть изменения в информационных системах от управляющих, а компании буквально приходилось верить в их добросовестность, без контроля реальной активности. Информация о скандале с британскими почтами появилась более 15 лет назад, с тех пор с переменным успехом ведётся расследование, в ходе которого почта и Fujitsu пытаются переложить вину друг на друга (с точки зрения суда виноваты обе стороны). В конце 2024 года Fujitsu заявляла, что неоднократно предупреждала Почту Великобритании о проблемах с ПО Horizon. Впрочем, в октябре 2025 года появилась информация, что компания влила £280 млн в британское подразделение в преддверии выплат компенсаций жертвам. Сама Fujitsu начала терять контракты с британскими госслужбами и задумалась о сокращении штата ради экономии.
07.01.2026 [12:23], Руслан Авдеев
xAI привлекла $20 млрд в раунде финансирования, возглавленном NVIDIA и CiscoИИ-стартап xAI, основанный и поддерживаемой Илоном Маском (Elon Musk), объявил о том, что привлёк $20 млрд в ходе раунда позднего финансирования. В раунде серии E приняли участие NVIDIA и Cisco, сообщает Silicon Angle. К ним присоединились Valor Equity Partners, Stepstone Group, Fidelity Management & Research, Qatar Investment Authority, MGX, Baron Capital Group и другие инвестиционные структуры. В ноябре сообщалось, что следующий раунд финансирования позволит оценить компанию в $230 млрд. Компания намерена использовать капитал для расширения своей ИИ-инфраструктуры. Она обучает флагманские ИИ-модели серии Grok с использованием суперкомпьютеров Colossus. Недавно Маск анонсировал, что компания приобрела новый дата-центр для увеличения вычислительной мощности. По слухам, ЦОД находится недалеко от электростанции, которую xAI строит, чтобы удовлетворить растущие потребности Colossus в энергии. По данным Маска, запланированные доработки Colossus увеличат энергопотребление до 2 ГВт. Маск уже похвалил недавно представленные ускорители NVIDIA Rubin. Судя по новостям об участии NVIDIA в финансировании xAI, высока вероятность, что новые чипы будут активно применяться для расширения проекта Colossus. Помимо строительства новой инфраструктуры, xAI будет использовать собранные средства для запуска новых продуктов. Компания объявила, что речь идёт о разработках как для пользовательского, так и для корпоративного рынков. В декабре 2025 года xAI представила корпоративную версию Grok, предусматривающую интеграцию Google Drive. Сотрудники компаний могут использовать чат-бот для поиска материалов, хранящихся в облачном хранилище. Тариф Grok Enterprise также предусматривает доступ к инструментам по обеспечению кибербезопасности. Использующие его организации могут задавать настройки доступа и использовать собственные ключи шифрования для защиты бизнес-данных. В ближайшие месяцы xAI намерена обеспечить интеграцию со сторонними сервисами помимо Google Drive. Компания также добавит и новые функции, включая возможность создания кастомных ИИ-агентов. Обновления должны выйти одновременно с премьерой флагманской ИИ-модели Grok 5. Компания сообщила, что её обучение уже началось. Последний раунд финансирования состоялся всего через неделю после того, как OpenAI, по слухам, получила $22,5 млрд от ключевого инвестора SoftBank Group. Средства поступили в рамках раунда финансирования на $40 млрд, объявленного ещё в марте 2025 года. Как и xAI, компания OpenAI активно строит инфраструктуру ИИ ЦОД для поддержки обучения ИИ-моделей нового поколения.
07.01.2026 [07:01], Владимир Мироненко
Lenovo показала концепт ИИ-хаба Lenovo Personal AI Hub Concept для обработки ИИ-приложений в экосистеме устройств пользователяLenovo продемонстрировала на выставке CES 2026 концепт ИИ-хаба Lenovo Personal AI Hub Concept, получивший кодовое название Project Kubit. Как сообщает компания, персональный ИИ-хаб — периферийное облачное устройство для поддержки ИИ-приложений в экосистеме потребителя, включающей ПК, смартфоны, носимые устройства и решения для умного дома. В частности, Lenovo Personal AI Hub собирает данные с различных платформ, предоставляя пользователю доступ к новым уровням аналитики и ИИ-приложениям, обеспечивая высокопроизводительные персональные вычисления с использованием ИИ.
Источник изображения: Lenovo Lenovo Personal AI Hub Concept представляет собой систему из двух рабочих станций Lenovo ThinkStation PGX, соединённых с помощью адаптера NVIDIA ConnectX-7. Lenovo ThinkStation PGX использует для вычислений суперчип NVIDIA GB10, включающий ускоритель с архитектурой Blackwell и 20-ядерный Arm-процессор. Объём унифицированной оперативной памяти LPDDR5X-9400 составляет 128 Гбайт, ёмкость накопителя NVMe M.2 составляет до 4 Тбайт. Станция обеспечивает производительность 1 PFLOPS в вычислениях FP4. Система из двух станций поддерживает работу с ИИ-моделями размером до 405 млрд параметров. ИИ-хаб Lenovo Personal AI Hub поддерживает управление как с помощью касаний сенсорного экрана, так и с использованием голосовых команд.
06.01.2026 [22:15], Владимир Мироненко
AMD анонсировала чипы Ryzen AI Embedded серий P100 и X100AMD представила процессоры AMD Ryzen AI Embedded серий P100 и X100, сочетающие высокопроизводительные ядра Zen 5, GPU RDNA 3.5 и NPU XDNA 2 для энергоэффективного ускорения ИИ. Процессоры серии P100 ориентированы на автомобильные решения и промышленную автоматизацию, а процессоры серии X100 с большим количеством ядер и повышенной ИИ-производительностью предназначены для более требовательных физических и автономных систем. Процессоры серии P100 с 4–6 ядрами, оптимизированные для цифровых кабин следующего поколения и HMI (человеко-машинных интерфейсов), обеспечивают рендеринг графики в реальном времени для автомобильных информационно-развлекательных дисплеев, взаимодействие на основе ИИ и быстродействие в многодоменных средах. Они обеспечивают до 2,2-кратное повышение производительности в многопоточных и однопоточных задачах по сравнению с предыдущим поколением. Чипы P100 имеют диапазон TDP от 15 Вт до 54 Вт, поддерживают память LPDDR5X и выполнены в BGA-корпусе размером 25 × 40 мм (FP8). Новые чипы с поддержкой работы при температуре от –40 °C до +105 °C созданы для сложных условий эксплуатации в ограниченном пространстве, включая безвентиляторные или полузащищённые конструкции, и рассчитаны на 10 лет работы в режиме 24/7. Чипы поддерживают память DDR5-5600 (ECC) и LPDRR5x-7500/8000 (Link ECC), а также имеют поддержку двух 10GbE-интерфейсов и двух USB4-подключений. AMD утверждает, что серия P100 обеспечивает до трёх раз большую ИИ-производительность (AI TOPS) по сравнению с серией Ryzen Embedded 8000. Это имеет важное значение для клиентов, модернизирующих существующие системы для достижения более высокой производительности ИИ на Ватт и на плату в целом, отметил ресурс Storagereview. Помимо автомобильного применения компания также ориентирует свои процессоры на вещательное оборудование, промышленные ПК, киоски, медицинские устройства и даже аэрокосмическую отрасль. Процессоры Ryzen AI Embedded обеспечивают согласованную среду разработки с унифицированным программным стеком, охватывающим CPU, GPU и NPU. Разработчики получат преимущества от оптимизированных библиотек CPU, открытых стандартных API GPU и архитектуры XDNA. Весь программный стек построен на базе открытой платформы виртуализации Xen, которая обеспечивает безопасную изоляцию нескольких доменов. Это позволяет использовать Yocto или Ubuntu для HMI, FreeRTOS для задач реального времени и Android или Windows для поддержки многофункциональных приложений, которые безопасно работают параллельно. Процессоры AMD Ryzen AI Embedded P100 с 4–6 ядрами, а также инструменты разработки и документация уже доступны для ознакомления избранным клиентам. Начало серийного производства чипов намечено на II квартал, а референсные платы появятся во II половине 2026 года. Процессоры серии P100 с 8–12 ядрами, предназначенные для приложений промышленной автоматизации, начнут поставляться в I квартале. Предоставление образцов процессоров серии X100 с до 16 ядер начнётся в I половине этого года.
06.01.2026 [14:28], Владимир Мироненко
NVIDIA объявила о запуске платформы Vera Rubin NVL72NVIDIA объявила о запуске платформы следующего поколения Rubin, которая приходит на смену Blackwell Ultra. Компания отметила, что платформа Rubin объединяет сразу пять инноваций, включая новейшие поколения интерконнекта NVIDIA NVLink, Transformer Engine, Confidential Computing и RAS Engine, а также процессор NVIDIA Vera. Примечательно, что NVIDIA снова решила вернуться к именованию на основе количества суперчипов (NVL72), а не ускорителей (NVL144), как обещала в прошлом году. Созданная с использованием экстремального совместного проектирования на аппаратном и программном уровнях, NVIDIA Vera Rubin обеспечивает десятикратное снижение стоимости токенов для инференса и четырёхкратное сокращение количества ускорителей для обучения моделей MoE по сравнению с платформой NVIDIA Blackwell. Коммутационные системы NVIDIA Spectrum-X Ethernet Photonics обеспечивают пятикратное повышение энергоэффективности и времени безотказной работы. Платформа Rubin построена на шести чипах — Arm-процессоре Vera, ускорителе Rubin, коммутаторе NVLink 6, адаптере ConnectX-9 SuperNIC, DPU BlueField-4 и Ethernet-коммутаторе NVIDIA Spectrum-6. Ускорители Rubin поначалу будут доступны в двух форматах. В первом случае — в составе стоечной платформы DGX Vera Rubin NVL72, которая объединяет 72 ускорителя Rubin и 36 процессоров Vera, NVLink 6, ConnectX-9 SuperNIC и BlueField-4. Также ускорители Rubin будут доступны в составе платформы DGX/HGX Rubin NVL8 на базе x86-процессоров. Обе платформы будут поддерживаться кластерами NVIDIA DGX SuperPod, сообщил ресурс CRN. Как отметила NVIDIA, разработанный для агентного мышления, процессор NVIDIA Vera является самым энергоэффективным процессором для крупномасштабных ИИ-фабрик. Он оснащён 88 кастомными Armv9.2-ядрами Olympus с 176 потоками с новой технологией пространственной многопоточности NVIDIA, 1,5 Тбайт системной памяти SOCAMM LPDDR5x (1,2 Тбайт/с), возможностями конфиденциальных вычислений и быстрым интерконнектом NVLink-C2C (1,8 Тбайт/с в дуплексе). NVIDIA Rubin с аппаратным адаптивным сжатием данных обеспечивает до 50 Пфлопс (NVFP4) для инференса, что в пять раз быстрее, чем Blackwell. Он также обеспечивает до 35 Пфлопс (NVFP4) в режиме, что в 3,5 раза быстрее, чем его предшественник. Пропускная способность 288 Гбайт HBM4 составляет 22 Тбайт/с, что в 2,8 раза быстрее предшественника, а пропускная способность NVLink на один ускоритель вдвое выше — 3,6 Тбайт/с (в дуплексе). NVIDIA также сообщила, что Vera Rubin NVL72 обладает 54 Тбайт памяти LPDDR5x, что в 2,5 раза больше, чем у Blackwell, и 20,7 Тбайт памяти HBM4, что на 50 % больше, чем у предшественника. Агрегированная пропускная способность HBM4 достигает 1,6 Пбайт/с, что в 2,8 раза больше, а скорость интерконнекта составляет 260 Тбайт/с, что вдвое больше, чем у платформы Blackwell NVL72, и «больше, чем пропускная способность всего интернета». Ожидаемый уровень энергопотребления составит от 190 до 230 кВт на стойку. Компания отметила, что Vera Rubin NVL72 — первая стоечная платформа, обеспечивающая конфиденциальные вычисления, которая поддерживает безопасность данных на уровне доменов CPU, GPU и NVLink. Коммутатор NVLink 6 с жидкостным охлаждением оснащён 400G-блоками SerDes, обеспечивает пропускную способность 3,6 Тбайт/с на каждый GPU для связи между всеми GPU, общую пропускную способность 28,8 Тбайт/с и 14,4 Тфлопс внутрисетевых вычислений в формате FP8. Хотя NVIDIA заявила, что Rubin находится в «полномасштабном производстве», аналогичные продукты от партнёров появятся только во II половине этого года. Среди ведущих мировых ИИ-лабораторий, поставщиков облачных услуг, производителей компьютеров и стартапов, которые, как ожидается, внедрят Rubin, компания назвала Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta✴, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab и xAI. ИИ-лаборатории, включая Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta✴, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab и xAI, рассматривают платформу NVIDIA Rubin для обучения более крупных и мощных моделей, а также для обслуживания мультимодальных систем с длинным контекстом с меньшей задержкой и стоимостью по сравнению предыдущими поколениями ускорителей. Партнёры по инфраструктурному ПО и хранению данных AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data и WEKA работают с NVIDIA над разработкой платформ следующего поколения для инфраструктуры Rubin. В связи с тем, что рабочие нагрузки агентного ИИ генерируют огромные объёмы контекстных данных, NVIDIA также представляла новую платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform — новый класс инфраструктуры хранения, разработанной для масштабирования контекста инференса. Сообщается, что платформа, работающая на базе BlueField-4, обеспечивает эффективное совместное использование и повторное применение данных KV-кеша в рамках всей ИИ-инфраструктуры, повышая скорость отклика и пропускную способность, а также обеспечивая предсказуемое и энергоэффективное масштабирование агентного ИИ. Дион Харрис (Dion Harris), старший директор NVIDIA по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, сообщил, что по сравнению с традиционными сетевыми хранилищами для данных контекста инференса, новая платформа обеспечивает до пяти раз больше токенов в секунду, в пять раз лучшую производительность на доллар и в пять раз лучшую энергоэффективность.
05.01.2026 [18:25], Владимир Мироненко
Anthropic купит сотни тысяч ИИ-ускорителей Google TPU напрямую у BroadcomAnthropic приобретёт около 1 млн Google TPU v7 (Ironwood) с тем, чтобы запустить их на контролируемых ею объектах, сообщил в соцсети Х ресурс SemiAnalysis. Ранее сообщалось, что примерно 400 тыс. компания купит напрямую у Broadcom в стойках за примерно $10 млрд, а остальные 600 тыс. единиц TPU v7 будут доступны посредством Google Cloud Platform (GCP) в рамках сделки на сумму около $42 млрд, что составляет большую часть увеличения портфеля заказов GCP на $49 млрд или на 46 %, о котором сообщалось в отчёте за III квартал 2025 года. В случае с закупаемыми напрямую ускорителями TeraWulf и Cipher Mining будут ответственны за инфраструктуру ЦОД, а европейское неооблако Fluidstack будет заниматься настройкой оборудования на месте, прокладкой кабелей, первичным тестированием, испытаниями при приёмке и удалённым обслуживанием, освободив Anthropic от бремени управления физическими серверами. По слухам, эти системы получат упрощённую топологию интерконнекта. Сделки Fluidstack с обоими операторами ЦОД, ранее ориентированными на криптомайнинг, финансово застрахованы Google, которая к тому же является совладельцем TeraWulf и может получить долю в Cipher Mining. Любопытно, что оба оператора частично связаны и с AWS. Хотя Google закупает TPU через Broadcom, которая тоже хочет свою маржу, это всё равно лучше, чем та маржа, что требует NVIDIA не только за продаваемые ускорители, но и за всю систему целиком, включая процессоры, коммутаторы, сетевые карты, системную память, кабели, разъёмы и т.п. По оценкам, SemiAnalysis, совокупная стоимость владения (TCO) на один чип Ironwood для полной конфигурации с топологией 3D-тор примерно на 44 % ниже, чем у серверов GB200, что с лихвой компенсирует примерно 10-% отставание TPU от GB200 по пиковым производительности и пропускной способности памяти. При этом реальная, а не теоретическая производительность (Model FLOP Utilization, MFU) у TPU, по мнению SemiAnalysis, может быть выше, чем у конкурентов. Основная причина заключается в том, что заявляемые NVIDIA и AMD показатели производительности (Флопс) значительно завышены. Даже в синтетических тестах, значительно отличающиеся от реальных рабочих нагрузок, Hopper достиг лишь около 80 % пиковой производительности, Blackwell — около 70 %, а серия MI300 от AMD — 50–60 %. Как полагают в SemiAnalysis, даже сдача ускорителей на сторону выгодна Google за счёт того, что TCO в пересчёте на час аренды может быть примерно на 30 % ниже, чем у GB200, и примерно на 41 % ниже, чем у GB300. Несмотря на высокий спрос, Google не может поставлять TPU в желаемом темпе, отметил SemiAnalysis, полагая, что основная проблема заключается в бюрократии Google — от первоначальных обсуждений до подписания генерального соглашения об оказании услуг (Master Services Agreement) проходит до трёх лет. Неооблака, включая Fluidstack, отличаются гибкостью и оперативностью, что облегчает им взаимодействие с новыми поставщиками услуг дата-центров, например, с реорганизованными криптомайнерами. Однако у неооблаков, среди инвесторов которых числится NVIDIA, таких как CoreWeave, Nebius, Crusoe, Together, Lambda, Firmus и Nscale, есть существенный стимул не внедрять конкурирующие технологии в своих дата-центрах: TPU, ускорители AMD и даже коммутаторы Arista — всё это под запретом. Это оставляет огромную нишу на рынке хостинга TPU, которая в настоящее время заполняется комбинацией майнеров криптовалют и Fluidstack, сообщил SemiAnalysis. По мнению SemiAnalysis, в ближайшие месяцы всё большему числу компаний-неооблаков предстоит принимать непростое решение между развитием возможностей хостинга TPU и получением квот на новейшие и лучшие системы NVIDIA Rubin.
03.01.2026 [15:08], Руслан Авдеев
Brookfield готова побороться с гиперскейлерами, запустив облако Radiant с «бюджетной» ИИ-инфраструктуройОдин из крупнейших управляющих инвестициями в альтернативные активы — компания Brookfield Asset Management может стать неожиданным соперником гиперскейлерам. Она намерена предложить собственные, недорогие облачные сервисы, сообщает Silicon Angle. Как свидетельствует доклад в The Information, компания планирует запустить облачный бизнес, который будет сдавать в аренду ИИ-чипы напрямую клиентам. Компания предложит бизнес-модель, которая позволит снизить стоимость строительства и эксплуатации ИИ ЦОД. Новый бизнес будет управляться подразделением Brookfield Radiant в связке с новой инфраструктурной программой стоимостью $100 млрд, анонсированной в ноябре 2025 года. Brookfield Artificial Intelligence Infrastructure Fund уже выделил на инициативу $10 млрд, половина из которых поступит от отраслевых партнёров, включая NVIDIA и Kuwait Investment Authority (KIA). Ранее Brookfield и Qatar Investment Authority (QIA) объявили о создании совместного предприятия на $20 млрд для инвестиций в ИИ-инфраструктуру в Катаре и на других международных рынках.
Источник изображения: Adeolu Eletu/unsplash.com Фонд поддерживает новые проекты ЦОД во Франции, Катаре и Швеции, а Radiant, как ожидается, первой получит право получить эти мощности. Если мощности не будут освоены, Brookfield планирует сдавать их в аренду сторонним операторам в рамках более традиционных схем. Если планы Brookfield действительно будут реализованы, Radiant теоретически сможет конкурировать с AWS и Microsoft Azure. Правда, основное преимущество Radiant перед остальными гиперскейлерами связано с многомиллиардными инвестициям Brookfield в энергетический сектор. В компании заявили, что такие актив смогли бы помочь контролировать ключевые элементы цепочки создания стоимости в сфере ИИ, что недоступно обычным облачным соперникам. Поскольку AWS, Microsoft и другим гиперскейлерам необходимо продемонстрировать отдачу от своих инвестиций в ИИ, запуск сервисов Radiant, вероятно, заставит их оптимизировать свою энергетическую логистику для своих дата-центров — для того, чтобы оставаться конкурентоспособными.
03.01.2026 [14:44], Руслан Авдеев
Китайская Kunlunxin, подразделение Baidu по выпуску ИИ-чипов, тайно подала заявку на IPOBaidu намерена выделить подразделения Kunlunxin, ответственное, в частности, за разработку ИИ-ускорителей, в отдельную структуру и провести его IPO в Гонконге. Это отражает стремление компании обеспечить себе полупроводниковую самодостаточность. Дочернее предприятие тайно подало заявление Гонконгской фондовой бирже. При этом детали, включая масштаб, структуру и время выхода на IPO, пока неизвестны, сообщает DigiTimes. Kunlunxin была основана в 2012 году как внутреннее подразделение Baidu, специализирующееся на разработке чипов для поддержки поискового, облачного бизнеса компании и её проектов в сфере ИИ-моделей. Со временем Kunlunxin превратилась в независимый бизнес, в котором Baidu сохранила контролирующую долю 59%. Ранее сообщалось что Kunlunxin в ходе недавнего раунда по привлечению средств оценивалась приблизительно в ¥21 млрд ($3 млрд). Успешный выход на IPO может обеспечить компании финансовые ресурсы и узнаваемое имя для скорейшего масштабирования, усиления программной экосистемы и обеспечения возможности конкуренции на более высоком уровне. Предложенное выделение бизнеса отражает стремление Baidu продвигать Kunlunxin в качестве независимого ценного актива и привлекать инвесторов, специализирующихся именно на ИИ-полупроводниках. Сама Baidu находится под давлением в связи с замедлением роста рекламных доходов и наращивает инвестиции в ИИ, чипы, системы автономного вождения, рассчитывая, что они станут новыми драйверами роста. Выход Kunlunxin на биржу также даст последней больше манёвренности при привлечении капитала напрямую и будет способствовать укреплению своего статуса в делах с клиентами, поставщиками и партнёрами. Впрочем, даже после выхода на биржу компания останется структурой Baidu.
Источник изображения: Kunlunxin Примечательно и время выхода, на фоне роста активности компаний, желающих выйти на IPO в Гонконге. Пекин стремится добиться самодостаточности на рынке чипов в ответ на ужесточение США экспортного контроля, касающихся передовых полупроводников. По данным Лондонской фондовой биржи (LSEG), IPO в Гонконге только в 2025 году привлекли более $36 млрд, это наиболее значимый результат с 2021 года. Выделение Kunlunxin имеет важное значение для всей индустрии, поскольку оно отражает то, как китайские технологические компании всё чаще отпускают подразделения, занимающиеся разработкой чипов, в более свободное плавание. Это упрощает доступ к капиталу, позволяет подстраивается под нужды рынка и ускоряет разработку продуктов, способных заменить ведущую мировые решения. Такие чипы всё активнее применяются при инференсе, в правительственных проектах, а также в облачных и телеком-инициативах, в которых имеет ключевое значение стоимость, стабильность поставок, и местное происхождение. На Гонконгскую биржу стремятся выйти и компании с материкового Китая. Так, разработчик ускорителей Biren уже привлекла $717 млн. Он присоединится к растущему числу китайских технологических компаний с материка, стремящихся к листингу в Гонконге, в числе которых ИИ-стартап MiniMax и ИИ-стартап Knowledge Atlas Technology (Zhipu AI). IPO Biren проходит на фоне дебюта её конкурентов Moore Threads и MetaX в декабре 2025 года на фондовой бирже в Шанхае, где их акции подскочили на сотни процентов.
02.01.2026 [22:40], Владимир Мироненко
«Маленький китайский дракон» Biren привлёк $717 млн в ходе IPOКитайский производитель ускорителей Shanghai Biren Intelligent Technology провёл в последний день 2025 года первичное публичное размещение акций (IPO) на гонконгской фондовой бирже, в результате которого привлёк сумму в эквиваленте $717 млн. Всего было продано 284,8 млн акций по $19,6 за единицу, что является верхней границей ценового диапазона, запрошенного Biren, сообщил ресурс SiliconANGLE. По данным ресурса, спрос на акции Biren среди институциональных инвесторов почти в 26 раз превысил предложение. Biren стала третьим китайским поставщиком видеокарт, вышедшим на биржу в декабре. До этого на бирже начали торги MetaX и Moore Threads, чьи акции в первые дни торгов взлетели в цене на 400 и 700 % соответственно. Это говорит о том, что акции Biren также могут вырасти в цене после начала торгов в пятницу. Biren, Enflame, MetaX и Moore Threads входит в число т.н. китайских «четырёх маленьких драконов» в сегменте GPU и ИИ-ускорителей. В документации для IPO компания Biren сообщила, что в 2024 году её выручка составила ¥336,8 млн (около $47,8 млн), прибыли пока нет. Объём незавершенных и заключённых контрактов составляет около $300 млн. Компания была основана в 2019 году, а три года спустя представила серверный ИИ-ускоритель BR100 на базе собственной архитектуры Bi Liren, изготовленный с использованием 7-нм техпроцесса TSMC и технологии упаковки CoWoS. По оценкам самой Biren, производительность BR100 сопоставима с NVIDIA A100.
Источник изображения: Biren Technology Также стало известно, что вскоре последует IPO китайской полупроводниковой компании. Производитель микросхем памяти CXMT объявил во вторник о планах продать 10,6 млрд акций на сумму $4,22 млрд. Вырученные от IPO средства компания планирует направить на финансирование исследовательских проектов в области DRAM и модернизации своих производственных линий. CXMT также строит завод по производству памяти HBM, который планирует запустить к концу 2026 года. |
|
