Материалы по тегу:
|
06.01.2026 [22:15], Владимир Мироненко
AMD анонсировала чипы Ryzen AI Embedded серий P100 и X100AMD представила процессоры AMD Ryzen AI Embedded серий P100 и X100, сочетающие высокопроизводительные ядра Zen 5, GPU RDNA 3.5 и NPU XDNA 2 для энергоэффективного ускорения ИИ. Процессоры серии P100 ориентированы на автомобильные решения и промышленную автоматизацию, а процессоры серии X100 с большим количеством ядер и повышенной ИИ-производительностью предназначены для более требовательных физических и автономных систем. Процессоры серии P100 с 4–6 ядрами, оптимизированные для цифровых кабин следующего поколения и HMI (человеко-машинных интерфейсов), обеспечивают рендеринг графики в реальном времени для автомобильных информационно-развлекательных дисплеев, взаимодействие на основе ИИ и быстродействие в многодоменных средах. Они обеспечивают до 2,2-кратное повышение производительности в многопоточных и однопоточных задачах по сравнению с предыдущим поколением. Чипы P100 имеют диапазон TDP от 15 Вт до 54 Вт, поддерживают память LPDDR5X и выполнены в BGA-корпусе размером 25 × 40 мм (FP8). Новые чипы с поддержкой работы при температуре от –40 °C до +105 °C созданы для сложных условий эксплуатации в ограниченном пространстве, включая безвентиляторные или полузащищённые конструкции, и рассчитаны на 10 лет работы в режиме 24/7. Чипы поддерживают память DDR5-5600 (ECC) и LPDRR5x-7500/8000 (Link ECC), а также имеют поддержку двух 10GbE-интерфейсов и двух USB4-подключений. AMD утверждает, что серия P100 обеспечивает до трёх раз большую ИИ-производительность (AI TOPS) по сравнению с серией Ryzen Embedded 8000. Это имеет важное значение для клиентов, модернизирующих существующие системы для достижения более высокой производительности ИИ на Ватт и на плату в целом, отметил ресурс Storagereview. Помимо автомобильного применения компания также ориентирует свои процессоры на вещательное оборудование, промышленные ПК, киоски, медицинские устройства и даже аэрокосмическую отрасль. Процессоры Ryzen AI Embedded обеспечивают согласованную среду разработки с унифицированным программным стеком, охватывающим CPU, GPU и NPU. Разработчики получат преимущества от оптимизированных библиотек CPU, открытых стандартных API GPU и архитектуры XDNA. Весь программный стек построен на базе открытой платформы виртуализации Xen, которая обеспечивает безопасную изоляцию нескольких доменов. Это позволяет использовать Yocto или Ubuntu для HMI, FreeRTOS для задач реального времени и Android или Windows для поддержки многофункциональных приложений, которые безопасно работают параллельно. Процессоры AMD Ryzen AI Embedded P100 с 4–6 ядрами, а также инструменты разработки и документация уже доступны для ознакомления избранным клиентам. Начало серийного производства чипов намечено на II квартал, а референсные платы появятся во II половине 2026 года. Процессоры серии P100 с 8–12 ядрами, предназначенные для приложений промышленной автоматизации, начнут поставляться в I квартале. Предоставление образцов процессоров серии X100 с до 16 ядер начнётся в I половине этого года.
06.01.2026 [14:28], Владимир Мироненко
NVIDIA объявила о запуске платформы Vera Rubin NVL72NVIDIA объявила о запуске платформы следующего поколения Rubin, которая приходит на смену Blackwell Ultra. Компания отметила, что платформа Rubin объединяет сразу пять инноваций, включая новейшие поколения интерконнекта NVIDIA NVLink, Transformer Engine, Confidential Computing и RAS Engine, а также процессор NVIDIA Vera. Примечательно, что NVIDIA снова решила вернуться к именованию на основе количества суперчипов (NVL72), а не ускорителей (NVL144), как обещала в прошлом году. Созданная с использованием экстремального совместного проектирования на аппаратном и программном уровнях, NVIDIA Vera Rubin обеспечивает десятикратное снижение стоимости токенов для инференса и четырёхкратное сокращение количества ускорителей для обучения моделей MoE по сравнению с платформой NVIDIA Blackwell. Коммутационные системы NVIDIA Spectrum-X Ethernet Photonics обеспечивают пятикратное повышение энергоэффективности и времени безотказной работы. Платформа Rubin построена на шести чипах — Arm-процессоре Vera, ускорителе Rubin, коммутаторе NVLink 6, адаптере ConnectX-9 SuperNIC, DPU BlueField-4 и Ethernet-коммутаторе NVIDIA Spectrum-6. Ускорители Rubin поначалу будут доступны в двух форматах. В первом случае — в составе стоечной платформы DGX Vera Rubin NVL72, которая объединяет 72 ускорителя Rubin и 36 процессоров Vera, NVLink 6, ConnectX-9 SuperNIC и BlueField-4. Также ускорители Rubin будут доступны в составе платформы DGX/HGX Rubin NVL8 на базе x86-процессоров. Обе платформы будут поддерживаться кластерами NVIDIA DGX SuperPod, сообщил ресурс CRN. Как отметила NVIDIA, разработанный для агентного мышления, процессор NVIDIA Vera является самым энергоэффективным процессором для крупномасштабных ИИ-фабрик. Он оснащён 88 кастомными Armv9.2-ядрами Olympus с 176 потоками с новой технологией пространственной многопоточности NVIDIA, 1,5 Тбайт системной памяти SOCAMM LPDDR5x (1,2 Тбайт/с), возможностями конфиденциальных вычислений и быстрым интерконнектом NVLink-C2C (1,8 Тбайт/с в дуплексе). NVIDIA Rubin с аппаратным адаптивным сжатием данных обеспечивает до 50 Пфлопс (NVFP4) для инференса, что в пять раз быстрее, чем Blackwell. Он также обеспечивает до 35 Пфлопс (NVFP4) в режиме, что в 3,5 раза быстрее, чем его предшественник. Пропускная способность 288 Гбайт HBM4 составляет 22 Тбайт/с, что в 2,8 раза быстрее предшественника, а пропускная способность NVLink на один ускоритель вдвое выше — 3,6 Тбайт/с (в дуплексе). NVIDIA также сообщила, что Vera Rubin NVL72 обладает 54 Тбайт памяти LPDDR5x, что в 2,5 раза больше, чем у Blackwell, и 20,7 Тбайт памяти HBM4, что на 50 % больше, чем у предшественника. Агрегированная пропускная способность HBM4 достигает 1,6 Пбайт/с, что в 2,8 раза больше, а скорость интерконнекта составляет 260 Тбайт/с, что вдвое больше, чем у платформы Blackwell NVL72, и «больше, чем пропускная способность всего интернета». Ожидаемый уровень энергопотребления составит от 190 до 230 кВт на стойку. Компания отметила, что Vera Rubin NVL72 — первая стоечная платформа, обеспечивающая конфиденциальные вычисления, которая поддерживает безопасность данных на уровне доменов CPU, GPU и NVLink. Коммутатор NVLink 6 с жидкостным охлаждением оснащён 400G-блоками SerDes, обеспечивает пропускную способность 3,6 Тбайт/с на каждый GPU для связи между всеми GPU, общую пропускную способность 28,8 Тбайт/с и 14,4 Тфлопс внутрисетевых вычислений в формате FP8. Хотя NVIDIA заявила, что Rubin находится в «полномасштабном производстве», аналогичные продукты от партнёров появятся только во II половине этого года. Среди ведущих мировых ИИ-лабораторий, поставщиков облачных услуг, производителей компьютеров и стартапов, которые, как ожидается, внедрят Rubin, компания назвала Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta✴, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab и xAI. ИИ-лаборатории, включая Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta✴, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab и xAI, рассматривают платформу NVIDIA Rubin для обучения более крупных и мощных моделей, а также для обслуживания мультимодальных систем с длинным контекстом с меньшей задержкой и стоимостью по сравнению предыдущими поколениями ускорителей. Партнёры по инфраструктурному ПО и хранению данных AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data и WEKA работают с NVIDIA над разработкой платформ следующего поколения для инфраструктуры Rubin. В связи с тем, что рабочие нагрузки агентного ИИ генерируют огромные объёмы контекстных данных, NVIDIA также представляла новую платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform — новый класс инфраструктуры хранения, разработанной для масштабирования контекста инференса. Сообщается, что платформа, работающая на базе BlueField-4, обеспечивает эффективное совместное использование и повторное применение данных KV-кеша в рамках всей ИИ-инфраструктуры, повышая скорость отклика и пропускную способность, а также обеспечивая предсказуемое и энергоэффективное масштабирование агентного ИИ. Дион Харрис (Dion Harris), старший директор NVIDIA по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, сообщил, что по сравнению с традиционными сетевыми хранилищами для данных контекста инференса, новая платформа обеспечивает до пяти раз больше токенов в секунду, в пять раз лучшую производительность на доллар и в пять раз лучшую энергоэффективность.
05.01.2026 [18:25], Владимир Мироненко
Anthropic купит сотни тысяч ИИ-ускорителей Google TPU напрямую у BroadcomAnthropic приобретёт около 1 млн Google TPU v7 (Ironwood) с тем, чтобы запустить их на контролируемых ею объектах, сообщил в соцсети Х ресурс SemiAnalysis. Ранее сообщалось, что примерно 400 тыс. компания купит напрямую у Broadcom в стойках за примерно $10 млрд, а остальные 600 тыс. единиц TPU v7 будут доступны посредством Google Cloud Platform (GCP) в рамках сделки на сумму около $42 млрд, что составляет большую часть увеличения портфеля заказов GCP на $49 млрд или на 46 %, о котором сообщалось в отчёте за III квартал 2025 года. В случае с закупаемыми напрямую ускорителями TeraWulf и Cipher Mining будут ответственны за инфраструктуру ЦОД, а европейское неооблако Fluidstack будет заниматься настройкой оборудования на месте, прокладкой кабелей, первичным тестированием, испытаниями при приёмке и удалённым обслуживанием, освободив Anthropic от бремени управления физическими серверами. По слухам, эти системы получат упрощённую топологию интерконнекта. Сделки Fluidstack с обоими операторами ЦОД, ранее ориентированными на криптомайнинг, финансово застрахованы Google, которая к тому же является совладельцем TeraWulf и может получить долю в Cipher Mining. Любопытно, что оба оператора частично связаны и с AWS. Хотя Google закупает TPU через Broadcom, которая тоже хочет свою маржу, это всё равно лучше, чем та маржа, что требует NVIDIA не только за продаваемые ускорители, но и за всю систему целиком, включая процессоры, коммутаторы, сетевые карты, системную память, кабели, разъёмы и т.п. По оценкам, SemiAnalysis, совокупная стоимость владения (TCO) на один чип Ironwood для полной конфигурации с топологией 3D-тор примерно на 44 % ниже, чем у серверов GB200, что с лихвой компенсирует примерно 10-% отставание TPU от GB200 по пиковым производительности и пропускной способности памяти. При этом реальная, а не теоретическая производительность (Model FLOP Utilization, MFU) у TPU, по мнению SemiAnalysis, может быть выше, чем у конкурентов. Основная причина заключается в том, что заявляемые NVIDIA и AMD показатели производительности (Флопс) значительно завышены. Даже в синтетических тестах, значительно отличающиеся от реальных рабочих нагрузок, Hopper достиг лишь около 80 % пиковой производительности, Blackwell — около 70 %, а серия MI300 от AMD — 50–60 %. Как полагают в SemiAnalysis, даже сдача ускорителей на сторону выгодна Google за счёт того, что TCO в пересчёте на час аренды может быть примерно на 30 % ниже, чем у GB200, и примерно на 41 % ниже, чем у GB300. Несмотря на высокий спрос, Google не может поставлять TPU в желаемом темпе, отметил SemiAnalysis, полагая, что основная проблема заключается в бюрократии Google — от первоначальных обсуждений до подписания генерального соглашения об оказании услуг (Master Services Agreement) проходит до трёх лет. Неооблака, включая Fluidstack, отличаются гибкостью и оперативностью, что облегчает им взаимодействие с новыми поставщиками услуг дата-центров, например, с реорганизованными криптомайнерами. Однако у неооблаков, среди инвесторов которых числится NVIDIA, таких как CoreWeave, Nebius, Crusoe, Together, Lambda, Firmus и Nscale, есть существенный стимул не внедрять конкурирующие технологии в своих дата-центрах: TPU, ускорители AMD и даже коммутаторы Arista — всё это под запретом. Это оставляет огромную нишу на рынке хостинга TPU, которая в настоящее время заполняется комбинацией майнеров криптовалют и Fluidstack, сообщил SemiAnalysis. По мнению SemiAnalysis, в ближайшие месяцы всё большему числу компаний-неооблаков предстоит принимать непростое решение между развитием возможностей хостинга TPU и получением квот на новейшие и лучшие системы NVIDIA Rubin.
03.01.2026 [15:08], Руслан Авдеев
Brookfield готова побороться с гиперскейлерами, запустив облако Radiant с «бюджетной» ИИ-инфраструктуройОдин из крупнейших управляющих инвестициями в альтернативные активы — компания Brookfield Asset Management может стать неожиданным соперником гиперскейлерам. Она намерена предложить собственные, недорогие облачные сервисы, сообщает Silicon Angle. Как свидетельствует доклад в The Information, компания планирует запустить облачный бизнес, который будет сдавать в аренду ИИ-чипы напрямую клиентам. Компания предложит бизнес-модель, которая позволит снизить стоимость строительства и эксплуатации ИИ ЦОД. Новый бизнес будет управляться подразделением Brookfield Radiant в связке с новой инфраструктурной программой стоимостью $100 млрд, анонсированной в ноябре 2025 года. Brookfield Artificial Intelligence Infrastructure Fund уже выделил на инициативу $10 млрд, половина из которых поступит от отраслевых партнёров, включая NVIDIA и Kuwait Investment Authority (KIA). Ранее Brookfield и Qatar Investment Authority (QIA) объявили о создании совместного предприятия на $20 млрд для инвестиций в ИИ-инфраструктуру в Катаре и на других международных рынках.
Источник изображения: Adeolu Eletu/unsplash.com Фонд поддерживает новые проекты ЦОД во Франции, Катаре и Швеции, а Radiant, как ожидается, первой получит право получить эти мощности. Если мощности не будут освоены, Brookfield планирует сдавать их в аренду сторонним операторам в рамках более традиционных схем. Если планы Brookfield действительно будут реализованы, Radiant теоретически сможет конкурировать с AWS и Microsoft Azure. Правда, основное преимущество Radiant перед остальными гиперскейлерами связано с многомиллиардными инвестициям Brookfield в энергетический сектор. В компании заявили, что такие актив смогли бы помочь контролировать ключевые элементы цепочки создания стоимости в сфере ИИ, что недоступно обычным облачным соперникам. Поскольку AWS, Microsoft и другим гиперскейлерам необходимо продемонстрировать отдачу от своих инвестиций в ИИ, запуск сервисов Radiant, вероятно, заставит их оптимизировать свою энергетическую логистику для своих дата-центров — для того, чтобы оставаться конкурентоспособными.
03.01.2026 [14:44], Руслан Авдеев
Китайская Kunlunxin, подразделение Baidu по выпуску ИИ-чипов, тайно подала заявку на IPOBaidu намерена выделить подразделения Kunlunxin, ответственное, в частности, за разработку ИИ-ускорителей, в отдельную структуру и провести его IPO в Гонконге. Это отражает стремление компании обеспечить себе полупроводниковую самодостаточность. Дочернее предприятие тайно подало заявление Гонконгской фондовой бирже. При этом детали, включая масштаб, структуру и время выхода на IPO, пока неизвестны, сообщает DigiTimes. Kunlunxin была основана в 2012 году как внутреннее подразделение Baidu, специализирующееся на разработке чипов для поддержки поискового, облачного бизнеса компании и её проектов в сфере ИИ-моделей. Со временем Kunlunxin превратилась в независимый бизнес, в котором Baidu сохранила контролирующую долю 59%. Ранее сообщалось что Kunlunxin в ходе недавнего раунда по привлечению средств оценивалась приблизительно в ¥21 млрд ($3 млрд). Успешный выход на IPO может обеспечить компании финансовые ресурсы и узнаваемое имя для скорейшего масштабирования, усиления программной экосистемы и обеспечения возможности конкуренции на более высоком уровне. Предложенное выделение бизнеса отражает стремление Baidu продвигать Kunlunxin в качестве независимого ценного актива и привлекать инвесторов, специализирующихся именно на ИИ-полупроводниках. Сама Baidu находится под давлением в связи с замедлением роста рекламных доходов и наращивает инвестиции в ИИ, чипы, системы автономного вождения, рассчитывая, что они станут новыми драйверами роста. Выход Kunlunxin на биржу также даст последней больше манёвренности при привлечении капитала напрямую и будет способствовать укреплению своего статуса в делах с клиентами, поставщиками и партнёрами. Впрочем, даже после выхода на биржу компания останется структурой Baidu.
Источник изображения: Kunlunxin Примечательно и время выхода, на фоне роста активности компаний, желающих выйти на IPO в Гонконге. Пекин стремится добиться самодостаточности на рынке чипов в ответ на ужесточение США экспортного контроля, касающихся передовых полупроводников. По данным Лондонской фондовой биржи (LSEG), IPO в Гонконге только в 2025 году привлекли более $36 млрд, это наиболее значимый результат с 2021 года. Выделение Kunlunxin имеет важное значение для всей индустрии, поскольку оно отражает то, как китайские технологические компании всё чаще отпускают подразделения, занимающиеся разработкой чипов, в более свободное плавание. Это упрощает доступ к капиталу, позволяет подстраивается под нужды рынка и ускоряет разработку продуктов, способных заменить ведущую мировые решения. Такие чипы всё активнее применяются при инференсе, в правительственных проектах, а также в облачных и телеком-инициативах, в которых имеет ключевое значение стоимость, стабильность поставок, и местное происхождение. На Гонконгскую биржу стремятся выйти и компании с материкового Китая. Так, разработчик ускорителей Biren уже привлекла $717 млн. Он присоединится к растущему числу китайских технологических компаний с материка, стремящихся к листингу в Гонконге, в числе которых ИИ-стартап MiniMax и ИИ-стартап Knowledge Atlas Technology (Zhipu AI). IPO Biren проходит на фоне дебюта её конкурентов Moore Threads и MetaX в декабре 2025 года на фондовой бирже в Шанхае, где их акции подскочили на сотни процентов.
02.01.2026 [22:40], Владимир Мироненко
«Маленький китайский дракон» Biren привлёк $717 млн в ходе IPOКитайский производитель ускорителей Shanghai Biren Intelligent Technology провёл в последний день 2025 года первичное публичное размещение акций (IPO) на гонконгской фондовой бирже, в результате которого привлёк сумму в эквиваленте $717 млн. Всего было продано 284,8 млн акций по $19,6 за единицу, что является верхней границей ценового диапазона, запрошенного Biren, сообщил ресурс SiliconANGLE. По данным ресурса, спрос на акции Biren среди институциональных инвесторов почти в 26 раз превысил предложение. Biren стала третьим китайским поставщиком видеокарт, вышедшим на биржу в декабре. До этого на бирже начали торги MetaX и Moore Threads, чьи акции в первые дни торгов взлетели в цене на 400 и 700 % соответственно. Это говорит о том, что акции Biren также могут вырасти в цене после начала торгов в пятницу. Biren, Enflame, MetaX и Moore Threads входит в число т.н. китайских «четырёх маленьких драконов» в сегменте GPU и ИИ-ускорителей. В документации для IPO компания Biren сообщила, что в 2024 году её выручка составила ¥336,8 млн (около $47,8 млн), прибыли пока нет. Объём незавершенных и заключённых контрактов составляет около $300 млн. Компания была основана в 2019 году, а три года спустя представила серверный ИИ-ускоритель BR100 на базе собственной архитектуры Bi Liren, изготовленный с использованием 7-нм техпроцесса TSMC и технологии упаковки CoWoS. По оценкам самой Biren, производительность BR100 сопоставима с NVIDIA A100.
Источник изображения: Biren Technology Также стало известно, что вскоре последует IPO китайской полупроводниковой компании. Производитель микросхем памяти CXMT объявил во вторник о планах продать 10,6 млрд акций на сумму $4,22 млрд. Вырученные от IPO средства компания планирует направить на финансирование исследовательских проектов в области DRAM и модернизации своих производственных линий. CXMT также строит завод по производству памяти HBM, который планирует запустить к концу 2026 года.
02.01.2026 [21:10], Владимир Мироненко
Финляндия задержала судно Fitburg в связи с повреждением подводного интернет-кабеля в Балтийском мореФинская полиция задержала грузовое судно Fitburg, следовавшее из России, которое подозревается в повреждении подводного телекоммуникационного кабеля компании Elisa, проложенного по дну Финского залива из Хельсинки (Финляндия) в Таллин (Эстония). Повреждение произошло в исключительной экономической зоне Эстонии. Весь экипаж судна, следовавшего под флагом Сент-Винсента и Гренадин, в составе 14 человек был арестован, сообщил ресурс BBC. «На данном этапе полиция расследует инцидент как умышленное причинение тяжкого ущерба имуществу, попытку умышленного причинения тяжкого ущерба имуществу и умышленное вмешательство в телекоммуникации», — говорится в заявлении полиции. Телекоммуникационный оператор Elisa, заявил, что работа сервисов не пострадала благодаря использованию резервных маршрутов, пишет Data Center Dynamics. Правительство Эстонии сообщило, что в среду также произошел сбой второго телекоммуникационном кабеле, соединяющем страну с Финляндией. Президент Эстонии Алар Карис (Alar Karis) заявил: «Надеюсь, это не было преднамеренным действием, но расследование прояснит ситуацию». Ранее в 2025 году НАТО запустило программу Baltic Sentry для защиты от атак на подводные энергетические и информационные кабели в Балтийском море. В ноябре 2024 года китайский сухогруз, следовавший из России, обвинили в повреждении двух кабелей в Балтийском море. Поначалу в причастности к этому подозревали Россию, но позже было заявлено, что повреждение произошло в результате несчастного случая. В конце 2024 года в Балтийском море произошло сразу несколько обрывов кабелей.
01.01.2026 [22:53], Владимир Мироненко
xAI купил ещё одно здание для ИИ ЦОД и планирует довести мощность кампуса Colossus до 2 ГВтИлон Маск (Elon Musk) сообщил о приобретении его ИИ-стартапом xAI ещё одного здания для расширения своего кластера Colossus, что позволит увеличить его вычислительную мощность до 2 ГВт. Маск не стал раскрывать местоположение объекта. Вполне возможно, что речь идёт о том же здании, о покупке которого сообщил в этот же день ресурс The Information, ссылаясь на данные о недвижимости и источник, знакомый с проектом. По его данным, приобретённое здание было раньше складом, и оно находится недалеко от Саутхейвена (Southaven, штат Миссисипи). xAI уже построил в Мемфисе (Memphis) ЦОД Colossus, и в настоящее время ведёт строительство второго ЦОД, расположенного неподалеку, под названием Colossus 2. Маск заявил ранее в этом году, что Colossus 2 в конечном итоге будет оснащён 550 тыс. чипов NVIDIA, что обойдётся стартапу в $18 млрд без учёта стоимости сопутствующего оборудования и систем охлаждения.
Источник изображения: xAI Невдалеке от Colossus 2 расположен приобретённый участок со складскими помещениями, которые стартап начнёт переоборудовать в ЦОД в этом году. Рядом с ними находится бывшая электростанция, которая принадлежит xAI. Также будущий ЦОД будет иметь доступ к другим источникам энергии. Планы Маска по расширению ИИ-инфраструктуры подвергаются сильной критике со стороны защитников окружающей среды из-за огромного энергопотребления, а также большого расхода воды, необходимой для охлаждения оборудования ЦОД. По данным The Information, для нового объекта потребуются тысячи кубометров питьевой воды ежедневно. В связи с этим xAI предпринял шаги по уменьшению вредного воздействия на окружающую среду, пишет SiliconANGLE. В феврале компания объявила о планах строительства нового центра очистки сточных вод рядом с Colossus стоимостью около $80 млн. Этот объект позволит xAI повторно использовать около 59 тыс. м3 сточных вод в день. Для реализации своих планов xAI занимается привлечением заёмных средств. В июле стартап объявил о привлечении $10 млрд капитала в виде акционерного финансирования и кредитов. Также xAI провёл в октябре ещё один раунд финансирования, позволивший привлечь $20 млрд инвестиций.
31.12.2025 [18:30], Владимир Мироненко
Потребность китайских компаний в H200 в несколько раз выше запасов NVIDIAПосле того, как США дали NVIDIA добро на поставку ИИ-ускорителей H200 в Китай, выяснилось, что потребности ключевого для компании рынка в этих чипах гораздо выше имеющихся у неё запасов. По данным источников Reuters, компания уже обратилась к TSMC с запросом на увеличение производства H200. Однако существует определённый риск, что правительство КНР может не дать разрешение на ввоз в страну H200, хотя и официального заявления по поводу запрета пока тоже не поступало. Как сообщают источники, сейчас у NVIDIA насчитывается на складах порядка 700 тыс. ускорителей H200, включая 100 тыс. суперчипов GH200, в то время как поступило заказов от китайских технологических компаний более чем на 2 млн ускорителей. Газета South China Morning Post сообщила со ссылкой на источники, что только ByteDance планирует потратить в 2026 году около ¥100 млрд (около $14,3 млрд) на чипы NVIDIA, по сравнению с примерно ¥85 млрд (около $12,2 млрд) в 2025 году, если, опять же, Китай разрешит поставки H200. Власти КНР пока не определились с тем, стоит ли разрешать ли импорт H200, опасаясь, что доступ к передовым зарубежным чипам может замедлить развитие местной полупроводниковой промышленности в ИИ-сфере. Один из рассматриваемых вариантов предполагает, что могут в качестве условия поставки потребовать комплектовать закупки H200 определённым количеством чипов китайского производства. Ранее сообщалось, что первая партия NVIDIA H200 может поступить в Китай в середине февраля. По данным источников Reuters, NVIDIA уже решила, какие варианты H200 она будет предлагать китайским клиентам, установив цену около $27 тыс./шт.. При этом цена будет зависеть от объёма закупок и конкретных договорённостей с клиентами. Сообщается, что восьмичиповый модуль с H200 будет стоить около ¥1,5 млн (около $214 тыс.), что немного дороже, чем поставлявшийся до введения запрета Китаем по цене ¥1,2 млн (около $172 тыс.) модуль с ускорителями H20. Однако, с учётом того, что H200 обеспечивает примерно в шесть раз большую производительность, чем H20, китайские интернет-компании считают цену привлекательной, отметили источники. Также это дешевле цены серого рынка примерно на 15 %. Хотя потенциальный заказ означает значительное расширение производства H200, в комментарии для Reuters в NVIDIA сообщили, что «лицензионные продажи H200 авторизованным клиентам в Китае никак не повлияют на способность компании поставлять продукцию клиентам в США». «Китай — это высококонкурентный рынок с быстрорастущими местными поставщиками чипов. Блокировка всего экспорта из США подорвала нашу национальную и экономическую безопасность и лишь пошла на пользу иностранным конкурентам», — отметили в компании.
31.12.2025 [12:02], Сергей Карасёв
DapuStor и ZTE внедряют в дата-центрах SSD с иммерсионным охлаждениемКомпания DapuStor объявила об успешном внедрении в серверной инфраструктуре ZTE систем хранения данных на основе SSD с иммерсионным (погружным) жидкостным охлаждением. Применённые накопители семейства DapuStor J5, как утверждается, продемонстрировали исключительную стабильность и надёжность при непрерывных нагрузках чтения/записи. Отмечается, что на фоне стремительного развития ИИ быстро растёт нагрузка на ЦОД — это приводит к увеличению энергопотребления. В результате, возможностей традиционного воздушного охлаждения становится недостаточно, в связи с чем гиперскейлеры и облачные провайдеры внедряют передовые жидкостные решения, в том числе иммерсионные системы. Однако существуют риски: хотя погружное охлаждение обеспечивает эффективный отвод тепла, оно предъявляет дополнительные требования к оборудованию. Длительное нахождение в диэлектрической жидкости может провоцировать химическую эрозию и ускорение старения из-за проникновения состава в микроскопические структурные зазоры электронных компонентов. В случае SSD это чревато системными сбоями. Поэтому для достижения долгосрочной надёжности необходима комплексная адаптация устройств хранения с точки зрения базовых материалов, конструкции и производственных процессов.
Источник изображения: DapuStor Накопители DapuStor J5, оптимизированные для иммерсионного охлаждения, разработаны специально с прицелом на эксплуатацию в экстремальных условиях. Все используемые материалы прошли тщательную проверку, исключающую ухудшение характеристик после длительного контакта с охлаждающей жидкостью. Гарантированы целостность сигнала и долговременная стабильность, говорят компании. Заявленная скорость последовательного чтения и записи данных достигает соответственно 7,4 и 7,0 Гбайт/с. Показатель IOPS при произвольном чтении составляет до 1,75 млн, при произвольной записи — до 340 тыс. Задержка — 67/9 мкс. Отмечается, что при использовании иммерсионного охлаждения средний годовой показатель PUE составляет менее 1,15 против 1,4–1,6 при традиционном воздушном охлаждении, что соответствует снижению на 15–28 %. Плотность мощности в расчёте на стойку возрастает на порядок — с 3–5 кВт до 48 кВт. |
|
