Материалы по тегу:
|
06.01.2026 [14:28], Владимир Мироненко
NVIDIA объявила о запуске платформы Vera Rubin NVL72NVIDIA объявила о запуске платформы следующего поколения Rubin, которая приходит на смену Blackwell Ultra. Компания отметила, что платформа Rubin объединяет сразу пять инноваций, включая новейшие поколения интерконнекта NVIDIA NVLink, Transformer Engine, Confidential Computing и RAS Engine, а также процессор NVIDIA Vera. Примечательно, что NVIDIA снова решила вернуться к именованию на основе количества суперчипов (NVL72), а не ускорителей (NVL144), как обещала в прошлом году. Созданная с использованием экстремального совместного проектирования на аппаратном и программном уровнях, NVIDIA Vera Rubin обеспечивает десятикратное снижение стоимости токенов для инференса и четырёхкратное сокращение количества ускорителей для обучения моделей MoE по сравнению с платформой NVIDIA Blackwell. Коммутационные системы NVIDIA Spectrum-X Ethernet Photonics обеспечивают пятикратное повышение энергоэффективности и времени безотказной работы. Платформа Rubin построена на шести чипах — Arm-процессоре Vera, ускорителе Rubin, коммутаторе NVLink 6, адаптере ConnectX-9 SuperNIC, DPU BlueField-4 и Ethernet-коммутаторе NVIDIA Spectrum-6. Ускорители Rubin поначалу будут доступны в двух форматах. В первом случае — в составе стоечной платформы DGX Vera Rubin NVL72, которая объединяет 72 ускорителя Rubin и 36 процессоров Vera, NVLink 6, ConnectX-9 SuperNIC и BlueField-4. Также ускорители Rubin будут доступны в составе платформы DGX/HGX Rubin NVL8 на базе x86-процессоров. Обе платформы будут поддерживаться кластерами NVIDIA DGX SuperPod, сообщил ресурс CRN. Как отметила NVIDIA, разработанный для агентного мышления, процессор NVIDIA Vera является самым энергоэффективным процессором для крупномасштабных ИИ-фабрик. Он оснащён 88 кастомными Armv9.2-ядрами Olympus с 176 потоками с новой технологией пространственной многопоточности NVIDIA, 1,5 Тбайт системной памяти SOCAMM LPDDR5x (1,2 Тбайт/с), возможностями конфиденциальных вычислений и быстрым интерконнектом NVLink-C2C (1,8 Тбайт/с в дуплексе). NVIDIA Rubin с аппаратным адаптивным сжатием данных обеспечивает до 50 Пфлопс (NVFP4) для инференса, что в пять раз быстрее, чем Blackwell. Он также обеспечивает до 35 Пфлопс (NVFP4) в режиме, что в 3,5 раза быстрее, чем его предшественник. Пропускная способность 288 Гбайт HBM4 составляет 22 Тбайт/с, что в 2,8 раза быстрее предшественника, а пропускная способность NVLink на один ускоритель вдвое выше — 3,6 Тбайт/с (в дуплексе). NVIDIA также сообщила, что Vera Rubin NVL72 обладает 54 Тбайт памяти LPDDR5x, что в 2,5 раза больше, чем у Blackwell, и 20,7 Тбайт памяти HBM4, что на 50 % больше, чем у предшественника. Агрегированная пропускная способность HBM4 достигает 1,6 Пбайт/с, что в 2,8 раза больше, а скорость интерконнекта составляет 260 Тбайт/с, что вдвое больше, чем у платформы Blackwell NVL72, и «больше, чем пропускная способность всего интернета». Ожидаемый уровень энергопотребления составит от 190 до 230 кВт на стойку. Компания отметила, что Vera Rubin NVL72 — первая стоечная платформа, обеспечивающая конфиденциальные вычисления, которая поддерживает безопасность данных на уровне доменов CPU, GPU и NVLink. Коммутатор NVLink 6 с жидкостным охлаждением оснащён 400G-блоками SerDes, обеспечивает пропускную способность 3,6 Тбайт/с на каждый GPU для связи между всеми GPU, общую пропускную способность 28,8 Тбайт/с и 14,4 Тфлопс внутрисетевых вычислений в формате FP8. Хотя NVIDIA заявила, что Rubin находится в «полномасштабном производстве», аналогичные продукты от партнёров появятся только во II половине этого года. Среди ведущих мировых ИИ-лабораторий, поставщиков облачных услуг, производителей компьютеров и стартапов, которые, как ожидается, внедрят Rubin, компания назвала Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta✴, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab и xAI. ИИ-лаборатории, включая Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta✴, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab и xAI, рассматривают платформу NVIDIA Rubin для обучения более крупных и мощных моделей, а также для обслуживания мультимодальных систем с длинным контекстом с меньшей задержкой и стоимостью по сравнению предыдущими поколениями ускорителей. Партнёры по инфраструктурному ПО и хранению данных AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data и WEKA работают с NVIDIA над разработкой платформ следующего поколения для инфраструктуры Rubin. В связи с тем, что рабочие нагрузки агентного ИИ генерируют огромные объёмы контекстных данных, NVIDIA также представляла новую платформу хранения контекста инференса NVIDIA Inference Context Memory Storage Platform — новый класс инфраструктуры хранения, разработанной для масштабирования контекста инференса. Сообщается, что платформа, работающая на базе BlueField-4, обеспечивает эффективное совместное использование и повторное применение данных KV-кеша в рамках всей ИИ-инфраструктуры, повышая скорость отклика и пропускную способность, а также обеспечивая предсказуемое и энергоэффективное масштабирование агентного ИИ. Дион Харрис (Dion Harris), старший директор NVIDIA по высокопроизводительным вычислениям и решениям для ИИ-инфраструктуры, сообщил, что по сравнению с традиционными сетевыми хранилищами для данных контекста инференса, новая платформа обеспечивает до пяти раз больше токенов в секунду, в пять раз лучшую производительность на доллар и в пять раз лучшую энергоэффективность.
05.01.2026 [18:25], Владимир Мироненко
Anthropic купит сотни тысяч ИИ-ускорителей Google TPU напрямую у BroadcomAnthropic приобретёт около 1 млн Google TPU v7 (Ironwood) с тем, чтобы запустить их на контролируемых ею объектах, сообщил в соцсети Х ресурс SemiAnalysis. Ранее сообщалось, что примерно 400 тыс. компания купит напрямую у Broadcom в стойках за примерно $10 млрд, а остальные 600 тыс. единиц TPU v7 будут доступны посредством Google Cloud Platform (GCP) в рамках сделки на сумму около $42 млрд, что составляет большую часть увеличения портфеля заказов GCP на $49 млрд или на 46 %, о котором сообщалось в отчёте за III квартал 2025 года. В случае с закупаемыми напрямую ускорителями TeraWulf и Cipher Mining будут ответственны за инфраструктуру ЦОД, а европейское неооблако Fluidstack будет заниматься настройкой оборудования на месте, прокладкой кабелей, первичным тестированием, испытаниями при приёмке и удалённым обслуживанием, освободив Anthropic от бремени управления физическими серверами. По слухам, эти системы получат упрощённую топологию интерконнекта. Сделки Fluidstack с обоими операторами ЦОД, ранее ориентированными на криптомайнинг, финансово застрахованы Google, которая к тому же является совладельцем TeraWulf и может получить долю в Cipher Mining. Любопытно, что оба оператора частично связаны и с AWS. Хотя Google закупает TPU через Broadcom, которая тоже хочет свою маржу, это всё равно лучше, чем та маржа, что требует NVIDIA не только за продаваемые ускорители, но и за всю систему целиком, включая процессоры, коммутаторы, сетевые карты, системную память, кабели, разъёмы и т.п. По оценкам, SemiAnalysis, совокупная стоимость владения (TCO) на один чип Ironwood для полной конфигурации с топологией 3D-тор примерно на 44 % ниже, чем у серверов GB200, что с лихвой компенсирует примерно 10-% отставание TPU от GB200 по пиковым производительности и пропускной способности памяти. При этом реальная, а не теоретическая производительность (Model FLOP Utilization, MFU) у TPU, по мнению SemiAnalysis, может быть выше, чем у конкурентов. Основная причина заключается в том, что заявляемые NVIDIA и AMD показатели производительности (Флопс) значительно завышены. Даже в синтетических тестах, значительно отличающиеся от реальных рабочих нагрузок, Hopper достиг лишь около 80 % пиковой производительности, Blackwell — около 70 %, а серия MI300 от AMD — 50–60 %. Как полагают в SemiAnalysis, даже сдача ускорителей на сторону выгодна Google за счёт того, что TCO в пересчёте на час аренды может быть примерно на 30 % ниже, чем у GB200, и примерно на 41 % ниже, чем у GB300. Несмотря на высокий спрос, Google не может поставлять TPU в желаемом темпе, отметил SemiAnalysis, полагая, что основная проблема заключается в бюрократии Google — от первоначальных обсуждений до подписания генерального соглашения об оказании услуг (Master Services Agreement) проходит до трёх лет. Неооблака, включая Fluidstack, отличаются гибкостью и оперативностью, что облегчает им взаимодействие с новыми поставщиками услуг дата-центров, например, с реорганизованными криптомайнерами. Однако у неооблаков, среди инвесторов которых числится NVIDIA, таких как CoreWeave, Nebius, Crusoe, Together, Lambda, Firmus и Nscale, есть существенный стимул не внедрять конкурирующие технологии в своих дата-центрах: TPU, ускорители AMD и даже коммутаторы Arista — всё это под запретом. Это оставляет огромную нишу на рынке хостинга TPU, которая в настоящее время заполняется комбинацией майнеров криптовалют и Fluidstack, сообщил SemiAnalysis. По мнению SemiAnalysis, в ближайшие месяцы всё большему числу компаний-неооблаков предстоит принимать непростое решение между развитием возможностей хостинга TPU и получением квот на новейшие и лучшие системы NVIDIA Rubin.
03.01.2026 [15:08], Руслан Авдеев
Brookfield готова побороться с гиперскейлерами, запустив облако Radiant с «бюджетной» ИИ-инфраструктуройОдин из крупнейших управляющих инвестициями в альтернативные активы — компания Brookfield Asset Management может стать неожиданным соперником гиперскейлерам. Она намерена предложить собственные, недорогие облачные сервисы, сообщает Silicon Angle. Как свидетельствует доклад в The Information, компания планирует запустить облачный бизнес, который будет сдавать в аренду ИИ-чипы напрямую клиентам. Компания предложит бизнес-модель, которая позволит снизить стоимость строительства и эксплуатации ИИ ЦОД. Новый бизнес будет управляться подразделением Brookfield Radiant в связке с новой инфраструктурной программой стоимостью $100 млрд, анонсированной в ноябре 2025 года. Brookfield Artificial Intelligence Infrastructure Fund уже выделил на инициативу $10 млрд, половина из которых поступит от отраслевых партнёров, включая NVIDIA и Kuwait Investment Authority (KIA). Ранее Brookfield и Qatar Investment Authority (QIA) объявили о создании совместного предприятия на $20 млрд для инвестиций в ИИ-инфраструктуру в Катаре и на других международных рынках.
Источник изображения: Adeolu Eletu/unsplash.com Фонд поддерживает новые проекты ЦОД во Франции, Катаре и Швеции, а Radiant, как ожидается, первой получит право получить эти мощности. Если мощности не будут освоены, Brookfield планирует сдавать их в аренду сторонним операторам в рамках более традиционных схем. Если планы Brookfield действительно будут реализованы, Radiant теоретически сможет конкурировать с AWS и Microsoft Azure. Правда, основное преимущество Radiant перед остальными гиперскейлерами связано с многомиллиардными инвестициям Brookfield в энергетический сектор. В компании заявили, что такие актив смогли бы помочь контролировать ключевые элементы цепочки создания стоимости в сфере ИИ, что недоступно обычным облачным соперникам. Поскольку AWS, Microsoft и другим гиперскейлерам необходимо продемонстрировать отдачу от своих инвестиций в ИИ, запуск сервисов Radiant, вероятно, заставит их оптимизировать свою энергетическую логистику для своих дата-центров — для того, чтобы оставаться конкурентоспособными.
03.01.2026 [14:44], Руслан Авдеев
Китайская Kunlunxin, подразделение Baidu по выпуску ИИ-чипов, тайно подала заявку на IPOBaidu намерена выделить подразделения Kunlunxin, ответственное, в частности, за разработку ИИ-ускорителей, в отдельную структуру и провести его IPO в Гонконге. Это отражает стремление компании обеспечить себе полупроводниковую самодостаточность. Дочернее предприятие тайно подало заявление Гонконгской фондовой бирже. При этом детали, включая масштаб, структуру и время выхода на IPO, пока неизвестны, сообщает DigiTimes. Kunlunxin была основана в 2012 году как внутреннее подразделение Baidu, специализирующееся на разработке чипов для поддержки поискового, облачного бизнеса компании и её проектов в сфере ИИ-моделей. Со временем Kunlunxin превратилась в независимый бизнес, в котором Baidu сохранила контролирующую долю 59%. Ранее сообщалось что Kunlunxin в ходе недавнего раунда по привлечению средств оценивалась приблизительно в ¥21 млрд ($3 млрд). Успешный выход на IPO может обеспечить компании финансовые ресурсы и узнаваемое имя для скорейшего масштабирования, усиления программной экосистемы и обеспечения возможности конкуренции на более высоком уровне. Предложенное выделение бизнеса отражает стремление Baidu продвигать Kunlunxin в качестве независимого ценного актива и привлекать инвесторов, специализирующихся именно на ИИ-полупроводниках. Сама Baidu находится под давлением в связи с замедлением роста рекламных доходов и наращивает инвестиции в ИИ, чипы, системы автономного вождения, рассчитывая, что они станут новыми драйверами роста. Выход Kunlunxin на биржу также даст последней больше манёвренности при привлечении капитала напрямую и будет способствовать укреплению своего статуса в делах с клиентами, поставщиками и партнёрами. Впрочем, даже после выхода на биржу компания останется структурой Baidu.
Источник изображения: Kunlunxin Примечательно и время выхода, на фоне роста активности компаний, желающих выйти на IPO в Гонконге. Пекин стремится добиться самодостаточности на рынке чипов в ответ на ужесточение США экспортного контроля, касающихся передовых полупроводников. По данным Лондонской фондовой биржи (LSEG), IPO в Гонконге только в 2025 году привлекли более $36 млрд, это наиболее значимый результат с 2021 года. Выделение Kunlunxin имеет важное значение для всей индустрии, поскольку оно отражает то, как китайские технологические компании всё чаще отпускают подразделения, занимающиеся разработкой чипов, в более свободное плавание. Это упрощает доступ к капиталу, позволяет подстраивается под нужды рынка и ускоряет разработку продуктов, способных заменить ведущую мировые решения. Такие чипы всё активнее применяются при инференсе, в правительственных проектах, а также в облачных и телеком-инициативах, в которых имеет ключевое значение стоимость, стабильность поставок, и местное происхождение. На Гонконгскую биржу стремятся выйти и компании с материкового Китая. Так, разработчик ускорителей Biren уже привлекла $717 млн. Он присоединится к растущему числу китайских технологических компаний с материка, стремящихся к листингу в Гонконге, в числе которых ИИ-стартап MiniMax и ИИ-стартап Knowledge Atlas Technology (Zhipu AI). IPO Biren проходит на фоне дебюта её конкурентов Moore Threads и MetaX в декабре 2025 года на фондовой бирже в Шанхае, где их акции подскочили на сотни процентов.
02.01.2026 [22:40], Владимир Мироненко
«Маленький китайский дракон» Biren привлёк $717 млн в ходе IPOКитайский производитель ускорителей Shanghai Biren Intelligent Technology провёл в последний день 2025 года первичное публичное размещение акций (IPO) на гонконгской фондовой бирже, в результате которого привлёк сумму в эквиваленте $717 млн. Всего было продано 284,8 млн акций по $19,6 за единицу, что является верхней границей ценового диапазона, запрошенного Biren, сообщил ресурс SiliconANGLE. По данным ресурса, спрос на акции Biren среди институциональных инвесторов почти в 26 раз превысил предложение. Biren стала третьим китайским поставщиком видеокарт, вышедшим на биржу в декабре. До этого на бирже начали торги MetaX и Moore Threads, чьи акции в первые дни торгов взлетели в цене на 400 и 700 % соответственно. Это говорит о том, что акции Biren также могут вырасти в цене после начала торгов в пятницу. Biren, Enflame, MetaX и Moore Threads входит в число т.н. китайских «четырёх маленьких драконов» в сегменте GPU и ИИ-ускорителей. В документации для IPO компания Biren сообщила, что в 2024 году её выручка составила ¥336,8 млн (около $47,8 млн), прибыли пока нет. Объём незавершенных и заключённых контрактов составляет около $300 млн. Компания была основана в 2019 году, а три года спустя представила серверный ИИ-ускоритель BR100 на базе собственной архитектуры Bi Liren, изготовленный с использованием 7-нм техпроцесса TSMC и технологии упаковки CoWoS. По оценкам самой Biren, производительность BR100 сопоставима с NVIDIA A100.
Источник изображения: Biren Technology Также стало известно, что вскоре последует IPO китайской полупроводниковой компании. Производитель микросхем памяти CXMT объявил во вторник о планах продать 10,6 млрд акций на сумму $4,22 млрд. Вырученные от IPO средства компания планирует направить на финансирование исследовательских проектов в области DRAM и модернизации своих производственных линий. CXMT также строит завод по производству памяти HBM, который планирует запустить к концу 2026 года.
02.01.2026 [21:10], Владимир Мироненко
Финляндия задержала судно Fitburg в связи с повреждением подводного интернет-кабеля в Балтийском мореФинская полиция задержала грузовое судно Fitburg, следовавшее из России, которое подозревается в повреждении подводного телекоммуникационного кабеля компании Elisa, проложенного по дну Финского залива из Хельсинки (Финляндия) в Таллин (Эстония). Повреждение произошло в исключительной экономической зоне Эстонии. Весь экипаж судна, следовавшего под флагом Сент-Винсента и Гренадин, в составе 14 человек был арестован, сообщил ресурс BBC. «На данном этапе полиция расследует инцидент как умышленное причинение тяжкого ущерба имуществу, попытку умышленного причинения тяжкого ущерба имуществу и умышленное вмешательство в телекоммуникации», — говорится в заявлении полиции. Телекоммуникационный оператор Elisa, заявил, что работа сервисов не пострадала благодаря использованию резервных маршрутов, пишет Data Center Dynamics. Правительство Эстонии сообщило, что в среду также произошел сбой второго телекоммуникационном кабеле, соединяющем страну с Финляндией. Президент Эстонии Алар Карис (Alar Karis) заявил: «Надеюсь, это не было преднамеренным действием, но расследование прояснит ситуацию». Ранее в 2025 году НАТО запустило программу Baltic Sentry для защиты от атак на подводные энергетические и информационные кабели в Балтийском море. В ноябре 2024 года китайский сухогруз, следовавший из России, обвинили в повреждении двух кабелей в Балтийском море. Поначалу в причастности к этому подозревали Россию, но позже было заявлено, что повреждение произошло в результате несчастного случая. В конце 2024 года в Балтийском море произошло сразу несколько обрывов кабелей.
01.01.2026 [22:53], Владимир Мироненко
xAI купил ещё одно здание для ИИ ЦОД и планирует довести мощность кампуса Colossus до 2 ГВтИлон Маск (Elon Musk) сообщил о приобретении его ИИ-стартапом xAI ещё одного здания для расширения своего кластера Colossus, что позволит увеличить его вычислительную мощность до 2 ГВт. Маск не стал раскрывать местоположение объекта. Вполне возможно, что речь идёт о том же здании, о покупке которого сообщил в этот же день ресурс The Information, ссылаясь на данные о недвижимости и источник, знакомый с проектом. По его данным, приобретённое здание было раньше складом, и оно находится недалеко от Саутхейвена (Southaven, штат Миссисипи). xAI уже построил в Мемфисе (Memphis) ЦОД Colossus, и в настоящее время ведёт строительство второго ЦОД, расположенного неподалеку, под названием Colossus 2. Маск заявил ранее в этом году, что Colossus 2 в конечном итоге будет оснащён 550 тыс. чипов NVIDIA, что обойдётся стартапу в $18 млрд без учёта стоимости сопутствующего оборудования и систем охлаждения.
Источник изображения: xAI Невдалеке от Colossus 2 расположен приобретённый участок со складскими помещениями, которые стартап начнёт переоборудовать в ЦОД в этом году. Рядом с ними находится бывшая электростанция, которая принадлежит xAI. Также будущий ЦОД будет иметь доступ к другим источникам энергии. Планы Маска по расширению ИИ-инфраструктуры подвергаются сильной критике со стороны защитников окружающей среды из-за огромного энергопотребления, а также большого расхода воды, необходимой для охлаждения оборудования ЦОД. По данным The Information, для нового объекта потребуются тысячи кубометров питьевой воды ежедневно. В связи с этим xAI предпринял шаги по уменьшению вредного воздействия на окружающую среду, пишет SiliconANGLE. В феврале компания объявила о планах строительства нового центра очистки сточных вод рядом с Colossus стоимостью около $80 млн. Этот объект позволит xAI повторно использовать около 59 тыс. м3 сточных вод в день. Для реализации своих планов xAI занимается привлечением заёмных средств. В июле стартап объявил о привлечении $10 млрд капитала в виде акционерного финансирования и кредитов. Также xAI провёл в октябре ещё один раунд финансирования, позволивший привлечь $20 млрд инвестиций.
31.12.2025 [18:30], Владимир Мироненко
Потребность китайских компаний в H200 в несколько раз выше запасов NVIDIAПосле того, как США дали NVIDIA добро на поставку ИИ-ускорителей H200 в Китай, выяснилось, что потребности ключевого для компании рынка в этих чипах гораздо выше имеющихся у неё запасов. По данным источников Reuters, компания уже обратилась к TSMC с запросом на увеличение производства H200. Однако существует определённый риск, что правительство КНР может не дать разрешение на ввоз в страну H200, хотя и официального заявления по поводу запрета пока тоже не поступало. Как сообщают источники, сейчас у NVIDIA насчитывается на складах порядка 700 тыс. ускорителей H200, включая 100 тыс. суперчипов GH200, в то время как поступило заказов от китайских технологических компаний более чем на 2 млн ускорителей. Газета South China Morning Post сообщила со ссылкой на источники, что только ByteDance планирует потратить в 2026 году около ¥100 млрд (около $14,3 млрд) на чипы NVIDIA, по сравнению с примерно ¥85 млрд (около $12,2 млрд) в 2025 году, если, опять же, Китай разрешит поставки H200. Власти КНР пока не определились с тем, стоит ли разрешать ли импорт H200, опасаясь, что доступ к передовым зарубежным чипам может замедлить развитие местной полупроводниковой промышленности в ИИ-сфере. Один из рассматриваемых вариантов предполагает, что могут в качестве условия поставки потребовать комплектовать закупки H200 определённым количеством чипов китайского производства. Ранее сообщалось, что первая партия NVIDIA H200 может поступить в Китай в середине февраля. По данным источников Reuters, NVIDIA уже решила, какие варианты H200 она будет предлагать китайским клиентам, установив цену около $27 тыс./шт.. При этом цена будет зависеть от объёма закупок и конкретных договорённостей с клиентами. Сообщается, что восьмичиповый модуль с H200 будет стоить около ¥1,5 млн (около $214 тыс.), что немного дороже, чем поставлявшийся до введения запрета Китаем по цене ¥1,2 млн (около $172 тыс.) модуль с ускорителями H20. Однако, с учётом того, что H200 обеспечивает примерно в шесть раз большую производительность, чем H20, китайские интернет-компании считают цену привлекательной, отметили источники. Также это дешевле цены серого рынка примерно на 15 %. Хотя потенциальный заказ означает значительное расширение производства H200, в комментарии для Reuters в NVIDIA сообщили, что «лицензионные продажи H200 авторизованным клиентам в Китае никак не повлияют на способность компании поставлять продукцию клиентам в США». «Китай — это высококонкурентный рынок с быстрорастущими местными поставщиками чипов. Блокировка всего экспорта из США подорвала нашу национальную и экономическую безопасность и лишь пошла на пользу иностранным конкурентам», — отметили в компании.
31.12.2025 [12:02], Сергей Карасёв
DapuStor и ZTE внедряют в дата-центрах SSD с иммерсионным охлаждениемКомпания DapuStor объявила об успешном внедрении в серверной инфраструктуре ZTE систем хранения данных на основе SSD с иммерсионным (погружным) жидкостным охлаждением. Применённые накопители семейства DapuStor J5, как утверждается, продемонстрировали исключительную стабильность и надёжность при непрерывных нагрузках чтения/записи. Отмечается, что на фоне стремительного развития ИИ быстро растёт нагрузка на ЦОД — это приводит к увеличению энергопотребления. В результате, возможностей традиционного воздушного охлаждения становится недостаточно, в связи с чем гиперскейлеры и облачные провайдеры внедряют передовые жидкостные решения, в том числе иммерсионные системы. Однако существуют риски: хотя погружное охлаждение обеспечивает эффективный отвод тепла, оно предъявляет дополнительные требования к оборудованию. Длительное нахождение в диэлектрической жидкости может провоцировать химическую эрозию и ускорение старения из-за проникновения состава в микроскопические структурные зазоры электронных компонентов. В случае SSD это чревато системными сбоями. Поэтому для достижения долгосрочной надёжности необходима комплексная адаптация устройств хранения с точки зрения базовых материалов, конструкции и производственных процессов.
Источник изображения: DapuStor Накопители DapuStor J5, оптимизированные для иммерсионного охлаждения, разработаны специально с прицелом на эксплуатацию в экстремальных условиях. Все используемые материалы прошли тщательную проверку, исключающую ухудшение характеристик после длительного контакта с охлаждающей жидкостью. Гарантированы целостность сигнала и долговременная стабильность, говорят компании. Заявленная скорость последовательного чтения и записи данных достигает соответственно 7,4 и 7,0 Гбайт/с. Показатель IOPS при произвольном чтении составляет до 1,75 млн, при произвольной записи — до 340 тыс. Задержка — 67/9 мкс. Отмечается, что при использовании иммерсионного охлаждения средний годовой показатель PUE составляет менее 1,15 против 1,4–1,6 при традиционном воздушном охлаждении, что соответствует снижению на 15–28 %. Плотность мощности в расчёте на стойку возрастает на порядок — с 3–5 кВт до 48 кВт.
31.12.2025 [10:17], Владимир Мироненко
SoftBank успела завершить рекордные инвестиции в OpenAI на $40 млрд и стать одним из крупнейших акционеровЯпонская холдинговая компания SoftBank Group Corp. объявила в среду, 31 декабря, что полностью выполнила обязательство инвестировать в OpenAI $40 млрд в рамках сделки, заключённой в марте этого года. Структура сделки включает прямые инвестиции SoftBank в сочетании с синдицированными совместными инвестициями от других инвесторов. Согласно заявлению SoftBank, она направила стартапу 26 декабря в рамках второго этапа закрытия инвестиционной сделки сумму в размере $22,5 млрд, в результате чего её доля в OpenAI теперь составляет приблизительно 11 %. На первом этапе японская компания инвестировала в OpenAI в апреле 2025 года $7,5 млрд через свой венчурный фонд SoftBank Vision Fund 2, занимающийся инвестициями в ИИ-компании. SoftBank сообщила, что OpenAI также получил синдицированные соинвестиции от других инвесторов на сумму $11 млрд, в результате чего общая сумма её инвестиций в стартап из Сан-Франциско (США) составила $41 млрд. Как отметило агентство Reuters, после объявления о сделке с SoftBank рыночная стоимость OpenAI составила, по оценкам PitchBook, $300 млрд, а после вторичного размещения акций в октябре его капитализация выросла до $500 млрд. SoftBank на протяжении многих лет активно инвестирует в технологические компании и ИТ-инфраструктуру. Она одной из первых вложилась в производителя ИИ-ускорителей NVIDIA. На этой неделе SoftBank также объявила о покупке инвестиционной компании DigitalBridge, специализирующейся на финансировании строительства центров обработки данных. |
|
