Материалы по тегу:
|
09.12.2025 [00:17], Владимир Мироненко
IBM купила Confluent за $11 млрд, чтобы побольше заработать на ИИIBM объявила о приобретении поставщика инфраструктуры для обработки потоковых данных Confluent. Согласно соглашению, IBM приобретает все выпущенные и находящиеся в обращении обыкновенные акции Confluent по цене $31/ед., что на 25,5 % превышает текущую цену акций в $23,14 и соответствует общей стоимости предприятия в $11 млрд. Оплата будет произведена IBM за счёт имеющихся денежных средств. Покупка Confluent станет крупнейшей сделкой для IBM за последнее время, поскольку компания переориентирует свой бизнес на ИИ, пишет The Wall Street Journal. После объявления о сделке акции Confluent взлетели более чем на 25 % на премаркете, в то время как акции IBM немного упали в цене. В июне 2021 года Confluent вышла на биржу, получив в ходе первичного размещения $828 млн при оценке рыночной стоимости в $4,5 млрд. В настоящее время рыночная капитализация Confluent составляет $8,09 млрд. Confluent была основана в 2014 году тремя бывшими инженерами LinkedIn, разработавшими ПО Apache Kafka. В 2015 году компания запустила самоуправляемую платформу Confluent, а в 2020 году — полностью управляемое SaaS-решение Confluent Cloud. У компании насчитывается более 6500 клиентов в основных отраслях промышленности. Более 40 % из них входят в список Fortune 500. Confluent сотрудничает в технологической отрасли с такими компаниями, как Anthropic, AWS, GCP, Microsoft, Snowflake и т.д. Сделка уже одобрена советом директоров IBM, а также советом директоров и независимым специальным комитетом Confluent. Теперь дело за одобрением акционерами Confluent и получением разрешений регулирующих органов. IBM сообщила, что заключила соглашение с крупнейшими акционерами и инвесторами Confluent, которым в совокупности принадлежит около 62 % голосующих акций, находящихся в обращении. Согласно этому соглашению, они будут голосовать за одобрение сделки только с IBM. Как ожидается, с учётом необходимых процедур, сделка будет закрыта к середине 2026 года.
Источник изображения: Confluent Confluent является разработчиком корпоративной open source платформы для работы с потоками данных в режиме реального времени. IBM отметила, что Confluent «превосходно» справляется с подготовкой данных для ИИ, поддерживая их чистоту и связность и устраняя разрозненность, присущую агентному ИИ. За последние четыре года общий объём доступного рынка Confluent (TAM) удвоился с $50 до $100 млрд. Возможности Confluent в сочетании с ПО IBM для ИИ-инфраструктуры и решениями IBM для автоматизации обеспечат более эффективную работу компаний в сфере ИИ. Благодаря сделке IBM получит мощный механизм и платформу для стриминговой обработки данных в режиме реального времени, которые она сможет интегрировать в свои решения для ИИ-конвейеров, в том числе в агентов watsonx, отметил ресурс Blocks & Files. В мае 2025 года IBM приобрела примерно за $3 млрд DataStax, разработчика AstraDB — облачной NoSQL-СУБД на базе Apache Cassandra, интеграция технологий которой в IBM watsonx поможет управлять и упрощать доступ к огромным объёмам данных, которые необходимы для генеративного ИИ. В свою очередь, Salesforce в мае приобрела компанию Informatica, занимающуюся инфраструктурой данных, примерно за $8 млрд, а Databricks в октябре анонсировала продукт для стриминговой работы с данными, что может ограничить рынок Confluent, пишет Blocks & Files.
08.12.2025 [23:50], Андрей Крупин
В России запущена облачная платформа квантовых вычислений Bauman Octillion — она открыта для всех исследователейМГТУ им. Н. Э. Баумана сообщил о запуске облачной платформы квантовых вычислений Bauman Octillion, позволяющей запускать алгоритмы и экспериментировать на квантовых сопроцессорах, их эмуляторах, а также изучать образовательные материалы и модели, демонстрирующие потенциальные возможности квантовых вычислений. Площадка запущена в сотрудничестве с ФГУП «ВНИИА им. Н.Л. Духова», госкорпорацией «Росатом» и представляет собой альтернативу сервису IBM Quantum Platform, недоступному пользователям из РФ и ряда других стран мира. Bauman Octillion представляет собой комплекс для проведения гибридных квантово-классических вычислений на базе спроектированной и изготовленной совместным центром МГТУ им. Н. Э. Баумана и ФГУП «ВНИИА им. Н.Л. Духова» квантовой электронной компонентной базы, включающей сверхпроводниковые квантовые сопроцессоры SnowDrop 4Q (4 кубита) и SnowDrop 8Q (8 кубитов), а также систему считывания кубитов с уровнем собственных шумов, близким к квантовому пределу. К услугам пользователей в постоянном доступе 4-кубитная квантовая машина, квантовый эмулятор, среда запуска квантово-классических алгоритмов, система управления и полный стек программного обеспечения. С 10 по 20 декабря будет также открыт доступ к 8-кубитному квантовому сопроцессору SnowDrop 8Q, вычислительное пространство которого составляет 256 состояний, что в 16 раз больше, чем у SnowDrop 4Q.
Пользовательский интерфейс облачной платформы Bauman Octillion (источник изображения: docs.octillion.bmstu.ru) Квантовые сопроцессоры и их эмуляторы доступны в режиме реального времени, задачи выполняются в порядке очереди. Для работы в Bauman Octillion предусмотрены графический конструктор алгоритмов, API-клиент и обучающие материалы. Для написания квантовых алгоритмов API-клиент поддерживает фреймворки Qiskit и QASM. Облачная платформа открыта для всех заинтересованных лиц — для работы с ней необходимо создать учётную запись и предоставить краткое обоснование необходимости доступа к системе. Сервис ориентирован на широкий круг ведущих отечественных организаций, осуществляющих научные исследования и внедрение передовых технологий, включая госкорпорации и компании высокотехнологичного сектора, инвестирующие в развитие квантовых решений, а также широкий ряд научных институтов Российской академии наук. «Вычислительная облачная платформа Bauman Octillion — это новый инструмент изучения квантового мира с акцентом на практические применения. Мы последовательно расширяем линейку доступного «железа» — от 4 кубитов к 8 — впервые в российской квантовой индустрии. Мы приглашаем всех заинтересованных исследователей подключаться к нашему облаку, экспериментировать на реальных чипах, не покидая стен своих лабораторий», — говорится в сообщении пресс-службы МГТУ им. Н. Э. Баумана.
08.12.2025 [16:35], Владимир Мироненко
Помимо циклических сделок NVIDIA теперь раздаёт партнёрам и «кредиты доверия»Несмотря на растущую критику стратегии NVIDIA по финансированию своих клиентов, компания продолжает поддерживать своих партнёров и заказчиков всё новыми способами. Как пишет Data Center Dynamics, в своём недавнем отчёте по форме 10-Q NVIDIA сообщила, что выступила в качестве гаранта своего партнёра, что позволило последнему «обеспечить аренду объекта с ограниченной доступностью, подкреплённую кредитной историей» NVIDIA. Партнёр, имя которого не раскрывается, разместил на эскроу-счете около $470 млн, и у него уже есть соглашение о продаже облачных мощностей, что, по словам NVIDIA, снижает риск. Если компания не выполнит свои обязательства, NVIDIA имеет право взять объект в аренду для внутреннего использования или сдать его в субаренду, но ей придётся выплатить в течение пяти лет $860 млн. За последнее время NVIDIA заключила с покупателями своих ускорителей ряд сделок, отличающихся циклическим характером, что увеличило и без того высказываемые опасения экспертов в растущем пузыре на ИИ-рынке. Компания поддержала, в том числе, такие необлака, как CoreWeave, Nebius, Nscale, Lambda и Crusoe. В некоторых случаях компания выступает в качестве гаранта продаж. В сентябре этого года NVIDIA пообещала выкупить нераспроданные вычислительные мощности у CoreWeave за $6,3 млрд, а также заключила сделку с Lambda на $1,5 млрд на аренду серверов с собственными чипами. NVIDIA также готова инвестировать крупные суммы в разработчиков ИИ-моделей. Она заключила мегасделку на $100 млрд с OpenAI, а также сделку на $10 млрд с Anthropic. Обе сделки пока не завершены, и также привязаны к гарантиям продажи ускорителей. Также сообщается, что NVIDIA обсуждала возможность поддержки кредитов OpenAI на ЦОД, чтобы ускорить реализацию планов по расширению комплекса Stargate. Компания также инвестирует в разработчиков ИИ-моделей Mistral AI, xAI и Cohere, планирует инвестировать $5 млрд в Intel и $2 млрд в разработчика ПО Synopsys, а также поддерживает фонд ЦОД под руководством BlackRock. Уровень инвестиций в поддержание собственных продаж вызвал критику известного инвестора Майкла Берри (Michael Burry), ставшего прообразом одного из героев фильма «Игра на понижение», вынудив NVIDIA оправдываться, заявив, что она отличается от Enron, обанкротившейся из-за бухгалтерского мошенничества, а также от WorldCom или Lucent, оказавшихся в центре скандалов из-за манипуляций с учётом финансов и отчётностью.
08.12.2025 [14:20], Владимир Мироненко
$2 млрд инвестиций NVIDIA в Synopsys несут риски для UALinkОбъявление NVIDIA о расширении сотрудничества с Synopsys, разработчиком ПО для проектирования чипов и членом совета директоров UALink, и инвестициях в размере $2 млрд в совместные инициативы, последовавшее после недавнего решения производителя ИИ-ускорителей инвестировать $5 млрд в Intel, вызвали опасения по поводу его возможного влияния на разработку UALink — альтернативы собственному интерконнекту NVLink. Как отметил Network World, Synopsys входит в совет директоров консорциума Ultra Accelerator Link (UALink) — отраслевой коалиции из более чем 80 компаний, включая AMD, Intel, Google, Microsoft и Meta✴, которая работает над созданием открытой альтернативы технологии NVIDIA NVLink для объединения ИИ-ускорителей в один домен. NVIDIA инвестировала $2 млрд в обыкновенные акции Synopsys ($414,79/ед.), получив долю в разработчике ПО и планируя в рамках партнёрства объединить преимущества своих технологий с ведущими на рынке инженерными решениями Synopsys. В сентябре NVIDIA инвестировала $5 млрд в Intel, объявив о сотрудничестве с целью разработки чипов для ЦОД и ПК с использованием NVLink Fusion. За несколько месяцев до этого Intel взяла на себя обязательство совместно разрабатывать конкурирующий стандарт UAlink. Arm тоже присоединилась к консорциуму UAlink, участвуя при этом и в экосистеме NVLink Fusion.
Источник изображения: NVIDIA Moor Insights & Strategy считает, что с помощью инвестиций NVIDIA укрепляет свою экосистему на фоне вызовов AMD, будь то CPU, GPU или сетевые решения. Вместе с тем аналитики признают, что это «действительно усиливает давление на UALink» — финансовая «доля» NVIDIA в консорциуме UALink может повлиять на разработку открытого стандарта, специально созданного для конкуренции с технологиями самой NVIDIA и предоставления предприятиям более широкого выбора компонентов. Компании считают такие открытые стандарты критически важными для предотвращения привязки к одному поставщику и поддержания конкурентоспособных цен. В апреле консорциум ратифицировал спецификацию UALink 200G 1.0, определяющую открытый стандарт для объединения в один кластер до 1024 ИИ-ускорителей со скоростью 200 Гбит/с на линию. Это прямой конкурент NVLink, хотя и не такой производительный. При этом Synopsys играет ключевую роль в работе консорциума. Она не только вошла в совет директоров UALink, но и анонсировала первые в отрасли компоненты для проектирования UALink, позволяющие создавать ускорители, совместимые с UALink. Gartner признаёт наличие напряжённости: «Сделка между NVIDIA и Synopsys действительно вызывает вопросы о будущем UALink, поскольку Synopsys является ключевым партнёром консорциума и владеет критически важными IP на UALink, который конкурирует с проприетарным NVLink». По оценкам Greyhound Research, Synopsys играет ведущую роль в UALink, поэтому вхождение NVIDIA в структуру акционеров Synopsys может повлиять на заинтересованность последней в работе консорциума. UALink действует благодаря коммерческому согласованию, общим приоритетам НИОКР и близости планов развития участников. Даже потенциальная возможность влияния NVIDIA может подорвать доверие среди членов UALink. «Партнёры по консорциуму должны быть готовы к тому, что будущие версии UALink могут быть сформированы таким образом, что это либо замедлит их развитие, либо будет смещено в сторону компромиссов в дизайне для минимизации конкурентного давления на NVLink», — предупреждает Greyhound Research, призывая консорциум «срочно усилить управление, повысить прозрачность в отношении вклада Synopsys и рассмотреть механизмы защиты, если хочет сохранить доверие». Объявляя о партнёрстве, NVIDIA и Synopsys подчеркнули, что сотрудничество будет сосредоточено на инженерных инструментах на базе ИИ, а не на интерконнектах. В частности, библиотеки NVIDIA CUDA-X будут интегрированы в приложения Synopsys для проектирования микросхем, молекулярного моделирования и электромагнитного анализа. В пресс-релизе по поводу сотрудничества не было никакого упоминания NVLink или интерконнектов. «Поэтому это больше похоже на партнёрство в сфере ПО, чем в сфере интеллектуальной собственности», — пишет Moor Insights & Strategy. Генеральный директор Synopsys Сассин Гази (Sassine Ghazi), подчеркнул, что партнёрство никак не связано с циклическим финансированием. «Мы не намерены и не берём на себя обязательство использовать эти $2 млрд на покупку GPU NVIDIA», — сказал он, добавив, что к партнёрству могут присоединиться другие производители микросхем. Это означает, что компании могут продолжать сотрудничество в рамках более широкой экосистемы, то есть Synopsys продолжит работать с другими поставщиками, конкурирующими с NVIDIA, будь то AMD, Broadcom или один из гиперскейлеров. В ответ на просьбу Network World прокомментировать возможное влияние партнёрства на её приоритеты, Synopsys заявила, что это не меняет её стратегию. В свою очередь, NVIDIA не ответила вопрос ресурса о том, как эти инвестиции могут повлиять на деятельность Synopsys в рамках UALink или на независимость консорциума. Впрочем, аналитики сходятся во мнении, что для консорциума это партнёрство вряд ли можно считать чем-то позитивным. UALink важен для будущих ИИ-платформ AMD. HPE, которая одной из первых поддержала решение AMD Helios AI, будет использовать реализацию UALink over Ethernet (UALoE).
08.12.2025 [13:00], Руслан Авдеев
Акции «маленькой NVIDIA» — китайской Moore Threads выросли более чем впятеро после IPOПосле выхода на IPO акции китайской Moore Threads Technology, называемой «маленькой NVIDIA», выросли с ¥114,28 до ¥650 на фоне общего спада рынка в Шанхае. Цена поднялась более чем впятеро, сообщает гонконгская SCMP — инвесторы тем самым выразили доверие пекинскому стартапу, специализирующемуся на ИИ-чипах. Это второй по масштабу выход на IPO в КНР (его материковой части) в 2025 году. На пике рост составил 468 % от изначальной цены, на момент закрытия торгов в пятницу цена снизилась до ¥600,50 (рост 425 %), биржевой индекс CSI300 Index по итогам дня вырос на 0,8 %. В ходе IPO компания привлекла ¥8 млрд ($1,13 млрд). Вырученные средства потратят на реализацию ИИ-проектов нового поколения, создание ИИ-чипов и др. По масштабу IPO стартап уступил только Huadian New Energy Group, выручившей $2,7 млрд в июле. Moore Threads довольно быстро получила разрешение на IPO от китайских регуляторов, спустя всего четыре месяца после подачи заявки. При этом в среднем время обработок таких заявок составляет около 470 дней, во всяком случае, для заявок Shanghai Stock Exchange Science and Technology Innovation Board (STAR Market). Глава и основатель DeepSeek Лян Вэньфэн (Liang Wenfeng) и хедж-фонда HighFlyer инвестировал в Moore ¥7 млн.
Источник изображения: Moore Threads Как сообщает SCMP, компания имеет большие амбиции и намерена стать «ведущим глобальным игроком» на рынке ИИ-технологий. Дело в том, что её платформа MUSA, в отличие от предложений Huawei, совместима с NVIDIA CUDA, что даёт бизнесу большое преимущество не только на китайском, но и на международном рынке. Глава Moore Threads Чжан Цзяньчжун (Zhang Jianzhong) занимал в NVIDIA ключевые посты в Китае с 2006 по 2020 гг. Ранее он сообщал, что компания будет выпускать по чипу нового поколения ежегодно, чтобы обеспечить Китаю ключевые аппаратные решения для развития ИИ-проектов. По его словам, главная цель компании сегодня — стать «ведущим игроком на рынке GPU с международной конкурентоспособностью». По некоторым оценкам, разработки Moore Threads считаются в КНР лучшим «ответом» NVIDIA. По словам Чжана, для китайских властей жизненно важно поддерживать разработку ИИ-ускорителей в стране: если «домашняя» цепочка поставок сможет поддержать ускорители местной разработки, это поможет улучшить продукты и повысить конкурентоспособность китайской полупроводниковой индустрии. Ранее NVIDIA неоднократно жаловалась, что вводимые США ограничения на поставки ИИ-американских ускорителей в Китай лишь ставят под сомнение доминирование Соединённых Штатов в мире ИИ. Не так давно сообщалось, что власти обсуждают разрешение продаж в КНР ускорителей NVIDIA H200.
08.12.2025 [10:02], Сергей Карасёв
DDN анонсировала «прорывные» хранилища данных для ИИ — из разномастных SSD и HDDКомпания DataDirect Networks (DDN) анонсировала, как утверждается, «прорывную» архитектуру хранения данных, ориентированную на системы для ресурсоёмких задач ИИ. По сравнению с другими платформами предложенное решение обеспечивает возможность существенного снижения финансовых затрат при высоком уровне производительности. DDN отмечает, что стремительное развитие ИИ приводит к повышению спроса на SSD, что, в свою очередь, провоцирует рост цен на чипы флеш-памяти NAND, а следовательно, и на твердотельные накопители. Аналитики TrendForce прогнозируют увеличение контрактных цен на изделия NAND на 5–10% только в IV квартале 2025 года. Волатильность цен на SSD и HDD нарушает сроки реализации проектов, создаёт неопределённости при планировании бюджета и ставит под угрозу развитие масштабных ИИ-платформ. DDN заявляет, что её архитектура данных помогает решить проблему. Обычные СХД, ориентированные на требовательные ИИ-нагрузки, как подчёркивает DDN, полагаются исключительно на дорогие высокопроизводительные NVMe-накопители. Архитектура DDN предполагает сочетание трёх уровней хранения — на базе SSD высокого класса, недорогих SSD и HDD. Такой подход реализован в платформах DDN EXA и Infinia. Отмечается, что предложенная архитектура позволяет задействовать ресурсы GPU-ускорителей на 90–98 % при выполнении задач, связанных с обучением больших языковых моделей (LLM), инференсом, аналитикой больших данных и НРС. При этом потребность в дорогостоящих высокопроизводительных SSD (NVMe) снижается на 35–65 %, общие капитальные затраты на организацию хранения сокращаются на 40–70 %, а эксплуатационные расходы уменьшаются на 30–60 %. Заявлена глубокая оптимизация для NVIDIA DGX, GB200, Spectrum-X, BlueField и NIM. Среди сфер применения архитектуры названы финансовый сектор, автомобилестроение и робототехника, науки о жизни, производство, государственный сегмент и суверенный ИИ.
08.12.2025 [09:48], Сергей Карасёв
Вышел мини-компьютер AAEON Boxer-8651AI-Plus на платформе NVIDIA Jetson Orin NXКомпания AAEON представила компьютер небольшого форм-фактора Boxer-8651AI-Plus, спроектированный для выполнения ИИ-задач на периферии (Edge AI). Устройство может эксплуатироваться в неблагоприятных условиях, включая повышенные вибрации и температуры от -25 до +55 °C. В основу положена платформа NVIDIA Jetson Orin NX: доступны модификации с 8 и 16 Гбайт памяти LPDDR5. В первом случае в состав решения входят шесть CPU-ядер Arm Cortex-A78AE, во втором — восемь. Обе версии несут на борту графический блок на архитектуре NVIDIA Ampere с 1024 ядрами. Благодаря поддержке Jetpack 6.2 реализован режим Super Mode, повышающий ИИ-производительность на операциях INT8 (Sparse) со стандартных 100 до 157 TOPS. Компьютер оснащён разъёмами M.2 3042/3052 B+M Key для SSD или модема 4G/5G (плюс слот для SIM-карты) и M.2 2230 E Key для адаптера Wi-Fi/Bluetooth. Доступны четыре порта USB 3.2 Gen2 Type-A, последовательный порт RS-232 (Rx/Tx/CTS/RTS), коннектор Micro-USB, интерфейс HDMI 1.2 с поддержкой разрешения до 1920 × 1080 точек, сетевой порт 1GbE RJ45, а также гнёзда для подключения антенн беспроводной связи. Новинка заключена в корпус с размерами 125 × 90 × 56 мм. Применено пассивное охлаждение; ребристая поверхность способствует более эффективному рассеянию тепла. Масса составляет 0,84 кг. Питание в диапазоне 12–24 В подаётся через 2-контактный разъём. Возможен монтаж компьютера на стену. За безопасность отвечает модуль TPM 2.0.
08.12.2025 [09:47], Сергей Карасёв
MSI представила Intel-систему MS-C910E для ИИ-задач на периферииКомпания MSI IPC анонсировала индустриальный компьютер MS-C910E, предназначенный для выполнения ИИ-задач на периферии. Среди возможных сфер применения названы автоматизация производства, мониторинг безопасности и контроль доступа, платформы управления энергоресурсами, IoT-шлюзы, автоматизированные системы складирования и логистики и пр. Решение выполнено в корпусе с габаритами 285 × 217 × 431,1 мм. В основу положена материнская плата на наборе логики Intel R680E. Допускается установка процессоров Intel в исполнении LGA 1700 с показателем TDP до 65 Вт: это могут быть чипы поколения Alder Lake-S, Raptor Lake-S, Raptor Lake-S Refresh или изделия семейства Bartlett Lake-S, официальный анонс которых ожидается в ближайшее время. Доступны два слота SO-DIMM для модулей оперативной памяти DDR5-5600 (ECC/non-ECC) суммарным объёмом до 96 Гбайт. Есть посадочные места для двух SFF-накопителей с интерфейсом SATA и коннектор M.2 M-key для SSD формата 2280 с интерфейсом PCIe 4.0 x4 (NVMe) или SATA 3.0. Предусмотрено по одному слоту PCIe x16, PCIe x8 и PCIe x1. В оснащение входят три сетевых порта 2.5GbE на базе Intel I226V, один порт 2.5GbE на основе Intel I226LM, звуковой кодек Realtek ALC897 HD Audio, TPM-контроллер Infineon SLB9672VU2.0.
Источник изображения: MSI Возможен вывод изображения на четыре монитора через два интерфейса HDMI и два порта DisplayPort: во всех случаях поддерживается разрешение до 4096 × 2304 точки при частоте обновления 60 Гц. В набор разъёмов входят четыре гнезда RJ45 для сетевых кабелей, восемь портов USB 3.2 Gen2, аудиогнёзда на 3,5 мм, четыре последовательных порта, колодка GPIO. Питание подаётся через DC-коннектор (12–48 В). Диапазон рабочих температур простирается от -10 до +40 °C. Говорится о совместимости с Windows 10 IoT Enterprise 2021 LTSC, Windows 11 IoT Enterprise LTSC и Linux.
08.12.2025 [09:28], Руслан Авдеев
И запитать, и охладить: LG и LS сделали Microsoft пакетное предложение на инфраструктуру для ИИ ЦОД стоимостью миллиарды долларовТоп-менеджеры южнокорейских LG Group и LS Group посетили штаб-квартиру Microsoft в США для того, чтобы предложить всеобъемлющий план внедрения ИИ-инфраструктуры нового поколения. Это довольно редкий случай координации действий компаний на уровне высшего руководства для привлечения внимания одного из ключевых инвесторов в ИИ, сообщает The Korea Herald. Вместо того, чтобы предлагать отдельные продукты, южнокорейская делегация представила комплексную концепцию, направленную на решение двух главных проблем современных ЦОД — высокого тепловыделения и высокого энергопотребления. Вместо закупок компонетов по отдельности у компаний вроде Vertiv или Schneider Electric, в последнее время не готовых похвастаться малыми сроками поставок оборудования, Microsoft получила чрезвычайно выгодное пакетное предложение от вертикально интегрированных участников цепочки поставок. Для решения проблем с теплоотводом LG предложила передовые технологии терморегуляции вроде прямого жидкостного охлаждения чипов, системы иммерсионного охлаждения и чиллеры с центробежными компрессорами на магнитных подшипниках. Все эти решения направлены на оптимизацию использования энергии и улучшения коэффициента PUE. Ранее уже было объявлено о партнёрстве LG и Microsoft в вопросе охлаждения будущих ИИ ЦОД. LS предложила инфраструктурные решения, связанные непосредственно с подачей энергии, в том числе технологию шин, заменяющих громоздкие кабели для экономии места и снижения тепловыделения в условиях высокой плотности размещения оборудования в стойках, высоковольтные трансформаторы и системы подключения к энергосетям. LS включила в пакет предложений и аккумуляторные энергохранилища для сглаживания потребления в часы пиковых нагрузок. Хотя южнокорейские СМИ поспешили сообщить, что крупномасштабная сделка с Microsoft, стоимость которой оценивается в несколько миллиардов в год, уже подписана, участники делегации выпустили официальное уведомление о том, что окончательного соглашения ещё нет и дальнейшее взаимодействие продолжают обсуждать. Впрочем, присутствие топ-менеджеров двух крупных южнокорейских бизнес-групп в Редмонде уже свидетельствует о серьёзном настрое южнокорейского бизнеса позиционировать себя как инфраструктурного партнёра мирового уровня для ИИ-проектов. Стремление к унификации и объединения технологий прослеживается и среди других игроков рынка ЦОД. Так, в ноябре сообщалось, что NVIDIA ужесточит контроль над выпуском ИИ-платформ, задвинув Foxconn и других партнёров на второй план.
08.12.2025 [08:49], Сергей Карасёв
Японские Arm-процессоры Fujitsu MONAKA пропишутся в «зелёном» европейском ИИ-облаке ScalewayЯпонская корпорация Fujitsu и французский облачный провайдер Scaleway объявили о заключении соглашения о стратегическом сотрудничестве, направленном на формирование в Европе устойчивой ИИ-платформы с прицелом на суверенитет данных. Стороны намереные использовать будущие CPU Fujitsu для инференса. Речь идёт о Fujitsu Monaka, выход которых запланирован на 2027 год. Эти 2-нм чипы с 3.5D-упаковкой получат до 144 вычислительных ядер с архитектурой Arm, а также 12 каналов оперативной памяти DDR5, интерфейс PCIe 6.0 с CXL 3.0. Для систем на базе Monaka предусмотрено воздушное охлаждение. Отмечается, что в настоящее время многие организации используют ИИ-модели в своих операциях и производственных процессах на постоянной основе. Это порождает потребность в предсказуемой производительности и контролируемых эксплуатационных расходах при одновременном снижении негативного воздействия на окружающую среду. Архитектуры на базе CPU способствуют решению подобных задач, поскольку обеспечивают стабильное быстродействие, более низкое по сравнению с GPU энергопотребление и простую интеграцию в существующие окружения. В рамках партнёрства Fujitsu и Scaleway проведут совместное тестирование CPU-платформ для задач ИИ: цель заключается в создании оптимальных инфраструктурных решений, адаптированных к конкретным рабочим нагрузкам. В результате, заказчики смогут выбрать наиболее подходящую систему с учётом своих потребностей и бюджета. В целом, платформы на базе Monaka станут дополнением к GPU-системам. Предварительные результаты испытаний, предоставленные Fujitsu, говорят о повышении энергоэффективности в 1,9 раза и снижении затрат в 1,7 раза в случае определённых нагрузок, связанных с инференсом. Платформы с чипами Monaka, как утверждается, могут поддерживать ИИ-модели, насчитывающие до 70 млрд параметров. |
|
