Материалы по тегу:
|
02.03.2026 [09:56], Руслан Авдеев
И не звони мне больше: Microsoft представила по-настоящему автономное частное облако Azure Local
azure stack
microsoft
microsoft azure
software
евросоюз
информационная безопасность
конфиденциальность
облако
частное облако
Microsoft улучшила автономность решения Azure Local, позволяющего теперь создавать полностью «карманные» облака без подключения к интернету. На фоне политических трений между руководством США и Евросоюза всё больше европейских клиентов желают обеспечить себе цифровой суверенитет, сообщает The Register. Как и конкуренты из числа американских гиперскейлеров, Microsoft представила для Европы инициативы, призванные устранить сомнения местных заказчиков в безопасности их данных, включая возможность блокировки доступа к ним или получение доступа к информации американскими властями в рамках закона US CLOUD Act. В марте 2025 года Microsoft завершила формирование сервиса EU Data Boundary, а в ноябре добавила новые функции, призванные дополнительно укрепить уверенность европейских клиентов. Тем не менее всё больше организаций в Европе требуют полного контроля над своими данными, чего сервис обеспечить не может, поскольку Microsoft подчиняется американским законам. Компания даже пообещала судиться с правительством США, если то попытается лишить европейских клиентов её продуктов. Azure Local (Azure Stack HCI) — ответ Microsoft на опасения Европы. Azure Local и ранее позволял работать на собственных мощностях, но требовал подключение к «большому» облаку хотя бы раз в 30 дней для обновлений, мониторинга и проверки лицензий, в противном случае функциональность ограничивалась. Теперь же в Azure Local доступны полностью изолированные от публичных облаков операции. Другими словами, связь с «метрополией» больше не нужна. Кроме того, компания обеспечила локальный доступ к Microsoft 365 Local (в частности, Exchange Server, SharePoint Server и Skype for Business Server), а также анонсировала Foundry Local для «квалифицированных клиентов». Заверения Microsoft могут быть восприняты с недоверием — особенно с учётом того, что в 2025 году компания признала во Франции, что буквально не имеет возможности обеспечить данным полный суверенитет — если с требованием предоставить доступ к данным выступят американские власти. Возможность работать полностью независимо от Сети должна убедить клиентов в привлекательности работы с IT-гигантом, даже с учётом того, что ПО разрабатывается за океаном. По словам представителя ассоциации европейских облачных провайдеров CISPE, суверенитет всё более становится обязательным требованием, поэтому инструменты, позволяющие работать на локальных облачных платформах, приветствуются. Ассоциация намерена оценить новое предложения на предмет гарантий суверенитета и надёжности в рамках программы CISPE Sovereign Cloud Services Framework. CISPE и Microsoft достигли в 2024 году соглашения, в соответствии с которым IT-гигант обещал разработать версию Azure Local для европейских провайдеров и хорошо заплатить, а CISPE обязалась отказаться от обвинений компании в неконкурентных практиках. Правда, Microsoft уже пропустила оговоренные сроки. Microsft — не единственный техногигант, работающий над обеспечением суверенитета для своих клиентов. Amazon Web Services (AWS) предложила всеобщий доступ к своему суверенному облаку European Sovereign Cloud, а Google продаёт клиентам множество суверенных решений, включая Google Cloud Airgapped — сервис работает на серверах, полностью отключенных от интернета. Впрочем, Google в основном предпочитает совместные партнёрские решения с европейскими компаниями. Удовлетворит ли новое решение клиентов Microsoft, покажет практика его применения и то, каким будет определение «суверенитета». Возможность полного отключения от Сети удовлетворит некоторых клиентов, хотя некоторых по-прежнему может беспокоить то, что программное обеспечение может оставаться под контролем Microsoft. И даже если внутренние данные никуда не «утекут», всё равно остаётся вероятность того, что компания сможет тем или иным образом отключить сервисы Azure Local. Корпоративные клиенты уже ищут альтернативные предложения от локальных облачных провайдеров. В конце 2025 года немецкая SAP объявила, что инвестирует более €20 млрд ($23,3 млрд) в расширение суверенного облачного сервиса в Европе. Правда, глава SAP Кристиан Кляйн (Christian Klein) ранее заявлял, что не видит смысла в построении в Европе собственной облачной инфраструктуры в противовес уже созданной здесь американцами. Кроме того, у компании весьма тесные отношения с Azure. Доля же истинно европейских облаков годами остаётся низкой, поэтому отказаться от услуг заокеанских компаний практически невозможно, а open source в обозримом будущем вряд ли поможет.
02.03.2026 [08:59], Владимир Мироненко
Fujitsu похвасталась, что её 2-нм процессоры MONAKA получат продвинутую упаковку Broadcom 3.5D XDSiPBroadcom объявила о начале поставок первой в отрасли 2-нм специализированной SoC, построенной на платформе 3.5D eXtreme Dimension System in Package (XDSiP). Модульная многомерная платформа с многослойной компоновкой чиплетов, 3.5D XDSiP, которая используется в чипе Fujitsu MONAKA, сочетает в себе 2.5D-упаковку и 3D-интеграцию с использованием технологии гибридного соединения между чиплетами (Face-to-Face, F2F), значительно повышающего пропускную способность. Сообщается, что технология 3.5D XDSiP станет основой XPU следующего поколения. С её помощью компании в сфере ИИ могут создавать самые передовые XPU с «беспрецедентной плотностью сигнала, превосходной энергоэффективностью и низкой задержкой», позволяющие удовлетворить вычислительные потребности ИИ-кластеров гигаваттного масштаба. Платформа Broadcom XDSiP позволяет масштабировать вычислительные ресурсы, память и сетевые интерфейсы независимо друг от друга в компактном форм-факторе, обеспечивая энергоэффективные вычисления с высокой производительностью, говорит компания. «Мы гордимся тем, что представили первый специализированный SoC на базе 3.5D-упаковки для Fujitsu», — сказал Фрэнк Остоич (Frank Ostojic), старший вице-президент и генеральный директор подразделения ASIC-продуктов Broadcom. Он отметил, что с момента внедрения технологии 3.5D XDSiP в 2024 году компания Broadcom расширила возможности своей 3.5D-платформы, чтобы поддерживать XPU для более широкой клиентской базы, поставки которых начнутся во II половине 2026 года. Как отметил ресурс The Register, Fujitsu стала одной из первых компаний-разработчиков чипов, публично признавших использование этой технологии Broadcom. Обычно клиенты Broadcom не стремятся предать огласке, какие IP-блоки они лицензируют, а какие создают сами. Например, всем известно, что Google тесно сотрудничает с Broadcom в разработке TPU, но не всегда ясно, где заканчивается вклад Google и начинается работа Broadcom. «Мы работаем над этой технологией почти пять лет, — рассказал The Register Хариш Бхарадвадж (Harish Bharadwaj), вице-президент подразделения ASIC-продуктов Broadcom. — Мы отгрузили образцы на этой неделе для Fujitsu, и в своё время многие другие наши клиенты внедрили эту технологию для своих [решений] следующих поколений». Разрабатываемый Fujitsu чип MONAKA включает четыре 2-нм вычислительных чиплета, каждый — с 36 ядрами Armv9-A, расположенные поверх четырёх SRAM-чиплетов, изготовленных по 5-нм техпроцессу TSMC. Эти стеки объединяются с центральным I/O-чиплетом, который обслуживает 12 каналов DDR5 и линии PCIe 6.0/CXL 3.0, через кремниевую подложку-интерпозер. Кроме того, новинки получат поддержку NVIDIA NVLink. По словам Бхарадваджа, Fujitsu стала одной из первых компаний из числа внедривших технологию 3.5D XDSiP, но MONAKA является лишь одним из примерно полудюжины разрабатываемых проектов. Хотя MONAKA — это платформа для процессоров, примерно 80 % успешных проектов Broadcom с использованием XDSiP приходится на XPU с HBM, отметил он. В 2024 году сообщалось о поддержке платформой решений с 12 стеками HBM. В компании рассказали The Register, что сейчас разрабатываются проекты с более чем 12 стеками.
01.03.2026 [18:15], Руслан Авдеев
CPP Investments и Equinix купили за $4 млрд оператора экологичных ИИ ЦОД atNorthКанадский пенсионный фонд Canada Pension Plan Investment Board (CPP Investments) и Equinix анонсировали соглашение о покупке у Partners Group компании atNorth за $4 млрд, специализирующейся на предоставлении колокейшн-площадок для HPC/ИИ-нагрузок и провайдере ЦОД «под ключ», сообщает HPC Wire. Digital Realty, тоже пытавшаяся купить atNorth, осталась не у дел. CPP и Equinix предварительно согласовали финансирование в объёме $4,2 млрд (€3,6 млрд) как для закрытия самой сделки, так и для расширения бизнеса atNorth. CPP Investments намерена вложить около $1,6 млрд, получив долю в 60 % компании, а Equinix — около 40 %. Сообщается, что сразу после закрытия сделка, которая ещё ожидает одобрение регуляторов, окажет положительное действие на скорректированный денежный поток от операционной деятельности (AFFO) Equinix. Сделка укрепляет долговременное сотрудничество между Equinix и CPP Investments — в 2024 году было создано совместное предприятие с сингапурской GIC для расширения портфоли ЦОД xScale. У atNorth есть восемь действующих дата-центров, ещё несколько строятся в Дании, Финляндии, Исландии, Норвегии и Швеции — общий объём портфолио составляет 800 МВт. Кроме того, компания уже зарезервировала поставки 1 ГВт энергии. Некоторые объекты, разработанные для ИИ и HPC, поддерживают жидкостное охлаждение. Также компания активно внедряет возобновляемую энергетику, инициативы по использованию избыточного тепла от оборудования, в том числе для выращивания овощей, и модульный дизайн для минимизации ущерба окружающей среде и продвижению экономики замкнутого цикла. atNorth заявляет, что компания по-прежнему будет придерживаться работы в северном регионе и продолжит независимую работу под собственным брендом, сохраняя приверженность культуре и ценностям, которые она продвигает. В CPP Investments подчеркнули, что сделка основана на уже имеющемся долгосрочном сотрудничестве с Equinix. Фонд намерен и далее наращивать бизнес в быстрорастущем секторе ЦОД. Equinix подчеркнула, что для клиентов, нуждающихся в надёжном масштабировании, компания предлагает готовую к будущим задачам инфраструктуру с сохранением юридического и информационного суверенитета. Северная Европа укрепляет статус критически важного хаба для следующего этапа цифрового роста. Он имеет сильную и надёжную экономику, активно внедряет инновации, делает ставку на исследования и техническую экспертизу, а также экоустойчивые проекты. Здесь есть много источников возобновляемой энергии и оптимальный для ЦОД климат. Equinix располагает восемью ЦОД на севере Европы: пять в Хельсинки и три в Стокгольме. Всего же в ведении компании есть более 100 объектов в 20 странах. В Европе компания на 100 % компенсирует энергопотребление своих дата-центров за счёт покупок возобновляемой энергии. Это вполне соответствует «зелёному» курсу atNorth и, как ожидается, Equinix добьётся нулевых выбросов к 2040 году.
28.02.2026 [23:59], Владимир Мироненко
Hyundai инвестирует более $6 млрд в ИИ ЦОД, роботов, водородную и солнечную энергетику
hardware
hyundai
nvidia
водород
ии
инвестиции
робототехника
солнечная энергия
финансы
цод
энергетика
южная корея
Hyundai Motor Group и правительство Южной Кореи подписали соглашение об инвестировании около ₩9 трлн ($6,26 млрд) с целью строительства объединённого инновационного центра в районе Сэмангым (Saemangeum) города Кунсан (Gunsan), который будет включать в себя ИИ ЦОД, завод по производству робототехники и производство водородной/солнечной энергии, сообщило агентство Reuters со ссылкой на министерство земельных ресурсов страны. По данным ведомства, около ₩5,8 трлн (около $4,04 млрд) Hyundai инвестирует в строительство ИИ ЦОД, в котором будет развёрнуто 50 тыс. NVIDIA Blackwell. ЦОД будет оснащён «массивным» хранилищем для хранения огромных массивов данных для обучения, разработки программно-определяемых транспортных средств (SDV) и внедрения «умных заводов», заявили в Hyundai. Ожидается, что интегрированная платформа позволит ускорить исследования и разработку продукции по всей цепочке создания стоимости. Ещё ₩400 млрд (около $278,8 млн) будет выделено на строительство завода по производству роботов, в том числе носимых (экзоскелетов). Также компания инвестирует ₩1 трлн (около $697,2 млн) в строительство электролизерной установки с протонообменной мембраной (Proton Exchange Membrane, PEM) мощностью 200 МВт для производства экологически чистого водорода с использованием возобновляемых источников энергии на месте. Hyundai планирует со временем достичь общей мощности электролизеров в 1 ГВт на внутреннем рынке. Hyundai утверждает, что её технология PEM достигла более чем 90 % локализации, что способствует технологической независимости Южной Кореи и расширению экспортных возможностей экологически чистого водорода, сообщил ресурс Data Center Knowledge. Оставшуюся часть суммы в размере ₩1,3 трлн (около $906,6 млн) компания направит в солнечную энергетику — строительство солнечных электростанций гигаваттного масштаба к 2035 году на основе действующей с 2021 года 99-МВт электростанции. Hyundai рассматривает ЦОД как «мозг» своей ИИ-экосистемы, объединяющий данные производства, логистики и эксплуатации транспортных средств для развития ИИ внутри страны. В центре также будет создан «умный город» с водородными технологиями на основе ИИ, который интегрирует технологии в единую экосистему. Строительство ЦОД, солнечной инфраструктуры и объекта по производству водорода планируется начать в 2027 году и завершить в 2029 году. По прогнозам Hyundai, эти инвестиции принесут экономический эффект в размере около ₩16 трлн (примерно $11 млрд) и позволят создать около 71 тыс. рабочих мест.
28.02.2026 [12:23], Владимир Мироненко
TrendForce: капзатраты восьми гиперскейлеров в 2026 году превысят ВВП ИрландииВ этом году, по оценкам TrendForce, восемь крупнейших мировых облачных провайдеров — Google, Amazon, Meta✴, Microsoft, Oracle, Tencent, Alibaba и Baidu — направят более $710 млрд на капитальные затраты, что примерно на 61 % больше, чем в прошлом году и превышает валовой внутренний продукт (ВВП) Ирландии за прошлый год. Около $650 млрд из этой суммы приходится на первых четверых гиперскейлеров из этого списка, пишет The Register. Эти средства будут потрачены на строительство и расширение ЦОД, а также оборудование для них, включая высокопроизводительные серверы, обычно оснащённые ускорителями AMD или NVIDIA. Также набирают популярность ASIC других брендов, которые в отличие от универсальных ускорителей разрабатываются для конкретных видов нагрузки. По данным TrendForce, Google остаётся единственной облачной компанией, которая добавляет больше серверов на базе ASIC, чем на базе GPU. По оценкам аналитиков консалтинговй компании, процессоры Tensor Processing Units (TPU) будут использоваться примерно в 78 % ИИ-серверов для дата-центров Google в этом году. Ожидается, что у Amazon 60 % серверов будут оснащены GPU, и компания начнёт наращивать системы на базе Trainium3 позже в этом году. Компания Meta✴ также будет в основном полагаться на ускорители NVIDIA и AMD, которыми будут оснащены более 80 % серверов, установленных в этом году. Microsoft продолжит закупать стоечные системы NVIDIA, а Oracle расширяет развёртывание стоечных серверов с GPU. Из китайских операторов Tencent также продолжит развёртывать серверы с ускорителями NVIDIA, пусть и опосредованно. The Register отметил, что высокий спрос на ИИ-серверы привёл к росту цен на память и её дефициту, поскольку производители переводят производственные линии на выпуск высокорентабельных решений, таких как память HBM. Производители микросхем памяти SK Hynix и Sandisk объявили о работе над процессом стандартизации HBF-памяти для ИИ-инференса. SK hynix описывает HBF как новый уровень памяти между сверхбыстрой HBM и высокоёмкими SSD, утверждая, что она снизит совокупную стоимость владения (TCO), одновременно повышая масштабируемость ИИ-систем. Согласно прогнозу компании, спрос на такие решения, как HBF, возрастёт примерно к 2030 году.
28.02.2026 [11:43], Сергей Карасёв
Supermicro представила высокоплотную платформу MicroBlade на базе AMD EPYC 4005Компания Supermicro анонсировала новую серверную платформу MicroBlade для облачных и периферийных развёртываний. Система, как утверждается, на сегодняшний день обладает самой высокой плотностью компоновки из всех доступных решений, использующих процессоры AMD EPYC 4005 Grado. Основой MicroBlade служат узлы MBA-315R-1DE12, рассчитанные на чипы в исполнении AM5 (LGA-1718). Могут применяться процессоры с TDP до 110 Вт, насчитывающие до 16 вычислительных ядер (32 потока инструкций). В расчёте на процессор доступны два слота для модулей оперативной памяти DDR5-5600 суммарным объёмом до 128 Гбайт. Каждый узел оснащается контроллером Aspeed AST2600 BMC, двумя сетевыми портами 25GbE на базе Broadcom BCM57414, а также модулем TPM 2.0, отвечающим за безопасность. Возможна установка одного SSD формата M.2 (NVMe) и двух накопителей EDSFF E1.S. Диапазон рабочих температур — от +10 до +35 °C. Габариты составляют 589,28 × 125,48 × 30,48 мм, масса — около 1,5 кг. Новая платформа поддерживает до 40 узлов в одном корпусе форм-фактора 6U. Таким образом, в серверной стойке 48U могут разместиться до 320 узлов. Supermicro подчёркивает, что это обеспечивает «беспрецедентную вычислительную плотность, энергоэффективность и экономичность для масштабируемых и многопользовательских сред». Решение MicroBlade подходит для широкого спектра нагрузок, среди которых названы виртуальные частные серверы, периферийные системы, микросервисы, службы обработки данных, приложения в области кибербезопасности, площадки электронной коммерции и пр.
28.02.2026 [11:37], Сергей Карасёв
ASUS готовит «беспамятные» облачные мини-ПК NUC 16 для Windows 365Компания ASUS сообщила о скором выходе компьютеров небольшого форм-фактора NUC 16, оптимизированных для использования облачного ПО Windows 365. Устройства, заключенные в корпус объёмом всего 0,7 л, построены на аппаратной платформе Intel. Полностью технические характеристики NUC 16 for Windows 365 не раскрываются. При этом ASUS говорит о применении «новейшего процессора Intel», работающего в тандеме с памятью DDR5. Сетевые источники считают, что с учётом специфики компьютеров могут быть задействованы чипы поколения Twin Lake или Wildcat Lake. В оснащение устройств входят адаптеры Wi-Fi 6E и Bluetooth 5.3, сетевой контроллер 2.5GbE, интерфейс HDMI, порты USB Type-C (20 Гбит/с) и USB Type-A (10 Гбит/с), стандартное аудиогнездо на 3,5 мм. Внешне изделия напоминают мини-компьютер ASUS NUC 16 Pro, который использует платформу Intel Panther Lake. В максимальной конфигурации устанавливается процессор Core Ultra X9 388H с 16 ядрами (4Р+8Е+4LPE), а объём ОЗУ достигает 128 Гбайт. Возможна установка SSD типоразмера М.2 с интерфейсом PCIe 5.0 x4 (NVMe) вместимостью до 8 Тбайт. Этот компьютер рассчитан на работу с Windows 11 Pro или Home. Габариты составляют 144 × 117 × 42 мм, масса — 685 г. Допускается монтаж посредством крепления VESA. Однако в случае нового NUC 16 локальное хранение данных и приложений не предполагается — всё находится в Microsoft Azure, что как минимум позволит сэкономить на дефицитных SSD и RAM. Кроме того, сообщается, что компактные компьютеры для работы с Windows 365 готовит Dell. Речь идёт об устройствах Pro Desktop, которые получат процессор Intel N-Series с пассивным охлаждением. Это означает, что может быть использован чип Twin Lake или Alder Lake-N. Упомянуты порты USB Type-C и USB Type-A, а также 3,5-мм аудиогнездо.
28.02.2026 [09:48], Сергей Карасёв
Dell представила подвесной уличный сервер PowerEdge XR9700 с замкнутой СЖОDell анонсировала сервер PowerEdge XR9700, предназначенный для инфраструктур Cloud RAN и ИИ-приложений на периферии. Устройство рассчитано на эксплуатацию в неблагоприятных условиях, в том числе на открытом воздухе: оно может монтироваться на опорах линий электропередач, крышах и фасадах зданий. Новинка заключена в корпус объёмом около 15 л. Говорится о сертификации IP66 и GR-3108 Class 4: серверу не страшны пыль, влага и воздействие прямого солнечного излучения. Диапазон рабочих температур простирается от -40 до +46 °C. В основу PowerEdge XR9700 положена аппаратная платформа Intel Xeon 6 SoC — Granite Rapids-D (до 72 P-ядер, TDP до 325 Вт). Также возможна установка ИИ-ускорителей и различных сетевых карт, в том числе для обработки L1-трафика. Задействована система жидкостного охлаждения с замкнутым контуром, а ребристая внешняя поверхность работает в качестве радиатора. Без СЖО с таким уровнем тепловыделения CPU/GPU и в таком компактном корпусе уже вряд ли можно обойтись. Отмечается, что с технической точки зрения устройство идентично модели PowerEdge XR8720t, которая дебютировала в октябре прошлого года. В зависимости от конфигурации это решения располагает четырьмя или восемью слотами для модулей DDR5. Возможна установка до трёх SSD формата M.2 (NVMe). В оснащение могут входить два порта 100GbE QSFP и восемь портов 10/25GbE SFP. Реализованы интерфейсы USB 3.0 Type-A, UCB Type-C, Mini-DisplayPort и пр. Заявлена поддержка Wind River SUSE Linux Enterprise Server/RT, Ubuntu Server LTS и Red Hat Enterprise Linux/RT. Интегрированный контроллер удалённого доступа Dell (iDRAC) обеспечивает мониторинг и управление. Говорится о совместимости с существующим набором решений для периферийных вычислений в области телекоммуникаций. В продажу PowerEdge XR9700 поступит во II половине текущего года.
27.02.2026 [22:55], Владимир Мироненко
Amazon вложит в OpenAI $50 млрд, OpenAI в ответ потратит $100 млрд на 2 ГВт мощностей TrainiumOpenAI и Amazon объявили о заключении соглашения о стратегическом партнёрстве с целью ускорения инноваций в области ИИ для предприятий, стартапов и конечных потребителей по всему миру. В рамках многолетнего соглашения Amazon инвестирует в OpenAI $50 млрд — $15 млрд первым траншем, а затем еще $35 млрд в ближайшие месяцы при выполнении определённых условий. AWS и OpenAI совместно создадут среду выполнения с сохранением состояния (Stateful Runtime Environment) на базе моделей OpenAI, которая будет доступна в Amazon Bedrock для создания приложений и агентов генеративного ИИ. Подобное окружение позволяет разработчикам сохранять контекст, запоминать предыдущую работу, работать с различными программными инструментами и источниками данных, а также получать доступ к вычислительным ресурсам. Новинка будет интегрирована с Amazon Bedrock AgentCore и инфраструктурными сервисами, чтобы приложения и ИИ-агенты клиентов работали согласованно с остальными приложениями инфраструктуры, работающими в AWS. AWS также станет эксклюзивным сторонним поставщиком облачных услуг для платформы OpenAI Frontier, позволяющей компаниям создавать, развёртывать и управлять командами ИИ-агентов, работающих в реальных бизнес-системах с общим контекстом. По мере перехода компаний от экспериментов к внедрению ИИ в производство, Frontier упрощает быструю, безопасную и глобальную интеграцию ИИ-технологий в существующие рабочие процессы. Кроме того, OpenAI и Amazon будут сотрудничать в разработке пользовательских моделей для работы с приложениями Amazon, ориентированными на клиентов. AWS и OpenAI также сообщили о расширении ещё на $100 млрд более раннего соглашения о многолетнем стратегическом партнёрстве стоимостью $38 млрд, в рамках которого AWS обязалась предоставлять OpenAI в течение семи лет доступ к ускорителям NVIDIA. Расширенное соглашение со сроком действия 8 лет включает в себя обязательство OpenAI использовать около 2 ГВт мощностей на базе ускорителей Trainium, чтобы поддерживать спрос на Stateful Runtime, Frontier и другие рабочие нагрузки. Это обязательство распространяется как на чипы Trainium3, так и на чипы следующего поколения Trainium4, которые появятся в 2027 году и получат технологию NVIDIA NVLink. Сегодняшний день оказался богатым на события для OpenAI. Компания объявила о привлечении $110 млрд инвестиций в рамках раунда финансирования с предварительной оценкой её рыночной стоимости в $730 млрд, что значительно больше оценки в $500 млрд в октябре 2025 года. Лидером раунда стала Amazon с инвестициями в $50 млрд, за ней следуют NVIDIA и SoftBank, инвестировавшие по $30 млрд. Компания заявила, что ожидает, что к раунду присоединятся и другие инвесторы. Ранее Anthropic, ключевой конкурент OpenAI, закрыл раунд финансирования на $30 млрд, подняв капитализацию до $380 млрд. У компании долгие и тесные отношения с AWS, которая развернула для стартапа один из крупнейших в мире ИИ-кластеров Project Rainier. Впрочем, Anthropic тоже старается диверсифицировать поставки вычислительных мощностей — она заключила контракты с Microsoft (на чипы NVIDIA), а также с Google (на TPU).
27.02.2026 [20:06], Руслан Авдеев
Meta✴ получит миллионы ИИ-ускорителей Google TPUMeta✴ заключила многомиллиардную сделку по аренде ИИ-ускорителей TPU у Google для обучения и инференса LLM, сообщили анонимные источники The Information. Пока в индустрии ИИ-чипов доминируют решения NVIDIA, но TPU во многих случаях представляют собой более дешёвую и привлекательную альтернативу. В последние годы они стали одним из ключевых драйверов роста облачной платформы Google. Новая сделка важна для Meta✴, поскольку компания намерена диверсифицировать вычислительные мощности, снизив зависимость от NVIDIA. Meta✴ — один из крупнейших клиентов компании. Ранее она уже объявила о покупке миллионов новейших ускорителей Vera Rubin и закупках процессоров Grace. Кроме того, Meta✴ заключила сделку с AMD на поставку 6 ГВт GPU Instinct и CPU EPYC нового поколения. Каждый из ускорителей имеет собственные преимущества и недостатки, поэтому Meta✴ может экспериментировать, подбирая оптимальные типы чипов под отдельные задачи. Кроме того, вендоры обеспечат ей оптимальные цены и условия, если будут конкурировать друг с другом. Тем временем Google намерена лишить NVIDIA монополии на рынке ИИ-ускорителей. Компания готова предложить потенциальным клиентам привлекательные альтернативы чипам конкурента. Ранее TPU были доступны только в Google Cloud, но теперь компания намерена продавать их напрямую клиентам для сторонних ЦОД. Одной из первых компаний, которая активно займётся пряой закупкой и размещением TPU, стала Anthropic. Сделка на сумму в «десятки миллиардов» долларов охватывает 1 млн TPU и 1 ГВт мощностей. В Google рассчитывают ближайшие годы получить до 10 % выручки NVIDIA от ЦОД. В отчёте The Information сообщается, что Meta✴ ведёт переговоры с Google о покупке миллионов TPU для своих собственных ЦОД, причём речь идёт об отдельной сделке, напрямую не связанной с нынешним «облачным» соглашением. Наконец, у Meta✴ есть и ускорители MTIA собственной разработки. По имеющимся данным, все чипы MTIA нового поколения оптимизированы для обучения ИИ-моделей, в этой сфере ускорители первого поколения сталкивались с определёнными трудностями. Впрочем, считается, что при разработке новинок компания тоже столкнулась с «техническими проблемами», из-за которых задержался их выпуск. |
|
