Материалы по тегу: ии

28.04.2026 [01:11], Владимир Мироненко

Microsoft и OpenAI пересмотрели «брачный договор»: эксклюзивных прав больше нет, но и выручкой делиться не надо

Microsoft и OpenAI объявили о пересмотре условий партнёрского соглашения, что некоторые эксперты рассматривают как победу разработчика ChatGPT, хотя многие считают, обе стороны остаются в выигрыше. Как отметили обе компании, обновлённое соглашение призвано упростить партнерство и способы совместной работы, обеспечивая большую предсказуемость.

Согласно обновлённому соглашению, у Microsoft по-прежнему будет лицензия на интеллектуальную собственность OpenAI для моделей и продуктов, срок владения которой ограничен 2032 годом, однако теперь она будет неисключительной. До этого у Microsoft были эксклюзивные права на интеллектуальную собственность OpenAI до тех пор, пока та не создаст «общий ИИ» (AGI).

Microsoft по-прежнему является «основным облачным партнёром» OpenAI, т.е. основная часть облачных ресурсов OpenAI, вероятно, будет обслуживаться Azure в течение шести лет, охватываемых этим соглашением, даже несмотря на то, что OpenAI спешит построить собственные ЦОД в сотрудничестве с другими партнёрами. В октябре OpenAI обязалась приобрести облачные ресурсы Microsoft на сумму ещё $250 млрд. Фраза о том, Microsoft по-прежнему является «основным облачным партнёром» — сигнал акционерам Microsoft о том, что OpenAI по-прежнему будет крупным клиентом Azure, отметил ресурс TechCrunch. В обновлённом соглашении указано, что «продукты OpenAI будут в первую очередь поставляться Azure, если только Microsoft не сможет и не решит отказаться от поддержки».

 Источник изображения: Microsoft

Источник изображения: Microsoft

Судя по всему, Microsoft теперь будет в числе поставщиков, предлагающих новейшие продукты OpenAI. Но что более важно, «теперь OpenAI может предоставлять все свои продукты клиентам у любого облачного провайдера». Это означает, что Microsoft теперь не сможет подать в суд на OpenAI из-за того, что та в рамках инвестиционного соглашения с Amazon на $50 млрд пообещала, что AWS получит эксклюзивные права на предоставление нового инструмента OpenAI для создания агентов — Frontier. Согласно первоначальному соглашению, OpenAI запрещалось предлагать Frontier эксклюзивно в AWS (или даже не эксклюзивно, а вообще).

Когда OpenAI объявила о сделке с AWS, Microsoft публично опровергла эксклюзивные условия AWS, указав: «Microsoft сохраняет свою эксклюзивную лицензию и доступ к интеллектуальной собственности в отношении моделей и продуктов OpenAI. <…> Azure остаётся эксклюзивным поставщиком облачных услуг для stateless API-вызовов OpenAI. <…> Любые stateless-вызовы API к моделям OpenAI, являющиеся результатом сотрудничества OpenAI с любой третьей стороной, включая Amazon, будут размещаться в Azure. <…> Собственные продукты OpenAI, включая Frontier, будут по-прежнему размещаться в Azure».

Microsoft также подчеркнула, что её условия действуют до тех пор, пока OpenAI не получит AGI. Financial Times тогда сообщила, что Microsoft даже рассматривала возможность подачи судебного иска по этому поводу. Комментируя заключение обновлённого соглашения, генеральный директор Amazon Энди Джасси (Andy Jassy), в частности, отметил, что это означает, что модели OpenAI станут доступны клиентам на AWS Bedrock.

Хотя эта сделка выгодна для OpenAI, Microsoft тоже в выигрыше. Новое соглашение позволяет Microsoft прекратить выплату доли выручки OpenAI, в то время как OpenAI продолжит выплачивать долю выручки Microsoft до 2030 года, независимо от технологического прогресса OpenAI, хотя теперь эта сумма ограничена. В прошлом квартале Microsoft заработала $7,5 млрд благодаря инвестициям в OpenAI. Также Microsoft продолжает напрямую участвовать в развитии OpenAI в качестве крупного акционера. Владея примерно 27 % коммерческой компании, Microsoft будет иметь финансовую выгоду от роста OpenAI, даже в случае продаж её продуктов в AWS.

Постоянный URL: http://servernews.ru/1140756
27.04.2026 [21:29], Владимир Мироненко

Попроще и подешевле: YADRO обновила конфигурации TATLIN.AFA и TATLIN.BACKUP на фоне глобального дефицита компонентов

Компания YADRO представила оптимизированные версии СХД TATLIN.AFA и TATLIN.BACKUP, использование которых поможет снизить стоимость хранения данных при, как заявляют разработчики, сохранении ключевых эксплуатационных параметров СХД. YADRO отметила, что представленные конфигурации разработаны в ответ на глобальное удорожание и дефицит компонентов для серверов и СХД.

Новые версии TATLIN.AFA и TATLIN.BACKUP расширяют возможности выбора конфигурации под прикладные сценарии и бюджет заказчиков, которым приходится в этих условиях одновременно решать две задачи: обновлять и масштабировать ИТ-инфраструктуру, сохраняя инвестиции в разумных пределах, говорит YADRO.

Оптимизированная конфигурация TATLIN.AFA с 1 Тбайт RAM не уступает по производительности флагманской версии с 2 Тбайт, но при этом дешевле. Вместе с тем флагманская версия TATLIN.AFA с 2 Тбайт RAM лучше справляется с дедупликацией благодаря большему объёму памяти. При этом обе конфигурации получат полную функциональность ПО TATLIN 4.0 и 4.1, включая поддержку грядущих технологий онлайн-компрессии данных и асинхронной репликации.

 Источник изображений: YADRO

Источник изображений: YADRO

Обновлённая конфигурация СХД для резервного копирования TATLIN.BACKUP с 1,5 Тбайт RAM сопоставима по производительности благодаря доработкам в ПО с конфигурацией с 2 Тбайт RAM в малых системах с полезной ёмкостью до 380 Тбайт. Однако для работы с большей дисковой ёмкостью и расширенным набором функций рекомендуется перейти на классическую флагманскую конфигурацию с 2 Тбайт RAM.

Функция компрессии данных для TATLIN.AFA и TATLIN.UNIFIED, которая находится на финальной стадии разработки и войдёт в ПО TATLIN 4.1, позволит более эффективно использовать полезную ёмкость систем и дополнительно снизить стоимость хранения данных. Компания сообщила, что технологию уже можно протестировать на реальных данных с помощью эмулятора, доступного по запросу через её коммерческих представителей.

YADRO отмечает растущий приоритет для заказчиков стабильности поставок и обслуживания, а также баланса между производительностью и экономической целесообразностью. Компания заранее озаботилась запасами комплектующих и ключевых компонентов для СХД, которых хватит на 2026 год и часть 2027 года.

Постоянный URL: http://servernews.ru/1140751
27.04.2026 [19:20], Руслан Авдеев

Телеком-отрасли Бангладеш грозит коллапс из-за нехватки топлива

Боевые действия на Ближнем Востоке негативно сказываются на всех сферах экономики по всему миру из-за нарастающего топливного кризиса. Ассоциация операторов мобильной связи Бангладеш (Association of Mobile Telecom Operators of Bangladesh, AMTOB) в связи с этим предупредила правительство о вероятном отключении телеком-сетей, сообщает Datacenter Dynamics. Беда не пришла одна — на страну обрушились штормы, вызвав отключения электроэнергии, поэтому восстанавливать электроснабжение ещё труднее, чем обычно.

AMTOB представляет собой торговую ассоциацию, объединяющую операторов мобильной связи страны: Grameenphone, Robi, Banglalink, Teletalk и др. В открытом письме к правительству AMTOB призвала министров в приоритетном порядке обеспечить стабильные поставки топлива и электроэнергии для нужд телекоммуникационной инфраструктуры. Согласно тексту заявления, любой длительный дефицит способен негативно сказаться на состоянии связи в общенациональном масштабе и привести к параличу цифровой экономики.

Подчёркивается, что телеком-отрасль уже ощущает последствия нехватки энергии. По некоторым оценкам, Бангладеш импортирует порядка 95 % энергоресурсов, поэтому страна находится в особенно уязвимом положении с учётом того, что большая часть топлива поставляется именно с Ближнего Востока. По данным Reuters, Бангладеш был вынужден даже запросить у США временного освобождения от соблюдения санкций в отношении топлива из недружественных Штатам стран.

 Источник изображения: Salman Preeom/unspalsh.com

Источник изображения: Salman Preeom/unspalsh.com

По данным AMTOB, телеком-отрасли нужны срочные меры поддержки, включая бесперебойную приоритетную поставку топлива для основных объектов телеком-сети, гарантированное наличие топлива для питания базовых станций, эксплуатируемых четырьмя мобильными операторами и четырьмя компаниями, управляющими вышками. Также необходимо топливо для технического обслуживания связанного с телеком-проектами транспорта, сокращение отключений электричества на критически важных телеком-объектах и максимально быстрое восстановление электроснабжения после штормов и сбоев из-за плохой погоды.

Сегодня телеком-инфраструктура Бангладеш включает приблизительно 45 тыс. вышек, множество операторских ЦОД различного масштаба, центров управления сетью (NOC) и другие компоненты, обслуживающие 185 млн. человек. В AMTOB подчёркивают, что объекты в стране во многом зависят от дизельной и бензиновой электрогенерации, особенно в периоды отключения централизованной подачи электричества, веерных отказов и/или стихийных бедствий.

Пока ситуация на Ближнем Востоке ожидает прояснения, но совсем недавно Иран не только блокировал пролив, но и наносил удары по дата-центрам AWS в ОАЭ и Бахрейне, а также пригрозил уничтожить строящийся ЦОД Stargate в ОАЭ.

Постоянный URL: http://servernews.ru/1140705
27.04.2026 [15:30], Андрей Крупин

«К2Тех» запустил платформу для управления ИИ-гипотезами и оценки экономического эффекта инициатив

Системный интегратор «К2Тех» представил «ИИ-офис» — платформу для работы с инициативами в области искусственного интеллекта. Решение ориентировано на компании, которые переходят от локальных пилотных проектов к масштабному внедрению ИИ-технологий в рабочие процессы. Продукт помогает структурировать весь цикл внедрения: от сбора и приоритизации гипотез до запуска проектов и точного расчёта возврата инвестиций (Return On Investment, ROI).

«ИИ-офис» предоставляет единое пространство для всех инициатив организации в сфере технологий машинного обучения и искусственного интеллекта на базе нейронных сетей. В системе предусмотрены инструменты, которые позволяют вести сквозной трекинг каждой идеи: от контроля статусов и назначения ответственных до расчёта финансово-экономической модели и мониторинга хода проверки.

 Источник изображения: ai-office.k2.tech

Источник изображения: ai-office.k2.tech

В состав платформы включены следующие инструменты:

  • матрица потенциала — позволяет оценивать гипотезы по двум группам параметров: ожидаемому эффекту для бизнеса и сложности реализации;
  • ROI-калькулятор, учитывающий набор коэффициентов и метрик для разных отраслей, включая производство, HR и сервисные функции;
  • средства для работы с портфелем ИИ-инициатив, которые организованы в формате канбан-доски.

На платформе «ИИ-офис» уже собраны реализованные бизнес-сценарии «К2Тех» и партнёров компании для различных отраслей и функций предприятия. Данный каталог кейсов позволяет организациям выбирать подходящие гипотезы и на их основе выстраивать собственные решения. Среди примеров — мониторинг кредитно-гарантийных сделок, ускорение обработки заявок, автоматическая генерация проектной документации и интеллектуальный анализ статистических данных по внешнеэкономической деятельности.

Постоянный URL: http://servernews.ru/1140730
27.04.2026 [13:45], Владимир Мироненко

SUSE анонсировала SUSE AI Factory with NVIDIA, упрощающую предприятиям создание собственных ИИ-стеков

SUSE объявила о запуске платформы SUSE AI Factory with NVIDIA, разработанной специально для решения строгих глобальных задач обеспечения цифрового суверенитета. SUSE AI Factory with NVIDIA представляет собой предварительно протестированный унифицированный программный стек для корпоративного ИИ, созданный на основе SUSE AI и NVIDIA AI Enterprise, призванный преодолеть разрыв между локальной разработкой и масштабируемым корпоративным развёртыванием, позволяя предприятиям создавать, управлять и масштабировать рабочие ИИ-нагрузки на периферии сети, в ЦОД и в публичных облачных средах, сохраняя при этом более жесткий контроль над данными и инфраструктурой.

Как отметил StorageReview.com, SUSE позиционирует SUSE AI Factory with NVIDIA как стандартизированный программный слой для корпоративного ИИ, а не как автономную модель или сервис. Стек объединяет несколько компонентов NVIDIA, включая микросервисы NIM, открытые модели Nemotron, NeMo для разработки и управления агентами, Run:ai для оркестрации GPU, NVIDIA Kubernetes Operators, OpenShell для безопасной поддержки среды выполнения агентов и NemoClaw, который использует SUSE K3s в качестве части эталонной архитектуры для более безопасного развёртывания автономных агентов.

 Источник изображения: SUSE

Источник изображения: SUSE

SUSE AI Factory with NVIDIA стандартизирует развёртывание и запуск приложений ИИ, позволяя разработчикам создавать и тестировать приложения в изолированной среде, в то время как команды платформы управляют развёртыванием либо через единый интерфейс на основе Rancher, либо с помощью автоматизированных рабочих процессов GitOps для управления в масштабе предприятия. Это позволит сократить время настройки и ускорит переход от концепции к производству, уменьшая операционные издержки без необходимости использования разрозненных инструментов.

SUSE AI Factory with NVIDIA включает в себя следующие возможности:

  • Предварительно проверенные и тесно интегрированные архитектурные шаблоны для распространённых сценариев использования и рабочих нагрузок, позволяющие предприятиям сократить объём работ по интеграции компонентов NVIDIA и SUSE при создании собственных стеков, ускоряя получение результатов.
  • Безопасность и наблюдаемость на основе принципа нулевого доверия, построенные на базе SUSE Rancher Prime и SLES, с механизмами управления для сервисов ИИ на базе NVIDIA. Благодаря этому платформа обеспечивает стабильность, высокую предсказуемость и защиту базовой ИИ-инфраструктуры от возникающих рисков.
  • Единый пользовательский интерфейс, который упрощает развёртывание и управление рабочими нагрузками ИИ — от локальных рабочих станций разработчиков до изолированных кластеров на периферии сети.
  • Суверенитет и единая поддержка, что позволяет организации иметь полный контроль над своей физической инфраструктурой, данными и моделями для соблюдения внутренних политик и выполнения нормативных требований. Для обеспечения бесперебойной работы в корпоративной среде SUSE предоставляет единую точку ответственности для всего стека, включая компоненты NVIDIA AI Enterprise.
Постоянный URL: http://servernews.ru/1140716
27.04.2026 [13:35], Сергей Карасёв

«Гравитон» представил российские серверы на базе Intel Xeon для облаков, виртуализации и ИИ

Российский разработчик и производитель вычислительной техники «Гравитон» представил шесть серверов на аппаратной платформе Intel, предназначенных для реализации масштабных IT-проектов в сегментах, где наличие техники в реестре Минпромторга РФ не является обязательным требованием. В зависимости от модификации устройства подходят для решения различных задач — от облачных сервисов и виртуализации до нагрузок ИИ и НРС.

В частности, дебютировали модели СН2124И5 и СН2127И5 в форм-факторе 4U и 7U соответственно. Они рассчитаны на два процессора Xeon Sapphire Rapids или Xeon Emerald Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт оперативной памяти DDR5 в виде 32 модулей. У сервера СН2124И5 слоты расширения выполнены по схеме 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Есть 12 фронтальных отсеков для LFF-накопителей NVMe/SATA/SAS и два коннектора M.2 2280/22110 (PCIe 5.0). Возможна установка восьми GPU с энергопотреблением до 350 Вт. В свою очередь, система СН2127И5 имеет аналогичные характеристики, но позволяет использовать до восьми GPU с TDP до 600 Вт.

Кроме того, анонсированы серверы СН2122И6 (2U), СН2242И6 (2U), СН2124И6 (4U) и СН2127И6 (7U) с поддержкой двух чипов Xeon 6 (Sierra Forest-SP/Granite Rapids-SP) с показателем TDP до 350 Вт. У первой из этих систем слоты расширения выполнены по схеме 6 × PCIe 5.0 х16 FHFL + 2 × OCP NIC (или 6 × PCIe 5.0 х16 FHFL + 2 × PCIe 5.0 х8 HHHL + 2 × OCP NIC), у трёх других — 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Во всех случаях возможно использование до 8 Тбайт памяти DDR5 (32 модуля).

 Источник изображений: «Гравитон»

Источник изображений: «Гравитон»

Модель СН2122И6 поддерживает следующие накопители: 12 × LFF NVMe/SATA/SAS во фронтальной части, 2 × SFF SATA/SAS или 4 × SFF NVMe/SATA/SAS, а также 2 × M.2 2280/22110 (PCIe 5.0). Модификации СН2242И6, СН2124И6 и СН2127И6 рассчитаны на накопители в конфигурации 12 × LFF NVMe/SATA/SAS и 2 × M.2 2280/22110 (PCIe 5.0). Две старшие версии поддерживают восемь GPU с TDP до 350 и 600 Вт.

Все серверы располагают контроллером Aspeed AST2600 с выделенным сетевым портом управления 1GbE и воздушной системой охлаждения. Устанавливаются блоки питания мощностью до 3000 Вт с сертификатом 80 Plus Platinum. Заявлена совместимость с Windows и Linux. Гарантия производителя составляет три года.

Постоянный URL: http://servernews.ru/1140695
26.04.2026 [15:38], Руслан Авдеев

Oklo, NVIDIA и LANL задействуют ИИ для разработки плутониевого топлива и создания передовой атомной инфраструктуры

Занимающаяся разработкой малых модульных реакторов (SMR) американская компания Oklo совместно с NVIDIA и Лос-Аламосской национальной лабораторией США (LANL) займутся научно-прикладными проектами. Они выделят ресурсы на развитие атомной инфраструктуры, исследования с помощью ИИ и разработок, связанных с созданием ядерного топлива — в лаборатории, расположенной в штате Нью-Мексико, сообщает Datacenter Dynamics.

В соглашении оговорено сотрудничество в области ИИ, цифровых двойников, моделирования и симуляция для развития критической инфраструктуры и ускоренного внедрения атомной энергетики. По словам Oklo, соглашение касается как внедрения реакторов, так и HPC, а также использования экспертных знаний мирового уровня в области науки о топливе и материаловедении. Предполагается, что это будет способствовать созданию плутониевого топлива для реактора Pluto, выбранного Министерством энергетики США (DoE) в рамках плана Reactor Pilot Program. Также инициатива направлена на обеспечение надёжного энергоснабжения в рамках миссии Genesis, которую прозвали новым Манхэттенским проектом.

В рамках партнёрства компании обучат ИИ-модели на данных в области физики и химии — с их помощью будет поддерживаться проверка качества топлива и научно-исследовательские работы, касающиеся энергоносителей на основе плутония. Также ИИ будет способствовать исследованиям в области выработки электроэнергии, обеспечения надёжности энергосистем, резервирования и стабилизации энергоснабжения для поддержки развития ИИ ЦОД в национальной лаборатории.

 Источник изображения: Oklo

Источник изображения: Oklo

Находящаяся в Нью-Мексико Лос-Аламосская национальная лаборатория США принимала участие в исходном Манхэттенском проекте. Сегодня лаборатория — один из ключевых научных центров Министерства энергетики США, занимающихся ядерными исследованиями.

Американская Oklo разрабатывает 75-МВт SMR Aurora Powerhouse. Реактор планируют ввести в эксплуатацию в 2027 году. Oklo входит в число 11 ключевых атомных компаний, отобранных для участия в пилотной программе DoE, посвящённой новым ядерным реакторам и разработке передового ядерного топлива. Oklo — один из наиболее активных разработчиков SMR по количеству заключённых сделок, в основном для питания ЦОД. Совокупный объём заказов уже превысил 14 ГВт, хотя часть сделок не имеет обязательной юридической силы. Среди самых значимых сделок: поставка ЦОД Switch до 12 ГВт до 2044 года; 1,2 ГВт для Meta до 2030 года; 500 МВт для Equinix и до 100 МВт для Prometheus Hyperscale (Wyoming Hyperscale).

В последние годы NVIDIA активно взаимодействовала с компаниями, реализующими атомные энергетические проекты, а также инвестировала в них средства. В частности, речь идёт о проектах компаний TerraPower и Commonwealth Fusion Systems (CFS), занимающихся в атомных разработках, в т.ч. в сфере термоядерного синтеза. В январе NVIDIA заключила партнёрское соглашение с CFS и Siemens для «строительства» цифровой копии термоядерного реактора CFS. Это должно помочь упростить начало его коммерческой эксплуатации.

Постоянный URL: http://servernews.ru/1140685
26.04.2026 [14:20], Владимир Мироненко

Акции IBM упали из-за нежелания компании увеличить прогноз выручки

IBM объявила финансовые результаты за I квартал 2026 года, завершившийся 31 марта. Несмотря на то, что выручка и прибыль превзошла прогнозы Уолл-стрит, акции компании упали на внебиржевых торгах более чем на 7 % в начале торгов после закрытия биржи, поскольку компания отказалась повысить прогнозы на весь год, сообщил ресурс SiliconANGLE.

Выручка компании выросла год к году на 9 % до $15,92 млрд, превысив консенсус-прогноз аналитиков, опрошенных LSEG, в размере $15,62 млрд. Скорректированная прибыль на акцию (Non-GAAP) составила $1,91 при прогнозе $1,81. Чистая прибыль (GAAP) увеличилась на 15 % до $1,22 млрд, или $1,28 на акцию, с $1,06 млрд, или $1,12 на акцию, в I квартале 2024 года.

Прогноз на весь год остался без изменений: IBM по-прежнему ожидает прирост свободного денежного потока в размере около $1 млрд и рост выручки более чем на 5 %. «Я не думаю, что мы когда-либо повышали прогнозы в I квартале», — заявил финансовый директор IBM Джим Кавана (Jim Kavanaugh).

 Источник изображений: IBM

Источник изображений: IBM

Выручка от консалтинга увеличилась на 4 % до $5,27 млрд, что чуть меньше прогноза аналитиков StreetAccount в размере $5,28 млрд. Наибольший вклад в выручку внесла разработка ПО, продажи которого составили $7,05 млрд, что на 11 % больше, чем годом ранее и выше консенсус-прогноза аналитиков, опрошенных StreetAccount, в $7,02 млрд.

При этом выручка подразделения по автоматизации увеличилась на 10 %, выручка подразделения по обработке данных и ИИ — на 19 %, выручка от обработки транзакций — на 6 %. Рост продаж в высокорентабельном подразделении гибридных облачных решений, включающем Red Hat, составил 13 %. Однако рост выручки от RHEL замедлился по сравнению с IV кварталом, отметил Кавана. «Я думаю, это связано с отсутствием федеральных соглашений и шатдауном правительства в IV квартале, а также с очень нарушенной цепочкой поставок оборудования», — сказал он.

Выручка инфраструктурного подразделения (IBM Infrastructure), занимающегося продажей серверов, СХД, коммутаторов и системного ПО, составила $3,33 млрд, что на 15 % больше, чем годом ранее, превысив прогноз StreetAccount в $3,16 млрд. Рост выручки от продаж аппаратного обеспечения мейнфреймов z составил 51 %, при этом мейнфрейм z17, ориентированный на ИИ, опережает по продажам предыдущие циклы выпуска продукта. Продажи гибридной инфраструктуры выросли на 28 %, распределённой инфраструктуры — на 17 %.

По состоянию на закрытие торгов в минувшую среду акции IBM упали с начала 2026 года примерно на 15%, в то время как индекс S&P 500 за тот же период вырос на 4 %. Акции компании обрушились за один день в феврале на 13 % после заявления ИИ-стартапа Anthropic о том, что ИИ может помочь компаниям модернизировать ПО на COBOL. «ИИ усиливает аргументы в пользу мейнфреймов, а не ослабляет их», — написал старший вице-президент IBM по ПО в комментариях в своем посте в LinkedIn. Gartner и вовсе предрекает провал подавляющему большинству попыток портировать старый код на новые платформы с помощью ИИ.

В середине марта IBM завершила приобретение компании Confluent, за $11 млрд. Хотя сделка была завершена примерно на два месяца раньше запланированного срока, это не повлияло на целевые показатели рентабельности IBM. Кавана заявил, что рост операционной маржи до налогообложения остаётся в рамках запланированного 1 %.

Постоянный URL: http://servernews.ru/1140680
25.04.2026 [21:46], Владимир Мироненко

Google инвестирует до $40 млрд в партнёра-конкурента Anthropic, выплатив авансом $10 млрд

На этой неделе стало известно о планах Google инвестировать до $40 млрд в ИИ-стартап Anthropic при его предварительной оценке в $350 млрд, что почти соответствует сумме, в которую компания была оценена в ходе раунда финансирования в феврале. $10 млрд стартап получит авансом, ещё $30 млрд будет выделено при достижении определённых целевых показателей, пишет Bloomberg.

Несмотря на наличие собственных конкурирующих моделей Gemini AI, Google оказывает финансовую поддержку Anthropic, которая является одновременно и партнёром, и конкурентом. Как и OpenAI, Anthropic привлекает крупные инвестиции от компаний, у которых она покупает чипы и вычислительные мощности ЦОД, что вызывает обоснованные опасения у некоторых аналитиков относительно цикличности этих сделок.

Компания извлекает выгоду из популярности своих ИИ-решений, включая модель Claude Code, ускоряющую разработку ПО. Anthropic становится доминирующим игроком на рынке ИИ-инструментов для разработки ПО, в которые сама Google также вложила значительные средства. По словам инсайдеров, внутри Google растёт обеспокоенность тем, что она теряет позиции на этом рынке. Вместе с тем Google продолжает активно инвестировать в разработку собственных моделей Gemini, которые обеспечивают работу функций ИИ в поисковой системе, Gmail и других приложениях.

 Источник изображения: Anthropic

Источник изображения: Anthropic

В этом месяце Anthropic представила свою новейшую модель Claude Mythos ограниченной группе партнёров. Anthropic заявила, что Mythos — её самая мощная модель на сегодняшний день, имеющая значительные возможности для применения в сфере кибербезопасности. В феврале 2026 года компания привлекла $30 млрд инвестиций при оценке в $380 млрд. Раунд возглавили сингапурский суверенный фонд GIC и Coatue, также в нём участвовали, помимо других инвесторов, Microsoft и NVIDIA.

В октябре прошлого года Anthropic заключила сделку с Google, обеспечивающую ей доступ к ИИ-ресурсам мощностью более 1 ГВт с возможностью использования до 1 млн TPU. После этого компании расширили партнёрство при участии Broadcom, договорившись о предоставлении Anthropic 3,5 ГВт ИИ-мощностей на базе Google TPU. Согласно новому инвестиционному соглашению, Google Cloud предоставит Anthropic ещё 5 ГВт мощностей в течение следующих пяти лет с возможностью дальнейшего масштабирования. Пятилетнее соглашение может стоить около $200 млрд, подсчитали The Financial Times.

Ранее на этой неделе Anthropic заключила сделку с Amazon, в рамках которой обязуется потратить более $100 млрд в течение следующих десяти лет на чипы Trainium и вычислительные мощности AWS, а Amazon обязалась инвестировать в стартап $5 млрд сразу, а затем ещё $20 млрд в течение определённого времени. Также в этом месяце стартапом было подписано многолетнее соглашение с неооблаком CoreWeave о предоставлении ИИ-мощностей для дальнейшего развития семейства моделей Claude.

Постоянный URL: http://servernews.ru/1140667
25.04.2026 [11:15], Руслан Авдеев

Электрощит с ИИ-сервером: SPAN анонсировала «распределённый ЦОД» XFRA

Занимающаяся выпуском умных распределительных электрощитов компания SPAN представила решение XFRA, позиционирующееся, как «распределённый дата-центр». Предполагается использование свободных мощностей в жилых домах и коммерческой недвижимости для ИИ-вычислений, сообщает Datacenter Dynamics.

Каждый из вычислительных узлов оснастят двумя серверами Dell Poweredge XE7745 с СЖО — всего четыре процессора AMD EPYC, 3 Тбайт RAM и 16 ускорителей NVIDIA RTX Pro 6000 Blackwell. Для управления разработана собственная платформа оркестрации XFRA Cloud. SPAN будет использовать функции управления питанием в своих распределительных щитах для отдачи вычислительным узлам свободных энергомощностей, не используемых в данный момент владельцами объектов.

SPAN подчёркивает, что XFRA не станет заменой полноценным ЦОД, но дополнит их, ускоряя рост вычислительных мощностей на периферийных участках электросети. Внедрение XFRA силами американского девелопера PulteGroup стартует в 2026 году. По имеющимся данным, уже сформировано портфолио проектов, позволяющее выйти на гигаваттный масштаб в 2027 году.

 Источник изображения: SPAN

Источник изображения: SPAN

PulteGroup заявила, что XFRA представляет собой решение, позволяющее снизить затраты на строительство. Строительство домов с щитами SPAN, системой XFRA и резервными аккумуляторами не просто снизит расходы на эксплуатацию жилья, но и позволит использовать энергетическую инфраструктуру объектов в интересах всей энергосистемы.

SPAN входит в лоббистскую группу Utilize, созданную в марте 2025 года. Последняя выступает за «более умное, быстрое и доступное» использование имеющейся в США сетевой инфраструктуры. В число участников также входят Google, Tesla и производитель климатического оборудования — компания Carrier.

 Источник изображения: SPAN

Источник изображения: SPAN

Бизнес уже активно использует серверы в домах и коммерческих помещениях, но, в первую очередь, в несколько иных целях. Так, British Gas заключила соглашение с Heata, в рамках которого в Великобритании будет тестироваться облачная платформа с серверами в жилых домах. Каждый сервер подключен к системе домашнего отопления, аккумулирующей тепло в ходе работы сервера. Британская коммунальная UK Power Networks (UKPN) в рамках программы SHIELD (Smart Heat and Intelligent Energy in Low-income Districts) начала устанавливать в домах микро-ЦОД на базе Raspberry Pi — для отопления домохозяйств малоимущих и оплаты их коммунальных услуг.

Постоянный URL: http://servernews.ru/1140593

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;