Материалы по тегу: облако

16.03.2026 [10:45], Владимир Мироненко

ASIC + GPU: d-Matrix и Gimlet Labs в 10 раз ускорят инференс агентного ИИ

Компании d-Matrix и Gimlet Labs сообщили о решении объединить усилия с целью повышения производительности и энергоэффективности инференса для задач агентного ИИ в режиме реального времени.

В рамках партнёрства Gimlet интегрирует ускорители d-Matrix Corsair в облако Gimlet Cloud наряду с традиционными GPU. В гибридной архитектуре GPU будут отвечать за ресурсоёмкие этапы инференса, в то время как операции, чувствительные к работе с памятью и задержкам, будут обрабатывать Corsair. Компании сообщили, что совместное решение может обеспечить десятикратное улучшение задержки и пропускной способности на ватт по сравнению с использованием только GPU. Согласно пресс-релизу, решение «идеально подходит для рабочих нагрузок, чувствительных к задержке, включая спекулятивное декодирование, которое часто используется в крупномасштабных развёртываниях ИИ для снижения задержки».

Corsair поставляется в виде стандартной карты PCIe с воздушным охлаждением, что позволяет быстро устанавливать решение в ЦОД внутри существующих серверов с GPU без специальных корпусов или нестандартных систем трубопроводов. Сетевые карты d-Matrix Jetstream передают данные между Corsair и GPU посредством стандартного Ethernet, упрощая интеграцию в масштабах инфраструктуры и повышая эффективность использования.

 Источник изображения: d-Matrix

Источник изображения: d-Matrix

Заин Асгар (Zain Asgar), сооснователь и генеральный директор Gimlet Labs, заявил, что «аппаратное обеспечение d-Matrix — идеальное решение для тех этапов инференса, на которых GPU тратят энергию впустую». «Используя Corsair для таких сценариев использования, как спекулятивное декодирование, мы можем обеспечить нашим клиентам значительно более высокую производительность при тех же габаритах», — добавил он.

Программный стек Gimlet интеллектуально распределяет и сопоставляет рабочие нагрузки агентов между различными ускорителями разных производителей, поколений и архитектур, запуская каждый сегмент на наиболее оптимальном оборудовании. ЦОД Gimlet включают в себя различные типы оборудования и высокоскоростные интерконнекты для обслуживания передовых лабораторий и других компаний, занимающихся разработкой ИИ.

Аналитик Мэтт Кимбалл (Matt Kimball) из Moor Insights & Strategy сообщил ресурсу Data Center Knowledge, что ключевым моментом является сочетание специализированного оборудования и программной оркестрации. «Архитектура d-Matrix разработана с учётом эффективности инференса, а не масштабируемости обучения, что соответствует рынку в ходе внедрения приложений ИИ в производство, — сказал Кимбалл. — Но одного оборудования недостаточно — такие платформы, как Gimlet, стремятся упростить развёртывание и легко интегрироваться в существующие рабочие процессы. Именно это делает данное решение привлекательным».

Аналитик добавил, что реальная ценность решения заключается в уровне абстракции, который предоставляет Gimlet, позволяя запускать рабочие нагрузки на гетерогенных чипах без переписывания кода. «Рабочие нагрузки в области ИИ становятся всё более гетерогенными, но большая часть инфраструктуры по-прежнему оптимизирована под один тип ускорителя», — отметил он. По его словам, если Gimlet сможет упростить разработчикам развёртывание на нескольких чипах, это обеспечит реальное повышение эффективности системы. «Успешные платформы — это те, которые разработчики могут использовать, не задумываясь об оборудовании», — считает Кимбалл.

Компании планируют предоставить своё объединённое решение отдельным клиентам в рамках Gimlet Cloud во II половине 2026 года. Data Center Knowledge отметил, что это также подчёркивает более широкую тенденцию в инфраструктуре ИИ: гетерогенные системы, вероятно, будут доминировать на следующем этапе развёртывания ИИ, и успех будет зависеть как от оркестрации ПО, так и от производительности оборудования. NVIDIA тоже добавил к своим GPU Rubin новые ASIC Groq.

Постоянный URL: http://servernews.ru/1138338
14.03.2026 [18:42], Владимир Мироненко

Царь-ускорители Cerebras в облаке AWS пятикратно ускорят инференс ИИ

Amazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развёрнуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе ускорителей Trainium, системы Cerebras CS-3 на базе царь-чипов WSE-3 и DPU EFA. Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. Позже в этом году AWS предложит ведущие open source решения машинного обучения и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras.

Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью EFA, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем сегодня».

 Источник изображения: Amazon

Источник изображения: Amazon

Совместное решение использует «дезагрегацию вывода» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя.

 Источник изображений: Cerebras

Источник изображений: Cerebras

Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS.

Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS чипы Trainium обеспечивают этап предварительного заполнения, а чипы WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам».

Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность NVLink для ускорителей от NVIDIA. Впрочем, у NVIDIA теперь есть ускорители Groq, которые тоже помогают ускорить инференс.

Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на IPO уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE.

Постоянный URL: http://servernews.ru/1138316
13.03.2026 [17:10], Руслан Авдеев

Crusoe представила периферийные ИИ ЦОД Crusoe Edge Zones на базе модулей Spark

Компания Crusoe анонсировала запуск периферийных зон доступности Crusoe Edge Zones на базе модульных ЦОД Crusoe Spark, обеспечивающих ИИ-вычисления практически в любой локации. Edge Zones предоставят ИИ-инфраструктуру с низкой задержкой и позволят внедрять суверенные ИИ-решения клиентам со всего мира. Crusoe Edge Zones на базе Crusoe Spark — дальнейшее масштабирование вертикально интегрированных ИИ-фабрик.

Модули Crusoe Spark выпускаются на недавно представленном заводе Spark Factory. Благодаря контролю над полным стеком работы над ИИ-инфраструктурой — от заводской сборки до облачной оркестрации — Crusoe способна развёртывать новые периферийные облака всего за три месяца. При этом они значительно дешевле, чем классические ЦОД.

Зоны оптимизированы для работы с облачной платформой Crusoe Cloud и инференс-службой Managed Inference. Благодаря запатентованной технологии Crusoe MemoryAlloy можно сократить «время до первого токена» в 9,9 раза. Кроме того, система обеспечит в пять раз более высокую пропускную способность, чем стандартные конфигурации для инференса, говорит Crusoe. В результате периферийные пользователи получат доступ к сверхэффективной инфраструктуре с высоким быстродействием.

 Источник изображения: Crusoe

Источник изображения: Crusoe

Ключевые сценарии применения:

  • развёртывание Crusoe Edge Zones близ конечных потребителей для обеспечения сверхнизкой задержки — особенно важно там, где помощь ИИ нужна в режиме реального времени;
  • создание для клиентов выделенных корпоративных кластеров для обучения ИИ и инференса, сочетающих возможность использования собственной инфраструктуры и простоту управляемого облака;
  • внедрение суверенного ИИ на базе передовой инфраструктуры Crusoe государственными органами и отдельными отраслями, требующими специальной защиты данных — зоны Crusoe можно развёртывать без утечки данных за пределы той или иной юрисдикции.

В компании уверены, что в будущем ИИ-инфраструктура будет включать как гигантские кампусы гигаваттного масштаба для обучения ИИ, так и распределённые модули для обработки информации на периферии. На данный момент Crusoe инвестирует в оба направления.

Концепция сетей модульных ЦОД, практически независимых от крупных кампусов, в последнее время на фоне конфликта на Ближнем Востоке становится всё популярнее. Независимо от этих событий недавно Akamai пообещала развернуть тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференса.

Постоянный URL: http://servernews.ru/1138257
13.03.2026 [14:12], Руслан Авдеев

Китайская ByteDance обойдёт санкции США и получит доступ к чипам NVIDIA B200 на $2,5 млрд

Материнская компания TikTok — китайская ByteDance — получила доступ к современным американским ускорителям NVIDIA. Она обошла введённые властями США ограничения на доступ к технологиям, заключив соглашение с Aolani Cloud из Юго-Восточной Азии, сообщает The Wall Street Journal.

В Малайзии для ByteDance будет развёрнуто около 36 тыс. ИИ-ускорителей NVIDIA B200. Источники сообщают, что Aolani закупает серверы у компании Aivres, занимающейся их сборкой. Последняя, по словам HPE, фактически принадлежит Inspur и уже давно поставляет подсанкционное оборудование в КНР и другие страны. Стоимость оборудования, вероятно, составит более $2,5 млрд. При этом Aolani сообщает, что пока располагает оборудованием на сумму $100 млн.

Источники сообщают, что ByteDance намерена организовать исследования в сфере ИИ за пределами КНР и удовлетворить спрос клиентов со всего мира на решения на основе искусственного интеллекта. Уже сегодня она предлагает обычным пользователям разнообразные ИИ-приложения, бросая вызов Google, OpenAI и другим американским компаниям; четверть выручки уже поступает из-за пределов Китая. Так, она разработала более десятка приложений с ИИ-функциями, включая китайские и глобальные версии.

 Источник изображения: Esmonde Yong/unspalsh.com

Источник изображения: Esmonde Yong/unspalsh.com

Согласно январскому рейтингу Andreessen Horowitz, компания курирует 5 из 50 наиболее популярных в мире пользовательских ИИ-приложений по количеству ежемесячных активных пользователей. В ByteDance работают команды исследователей в филиалах в Сингапуре и даже США. Напряжённость в отношениях между США и Китаем мешает бизнесу ByteDance: в январе компании пришлось передать американское подразделение TikTok под контроль «дружественно настроенным» к США инвесторам.

Более трёх лет китайские технобизнесы имеют дело с американским экспортным контролем, не позволяющим напрямую продавать Китаю передовые ИИ-чипы вроде моделей серии Blackwell. Для развития технологий китайские компании вынуждены тратить всё больше средств на доступ к вычислительным мощностям за рубежом, благодаря чему возникла целая индустрия посредников, строящих ЦОД на продуктах NVIDIA для сдачи в аренду китайским клиентам.

По имеющимся данным, в конце 2023 года инвесторы создали компанию Aolani с материнским холдингом на Каймановых островах. В числе инвесторов — сингапурская K3 Ventures. Aolani является приоритетным облачным партнёром NVIDIA, имеющим доступ к её новейшим чипам. С февраля 2025 года Aolani сдаёт ByteDance в аренду ИИ-серверы в Малайзии на основе ускорителей NVIDIA H100. За ускорители Blackwell компания ByteDance уже внесла предварительные платежи. Они будут развёрнуты в Малайзии. Помимо Малайзии, компания намерена создать мощности в Южной Корее, Австралии и Европе.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Подчёркивается, что бизнес сотрудничает с американской юридической компанией, чтобы соответствовать американским требованиям. По мнению юристов, изменения правовых норм будут носить «перспективный, а не ретроспективный характер». Отмечается, что Aolani соблюдает все правила экспортного контроля, а ускорители не передаются клиентам и те не имеют на них никаких прав. В NVIDIA также придерживаются позиции, что американские правила экспорта позволяют создавать облачные сервисы вне стран, подпадающих под ограничения, вроде Китая, а сам вендор проверял всех облачных партнёров, прежде чем продавать чипы прямо или косвенно.

По информации The Wall Street Journal, ByteDance вела переговоры об использовании ИИ-серверов с более чем 7 тыс. B200 в ЦОД в Индонезии, а Reuters сообщает, что компания также вела переговоры с США о разрешении покупки ускорителей NVIDIA H200, но её не удовлетворили условия их использования.

Ещё в 2024 году сообщалось, что китайские компании нашли лазейку в законах США для доступа к передовым ИИ-ускорителям и моделям в облаках AWS и Azure, причём на территории самих Соединённых Штатов. Также в конце 2025 года появилась информация, что китайская INF Tech обошла санкции США на доступ к ускорителям NVIDIA Blackwell через индонезийское облако.

Постоянный URL: http://servernews.ru/1138235
13.03.2026 [10:00], Владимир Мироненко

Коммуникационное агентство IVS Group переходит в «Турбо Облако»

Коммуникационное агентство IVS Group выбрало решение «Облачный диск» компании «Турбо Облако» (входит в ГК РТК-ЦОД) для организации безопасного и оперативного доступа сотрудников к рабочим документам. Инструмент стал технологической основой для реализации гибридных проектов агентства, объединяющих офлайн-мероприятия и цифровые каналы.

IVS Group подходит к коммуникациям комплексно, не разделяя между собой различные форматы проектов. Это требует от команды умения быстро обмениваться большими объёмами информации: от стратегических презентаций до медиатек с фото- и видеоматериалами. Внедрение «Облачного диска» позволило создать единую экосистему для всех участников процессов. Теперь сотрудники компании в режиме онлайн работают с документами в защищённом корпоративном хранилище, а для проектных групп настроены командные папки с гибким разграничением прав доступа.

«Турбо Облако» не просто предоставляет хранилище для работы с файлами, компания уделяет особое внимание его защищённости и прозрачности. Облачные площадки провайдера размещаются в пяти федеральных округах на базе инфраструктуры крупнейшего российского оператора дата-центров РТК-ЦОД. «Облачный диск» предлагает встроенный антивирус для надёжной защиты данных и инструменты детализированной отчётности, позволяющие отслеживать активность пользователей, чтобы гибко масштабировать ресурсы хранилища. Эти функции особенно востребованы в креативных индустриях, где команды работают с большими массивами контента и множеством внешних партнеров.

 Источник изображения: Scott Rodgerson/unsplash.com

Источник изображения: Scott Rodgerson/unsplash.com

Александр Обухов, генеральный директор компании «Турбо Облако»: «Для креативных индустрий критически важна бесшовная коллаборация при работе с большими объёмами визуального контента и множеством внешних партнёров. “Облачный диск” учитывает эту специфику: мы предлагаем отказоустойчивую инфраструктуру, где гибкость доступа сочетается с корпоративным уровнем защиты интеллектуальной собственности. При этом всю ответственность за бесперебойную работу и сохранность данных мы, как облачный провайдер, берем на себя, чтобы команды могли полностью сосредоточиться на творческих и стратегических задачах».

Елена Елпатова, коммерческий директор, партнер IVS Group: «Для нас технологии — не барьер, а инструмент, стирающий границы между разными форматами коммуникаций. “Облачный диск” органично вписался в наши процессы благодаря гибким настройкам прав доступа: теперь каждый сотрудник и партнёр видит только то, что нужно для работы, а кроссплатформенная синхронизация позволяет не терять время на поиск актуальных версий файлов. Мы получили по-настоящему единое рабочее пространство».

«Турбо Облако» — публичная облачная платформа в составе коммерческого ИТ-кластера «Ростелекома», которая помогает бизнесу работать в режиме максимальной скорости. Компания предлагает свыше 50 сервисов: от виртуальной инфраструктуры и контейнерных платформ до готовых решений для хранения и обработки данных.

Облачная платформа «Турбо Облако» является дочерней компанией «РТК-ЦОД». Она развёрнута более чем на 20 площадках в пяти федеральных округах и обеспечивает клиентам надёжность уровня Tier III. В облаке доступно более 500 000 виртуальных процессоров, включая GPU последнего поколения.

Постоянный URL: http://servernews.ru/1138221
12.03.2026 [12:28], Руслан Авдеев

Google завершила сделку по покупке Wiz за $32 млрд, обеспечив облачным клиентам новые инструменты защиты

Google анонсировала закрытие крупнейшей покупки компании в своей истории — Wiz считается ведущей платформой по обеспечению безопасности для облачных и ИИ-сред. Бизнес Wiz присоединится к Google Cloud в миссии по защите клиентов во всех облачных экосистемах, говорит компания.

Google подчёркивает, что в эпоху ИИ всё больше компаний и правительств переносят важные данные в облака. Поскольку организации действуют в облачных средах и активно используют ИИ, злоумышленники тоже применяют искусственный интеллект для атак с повышенной скоростью и интенсивностью.

По словам Google, Wiz предлагает простую в использовании платформу безопасности с глубоким знанием облачных сред и особенностей разработки — компания способна работать со всеми ключевыми облачными средами и помогает реагировать на инциденты кибербезопасности. Это дополнит облачные возможности Google Cloud, включая её собственные механизмы и инструменты киберзащиты.

Вместе компании предоставят унифицированную платформу безопасности, позволяющую организациям распознавать угрозы, предотвращать их и реагировать на них. Это поможет противостоять даже угрозам нового типа, организованным с помощью ИИ, защищать ИИ-модели и использовать искусственный интеллект для помощи экспертам в сфере информационной безопасности. Платформа также предоставит набор инструментов, процессов и политик для всех ключевых облачных сред на всех уровнях.

 Источник изображения: Google Cloud

Источник изображения: Google Cloud

Объединённые возможности упростят обеспечение мультиоблачной безопасности, расширяя возможности компаний по использованию облаков разных провайдеров. Компании и правительства смогут оптимизировать и автоматизировать защиту, одновременно масштабируя команды, занимающиеся обеспечением кибербезопасности, и снижая стоимость этой защиты. Комбинированная платформа также поможет защитить и малый бизнес, часто не имеющий опыта и ресурсов для самозащиты от всё более сложных и разрушительных киберугроз.

Продукты Wiz, по данным Google, будут по-прежнему доступны во всех ключевых облачных средах, включая AWS, Google Cloud, Microsoft Azure и Oracle Cloud. При этом Google Cloud продолжит предоставлять клиентам выбор, предлагая партнёрские решения по обеспечению безопасности в Google Cloud Marketplace.

Google пыталась приобрести Wiz ещё в 2024 году, предложив $23 млрд, но руководство стартапа отказалось от сделки, намереваясь выйти на биржу вместо превращения в дочернюю структуру Google. Wiz провела семь раундов финансирования, в ходе которых привлекла $1,9 млрд . Весной 2025 года Google предложила стартапу уже $32 млрд. 10 % этой суммы Google обязана была выплатить стартапу, если покупка в итоге не состоится.

Постоянный URL: http://servernews.ru/1138186
09.03.2026 [13:59], Сергей Карасёв

Евросоюз анонсировала инициативу EURO-3C по созданию федеративной IT-инфраструктуры

Европейская комиссия анонсировала инициативу EURO-3C, которая предполагает формирование федеративной инфраструктуры «телекоммуникации — облако — периферия». На реализацию проекта выделяется €75 млн. Главной целью инициативы является обеспечение цифрового суверенитета. Финансирование осуществляется по программе Horizon Europe, которая направлена на развитие исследований и инноваций. Ключевые задачи — решение глобальных проблем, цифровая трансформация и повышение конкурентоспособности европейской экономики.

EURO-3C предполагает предоставление передовых цифровых услуг исключительно через региональную европейскую инфраструктуру. Такой подход поможет снизить зависимость от провайдеров из третьих стран, что важно в условиях сложившейся геополитической обстановки. Речь идёт об объединении телекоммуникационных сетей, периферийных вычислений и облачных сервисов в единую интегрированную среду, которая предоставит потребителям доступ к высокоскоростным и безопасным сервисам.

 Источник изображения: unsplash.com / Growtika

Источник изображения: unsplash.com / Growtika

Новая инициатива, как отмечается, соответствует целям предлагаемого закона Digital Networks Act, направленного на укрепление телеком-сектора, развитие высокоскоростных сетей (5G/6G) и усиление кибербезопасности. Кроме того, ожидается дальнейшее расширение сферы ИИ.

В рамках EURO-3C объединятся ведущие европейские компании и организации: телекоммуникационные операторы, поставщики облачных услуг, разработчики ПО, производители оборудования, научно-исследовательские институты и пр. В общей сложности свой вклад в реализацию проекта внесут почти 90 учреждений.

Постоянный URL: http://servernews.ru/1137989
08.03.2026 [14:20], Сергей Карасёв

ИИ-облако Iren закупит 50 тыс. ускорителей NVIDIA B300

Неооблачная компания Iren объявила о заключении соглашения о покупке более 50 тыс. ускорителей NVIDIA B300. Эта сделка позволит Iren расширить общий парк установленных ускорителей примерно до 150 тыс. ед., что к концу 2026 года обеспечит доход от облачных ИИ-вычислений в размере свыше $3,7 млрд.

Закупаемые ускорители NVIDIA B300 в течение этого года будут развёрнуты в существующих дата-центрах Iren с воздушным охлаждением в Маккензи (Британская Колумбия, Канада) и Чилдрессе (Техас, США). При этом подчёркивается, что площадки компании в Чилдрессе и Канал-Флэтс (Британская Колумбия) располагают возможностями для дальнейшего наращивания вычислительных мощностей.

За последние восемь месяцев Iren привлекла $9,3 млрд в виде предоплат от клиентов, конвертируемых облигаций, лизинга и средств для приобретения оборудования. В частности, были получены $3,6 млрд на закупку ИИ-ускорителей для нужд Microsoft. Iren намерена использовать эти и другие источники средств для финансирования дополнительных капитальных затрат в размере приблизительно $3,5 млрд: деньги пойдут на покупку серверов, хранилищ, сетевых устройств и вспомогательного оборудования, а также на оплату труда. Условия соглашений предусматривают выполнение платежей после отгрузки техники — это повышает эффективность использования оборотного капитала.

 Источник изображения: Iren

Источник изображения: Iren

«Наращивание мощностей до 150 тыс. ускорителей ставит Iren в число крупнейших мировых поставщиков облачной инфраструктуры для ИИ», — говорит Дэниел Робертс (Daniel Roberts), соучредитель и один из генеральных директоров компании. На сегодняшний день Iren управляет несколькими кампусами ЦОД общей мощностью 810 МВт. Ещё 2,1 ГВт находятся в стадии строительства, 1 ГВт — в стадии разработки. Компания, ранее фокусировавшаяся на майнинге криптовалют, переориентирует свои ресурсы на задачи в сфере ИИ.

Постоянный URL: http://servernews.ru/1137960
06.03.2026 [17:01], Руслан Авдеев

Инференс-нагрузки Perplexity прописались в облаке CoreWeave

Компания CoreWeave объявила о заключении долгосрочного соглашения с Perplexity. Стратегическое партнёрство призвано обеспечить выполнение рабочих ИИ-нагрузок последней, также предусмотрено пилотное внедрение в обеих организациях новых сервисов. Утверждается, что CoreWeave позволяет клиентам переходить от разработки непосредственно к внедрению без перепроектирования систем и инструментов.

Соглашение предусматривает, что платформа CoreWeave будет использоваться Perplexity для инференса нового поколения. Выделенные кластеры на основе суперускорителей NVIDIA GB200 NVL72 гарантируют соответствие инфраструктуры облачного провайдера изменению задач Perplexity и высоким требованиям экосистемы на основе Sonar и Search API. В своё время Perplexity начинала с выполнения задач инференса с помощью CoreWeave Kubernetes Service и применения платформы W&B Models для (до-)обучения моделей и управления ими на всех этапах, от экспериментального до ввода в эксплуатацию.

Дополнительно CoreWeave повсеместно внедрит в своей организации инструменты Perplexity Enterprise Max, что позволит её специалистам искать информацию в интернете и внутренней базе данных, проводить углублённые исследования, анализировать данные и визуализировать их. Партнёрство является свидетельством «мультиоблачной» стратегии Perplexity. Чуть более месяца назад Microsoft заключила крупную облачную сделку с Perplexity, но ключевым провайдером ИИ-поисковика останется AWS.

 Источник изображения: CoreWeave/Perplexity

Источник изображения: CoreWeave/Perplexity

Это лишь последняя из удачных сделок CoreWeave, сдающей в аренду мощности даже таким компаниям, как Microsoft, Meta и OpenAI. В 2025 году компания получила средства от NVIDIA, которая арендовала свои же ускорители у CoreWeave. В сентябре 2025 года компания обязалась выкупить у неооблачного оператора все нераспроданные мощности. CoreWeave на волне роста спроса на облачные услуги удвоит в 2026 году капитальные затраты, хотя некоторые инвесторы сомневаются в целесообразности таких мер.

Постоянный URL: http://servernews.ru/1137879
06.03.2026 [10:16], Руслан Авдеев

Атака беспилотников на ближневосточные дата-центры AWS заставит пересмотреть подход к отказоустойчивости облаков

Прогноз бывшего главы Google Эрика Шмидта (Eric Schmidt) о том, что в будущем критические важные ИИ ЦОД будут защищены военными базами, может оказаться не такими уж фантастическим. Атаки на дата-центры AWS на Ближнем Востоке наглядно показали, что до сих пор в проектах по обеспечению отказоустойчивости некоторые факторы практически игнорировались, сообщает Datacenter Knowkedge.

Хотя объекты гиперскейлеров, несмотря на периодические сбои, обычно устойчивее, чем большинство частных ЦОД, облачная инфраструктура обычно противостоит привычным техническим неполадкам — отключение оборудования, перебои в электроснабжении и потеря связности. Планы большинства корпораций, вероятно, не предусматривают защиты от скоординированных атак на физическую инфраструктуру. Если ранее выбор облачного региона был вопросом задержки, суверенитета данных или соответствия местным нормативным требованиям, то теперь остро встают вопросы политической стабильности, вероятности эскалации и возможностей защиты КИИ, в том числе военным путём.

Облачные регионы из весьма абстрактных понятий (только у AWS есть более 900 ЦОД различного формата) перешли в категорию физических объектов в конкретных локациях с высокой стоимостью активов. Особенно привлекательны такие цели во время асимметричных конфликтов, когда удар несколькими беспилотниками может вывести из строя критически важный объект, обеспечивающий работу в регионе самых разных структур.

 Источник изображения: Yang🙋‍♂️🙏❤️ Song / Unsplash

Источник изображения: Yang🙋‍♂️🙏❤️ Song / Unsplash

Удары по AWS показали, что в геополитических конфликтах концентрация инфраструктуры в одном месте может стать скорее минусом, чем плюсом. В дооблачную эпоху существовали тысячи разнообразных ЦОД с той или иной степенью защиты, но большинство из них не были критически важными для жизни и работы великого множества людей сразу. В эпоху гиперскейлеров нормой стали огромные кампусы, поэтому чрезвычайно надёжные в обычное время дата-центры являются привлекательной целью, поражение которой может принести серьёзный ущерб.

Хотя отказываться от облачных технологий уже поздно, возможно, придётся переосмыслить их архитектуру. По словам Datacenter Knowledge, IT-инфраструктура должна служить подспорьем бизнесу и не предназначена для апокалиптических сценариев без экономического обоснования. Другими словами, отраслевые руководители должны выявить уязвимости своих организаций, поскольку игнорирование таких угроз можно назвать «концептуальной» халатностью. IT-управленцы должны оценить, можно ли перенести рабочие нагрузки и важнейшие данные между регионами или даже на другие континенты к альтернативным облачным провайдерам. В расчёт необходимо принимать финансовые ограничения, требования к максимальной задержке, сложность эксплуатации и геополитические риски.

 Источник изображения: Kristof Morlion/unsplash.com

Источник изображения: Kristof Morlion/unsplash.com

Не исключено, что в будущем для пользователей станут привлекательнее не высокоэффективные централизованные ЦОД, а децентрализованные архитектуры с централизованным управлением. Хотя они менее эффективны, рабочие нагрузки будут рассеяны по географически рассредоточенным объектам, что помешает нанести масштабный урон в случае наступления непредвиденных обстоятельств. Пока что отрасль внимательно наблюдает за восстановлением работы AWS в пострадавших зонах доступности, чтобы скорректировать свои планы на будущее.

Не исключено, что гораздо востребованнее станут и подземные дата-центры, нередко расположенные в бывших бункерах, оставшихся с прошлых конфликтов, или шахтах и рудниках. Как минимум несколько проектов есть в США и Европе (Швеции, Германии, России и др.). Впрочем, в Израиле подземные ЦОД строят с нуля.

Постоянный URL: http://servernews.ru/1137829

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;