Материалы по тегу: облако

10.12.2025 [14:30], Андрей Крупин

MWS Cloud втрое увеличила облачные мощности на Дальнем Востоке

Компания MWS Cloud (входит в МТС Web Services) завершила масштабное расширение облачной инфраструктуры на Дальнем Востоке, увеличив в три раза вычислительные мощности во Владивостоке. Виртуальная инфраструктура развёрнута в ЦОД уровня Tier III. Ранее в 2025 году MWS Cloud также в 3,3 раза расширила мощности своей облачной площадки в Сибири.

Для усиления облачной платформы на базе VMware во владивостокском дата-центре были установлены серверы с процессорами частотой 3,25 ГГц и большим объёмом оперативной памяти. Такая конфигурация позволила инженерам MWS Cloud обеспечить оптимальные условия для работы высоконагруженных систем, крупных баз данных, корпоративных решений уровня SAP и «1С».

 Источник изображения: mws.ru/cloud-platform

Источник изображения: mws.ru/cloud-platform

«Мы стремимся, чтобы компании в разных частях страны могли получать доступ к облачным ресурсам вблизи своих производственных площадок. В рамках этой стратегии несколько лет назад MWS Cloud запустила зону доступности во Владивостоке. За эти годы потребление облачных сервисов на Дальнем Востоке значительно выросло. Поэтому, чтобы удовлетворить потребности местного бизнеса в вычислительных мощностях, MWS Cloud более чем в три раза расширила мощности в дата-центре во Владивостоке. Это позволит местному бизнесу ещё больше увеличить использование облачных мощностей и быстрее масштабировать собственные IT-системы», — говорится в заявлении MWS Cloud.

Постоянный URL: http://servernews.ru/1133692
10.12.2025 [09:39], Владимир Мироненко

HPE позиционирует стек Morpheus в качестве альтернативы VMware

HPE обновила облачный портфель GreenLake и объединила сетевые решения Aruba и Juniper, чтобы предложить клиентам возможности AIOps для обеих платформ, а также высокоскоростное подключение для обработки ИИ-нагрузок. Президент и генеральный директор HPE Антонио Нери (Antonio Neri) заявил, что одной из самых серьёзных проблем является растущая стоимость виртуализации. Именно эту проблему решает платформа Morpheus, передаёт The Register.

Технический директор и исполнительный вице-президент по гибридным облакам Фидельма Руссо (Fidelma Russo) сообщила, что ошибочно полагать, что предприятия стремятся просто заменить гипервизор. Она отметила, что компании ищут современную платформу, способную работать с традиционными виртуальными машинами (ВМ), контейнерами и рабочими нагрузками эпохи ИИ с тем же уровнем отказоустойчивости, безопасности и автоматизации, который они ожидают от облака.

По словам Руссо, инструменты управления Morpheus и OpsRamp от HPE, а также ПО для аварийного восстановления Zerto представляют собой «полностью интегрированную альтернативную платформу корпоративного уровня, охватывающую ВМ, контейнеры и физическое оборудование». Фактически HPE предлагает альтернативу платформе VMware от Broadcom, хотя Руссо прямо её не назвала.

 Источник изображения: ThisisEngineering / Unsplash

Источник изображения: ThisisEngineering / Unsplash

Платформа Morpheus, приобретённая HPE в позапрошлом году, теперь поддерживает программно-определяемые сети (SDN) с нулевым доверием для виртуальных машин с гипервизором HVM (VM Essential) — на базе технологий Juniper Networks, приобретённой HPE в этом году. Также Morpheus предлагает полную поддержку Kubernetes и контейнерных рабочих нагрузок в рамках HVM для унифицированных операций с виртуальными машинами и контейнерами. Интегрированная с Morpheus система управления данными Apstra Data Center Director от Juniper обеспечивает автоматическую настройку коммутаторов при перемещении или миграции виртуальных машин, а OpsRamp интегрируется с Apstra Data Center Director и Compute Ops Management, объединяя управление и аналитику по всему стеку.

«Благодаря этой интеграции… у нас теперь полностью автоматизированный стек, который устраняет проблемы, возникающие между виртуальными машинами и устойчивостью сети, что было ещё одним ключевым требованием, о чём мы говорили клиентам», — сообщила Руссо. Сообщается, что теперь поддерживаются распределённые кластеры с серверами в разных локациях, что позволяет поддерживать рабочие нагрузки даже при полном отключении одной из площадок. Синхронная репликация обеспечивается Alletra Peer Persistence.

HPE также сообщила, что Morpheus VM Essentials будет работать с Veeam Data Platform v13 для резервного копирования на уровне гипервизора, что обеспечит быстрое восстановление виртуальных машин в частных облачных средах, включая HPE Private Cloud Business Edition.

Постоянный URL: http://servernews.ru/1133613
08.12.2025 [23:50], Андрей Крупин

В России запущена облачная платформа квантовых вычислений Bauman Octillion — она открыта для всех исследователей

МГТУ им. Н. Э. Баумана сообщил о запуске облачной платформы квантовых вычислений Bauman Octillion, позволяющей запускать алгоритмы и экспериментировать на квантовых сопроцессорах, их эмуляторах, а также изучать образовательные материалы и модели, демонстрирующие потенциальные возможности квантовых вычислений. Площадка запущена в сотрудничестве с ФГУП «ВНИИА им. Н.Л. Духова», госкорпорацией «Росатом» и представляет собой альтернативу сервису IBM Quantum Platform, недоступному пользователям из РФ и ряда других стран мира.

Bauman Octillion представляет собой комплекс для проведения гибридных квантово-классических вычислений на базе спроектированной и изготовленной совместным центром МГТУ им. Н. Э. Баумана и ФГУП «ВНИИА им. Н.Л. Духова» квантовой электронной компонентной базы, включающей сверхпроводниковые квантовые сопроцессоры SnowDrop 4Q (4 кубита) и SnowDrop 8Q (8 кубитов), а также систему считывания кубитов с уровнем собственных шумов, близким к квантовому пределу.

К услугам пользователей в постоянном доступе 4-кубитная квантовая машина, квантовый эмулятор, среда запуска квантово-классических алгоритмов, система управления и полный стек программного обеспечения. С 10 по 20 декабря будет также открыт доступ к 8-кубитному квантовому сопроцессору SnowDrop 8Q, вычислительное пространство которого составляет 256 состояний, что в 16 раз больше, чем у SnowDrop 4Q.

 Пользовательский интерфейс облачной платформы Bauman Octillion (источник изображения: docs.octillion.bmstu.ru)

Пользовательский интерфейс облачной платформы Bauman Octillion (источник изображения: docs.octillion.bmstu.ru)

Квантовые сопроцессоры и их эмуляторы доступны в режиме реального времени, задачи выполняются в порядке очереди. Для работы в Bauman Octillion предусмотрены графический конструктор алгоритмов, API-клиент и обучающие материалы. Для написания квантовых алгоритмов API-клиент поддерживает фреймворки Qiskit и QASM. Облачная платформа открыта для всех заинтересованных лиц — для работы с ней необходимо создать учётную запись и предоставить краткое обоснование необходимости доступа к системе.

Сервис ориентирован на широкий круг ведущих отечественных организаций, осуществляющих научные исследования и внедрение передовых технологий, включая госкорпорации и компании высокотехнологичного сектора, инвестирующие в развитие квантовых решений, а также широкий ряд научных институтов Российской академии наук.

«Вычислительная облачная платформа Bauman Octillion — это новый инструмент изучения квантового мира с акцентом на практические применения. Мы последовательно расширяем линейку доступного «железа» — от 4 кубитов к 8 — впервые в российской квантовой индустрии. Мы приглашаем всех заинтересованных исследователей подключаться к нашему облаку, экспериментировать на реальных чипах, не покидая стен своих лабораторий», — говорится в сообщении пресс-службы МГТУ им. Н. Э. Баумана.

Постоянный URL: http://servernews.ru/1133591
08.12.2025 [16:35], Владимир Мироненко

Помимо циклических сделок NVIDIA теперь раздаёт партнёрам и «кредиты доверия»

Несмотря на растущую критику стратегии NVIDIA по финансированию своих клиентов, компания продолжает поддерживать своих партнёров и заказчиков всё новыми способами. Как пишет Data Center Dynamics, в своём недавнем отчёте по форме 10-Q NVIDIA сообщила, что выступила в качестве гаранта своего партнёра, что позволило последнему «обеспечить аренду объекта с ограниченной доступностью, подкреплённую кредитной историей» NVIDIA.

Партнёр, имя которого не раскрывается, разместил на эскроу-счете около $470 млн, и у него уже есть соглашение о продаже облачных мощностей, что, по словам NVIDIA, снижает риск. Если компания не выполнит свои обязательства, NVIDIA имеет право взять объект в аренду для внутреннего использования или сдать его в субаренду, но ей придётся выплатить в течение пяти лет $860 млн.

За последнее время NVIDIA заключила с покупателями своих ускорителей ряд сделок, отличающихся циклическим характером, что увеличило и без того высказываемые опасения экспертов в растущем пузыре на ИИ-рынке. Компания поддержала, в том числе, такие необлака, как CoreWeave, Nebius, Nscale, Lambda и Crusoe.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В некоторых случаях компания выступает в качестве гаранта продаж. В сентябре этого года NVIDIA пообещала выкупить нераспроданные вычислительные мощности у CoreWeave за $6,3 млрд, а также заключила сделку с Lambda на $1,5 млрд на аренду серверов с собственными чипами. NVIDIA также готова инвестировать крупные суммы в разработчиков ИИ-моделей. Она заключила мегасделку на $100 млрд с OpenAI, а также сделку на $10 млрд с Anthropic. Обе сделки пока не завершены, и также привязаны к гарантиям продажи ускорителей.

Также сообщается, что NVIDIA обсуждала возможность поддержки кредитов OpenAI на ЦОД, чтобы ускорить реализацию планов по расширению комплекса Stargate. Компания также инвестирует в разработчиков ИИ-моделей Mistral AI, xAI и Cohere, планирует инвестировать $5 млрд в Intel и $2 млрд в разработчика ПО Synopsys, а также поддерживает фонд ЦОД под руководством BlackRock.

Уровень инвестиций в поддержание собственных продаж вызвал критику известного инвестора Майкла Берри (Michael Burry), ставшего прообразом одного из героев фильма «Игра на понижение», вынудив NVIDIA оправдываться, заявив, что она отличается от Enron, обанкротившейся из-за бухгалтерского мошенничества, а также от WorldCom или Lucent, оказавшихся в центре скандалов из-за манипуляций с учётом финансов и отчётностью.

Постоянный URL: http://servernews.ru/1133548
08.12.2025 [08:49], Сергей Карасёв

Японские Arm-процессоры Fujitsu MONAKA пропишутся в «зелёном» европейском ИИ-облаке Scaleway

Японская корпорация Fujitsu и французский облачный провайдер Scaleway объявили о заключении соглашения о стратегическом сотрудничестве, направленном на формирование в Европе устойчивой ИИ-платформы с прицелом на суверенитет данных.

Стороны намереные использовать будущие CPU Fujitsu для инференса. Речь идёт о Fujitsu Monaka, выход которых запланирован на 2027 год. Эти 2-нм чипы с 3.5D-упаковкой получат до 144 вычислительных ядер с архитектурой Arm, а также 12 каналов оперативной памяти DDR5, интерфейс PCIe 6.0 с CXL 3.0. Для систем на базе Monaka предусмотрено воздушное охлаждение.

Отмечается, что в настоящее время многие организации используют ИИ-модели в своих операциях и производственных процессах на постоянной основе. Это порождает потребность в предсказуемой производительности и контролируемых эксплуатационных расходах при одновременном снижении негативного воздействия на окружающую среду. Архитектуры на базе CPU способствуют решению подобных задач, поскольку обеспечивают стабильное быстродействие, более низкое по сравнению с GPU энергопотребление и простую интеграцию в существующие окружения.

 Источник изображения: Fujitsu

Источник изображения: Fujitsu

В рамках партнёрства Fujitsu и Scaleway проведут совместное тестирование CPU-платформ для задач ИИ: цель заключается в создании оптимальных инфраструктурных решений, адаптированных к конкретным рабочим нагрузкам. В результате, заказчики смогут выбрать наиболее подходящую систему с учётом своих потребностей и бюджета.

В целом, платформы на базе Monaka станут дополнением к GPU-системам. Предварительные результаты испытаний, предоставленные Fujitsu, говорят о повышении энергоэффективности в 1,9 раза и снижении затрат в 1,7 раза в случае определённых нагрузок, связанных с инференсом. Платформы с чипами Monaka, как утверждается, могут поддерживать ИИ-модели, насчитывающие до 70 млрд параметров.

Постоянный URL: http://servernews.ru/1133536
05.12.2025 [13:41], Сергей Карасёв

Пять облачных гигагерц: AWS запустила инстансы EC2 X8aedz на базе AMD EPYC Turin для требовательных к памяти нагрузок

Облачная платформа AWS анонсировала инстансы EC2 X8aedz, оптимизированные для нагрузок, которым требуется большой объём памяти. Это могут быть задачи, связанные с автоматизацией проектирования электроники (EDA), реляционные базы данных и пр.

В основу инстансов положены процессоры AMD EPYC Turin, тактовая частота которых достигает 5 ГГц: утверждается, что это самый высокий показатель в облаке AWS. Новые экземпляры обеспечивают до двух раз более высокую вычислительную производительность по сравнению с инстансами EC2 X2iezn предыдущего поколения.

В случае EC2 X8aedz количество vCPU варьируется от 2 до 96, а объём оперативной памяти — от 64 до 3072 ГиБ. Инстансы предлагают локальное NVMe-хранилище ёмкостью от 158 до 7600 Гбайт. Пропускная способность сетевого подключения составляет от 18,75 до 75 Гбит/с, пропускная способность EBS — от 15 до 60 Гбит/с. Задействованы карты AWS Nitro шестого поколения, которые отвечают за виртуализацию, разгрузку сетевых функций и функций хранения.

 Источник изображения: AWS

Источник изображения: AWS

В обозначении X8aedz, как отмечает Amazon, суффикс «a» указывает на аппаратную платформу AMD, «e» — на расширенную память, «d» — на локальные NVMe SSD, физически подключённые к хост-серверу, а «z» — на высокую частоту процессоров. Соотношение памяти к виртуальным CPU у всех новых экземпляров составляет 32:1.

Инстансы Amazon EC2 X8aedz уже доступны в регионах US West (Орегон) и Asia Pacific (Токио). В дальнейшем география охвата будет расширяться. Заказчики могут выбирать между различными конфигурациями, включая два варианта Bare Metal.

Постоянный URL: http://servernews.ru/1133436
04.12.2025 [09:48], Владимир Мироненко

Частное ИИ-облако под ключ: Amazon представила AWS AI Factory для развёртывания в собственных ЦОД заказчиков

Amazon представила AWS AI Factory — выделенную ИИ-инфраструктуру, включающую ускорители NVIDIA, чипы Trainium, а также сетевые решения, хранилища и базы данных AWS, которую можно развернуть в собственных ЦОД клиентов, обеспечивая их потребность в реализации суверенитета и соблюдении нормативных требований. «Клиенты могут использовать пространство своего существующего ЦОД, сетевое подключение и электроэнергию, в то время как AWS берет на себя все сложности развёртывания и управления интегрированной инфраструктурой», — пояснила компания.

AWS отметила, что организации в регулируемых отраслях и государственном секторе при развёртывании своих масштабных проектов в сфере ИИ сталкиваются с проблемой их размещения в соответствующей требованиям инфраструктуре. Создание собственной ИИ-инфраструктуры требует значительных капиталовложений в покупку ускорителей, (до-)оснащение ЦОД и электроэнергию, а также сложных циклов закупок, выбора ИИ-модели для конкретного сценария использования и лицензирования моделей у разных поставщиков ИИ-технологий. Это требует много времени и усложняет эксплуатацию, отвлекая клиентов от основных бизнес-целей.

AWS AI Factory позволяет решить эту проблему путём развёртывания готовой к использованию выделенной ИИ-инфраструктуры AWS в собственных дата-центрах клиентов. AWS AI Factory функционирует как частный облачный регион AWS, предоставляя безопасный доступ с низкой задержкой к вычислительным ресурсам, хранилищу данных, базам данных и ИИ-сервисам AWS для обучения и инференса ИИ-моделей.

 Источник изображения: Amazon

Источник изображения: Amazon

Кроме того, предоставляются управляемые сервисы, обеспечивающие доступ к ведущим базовым моделям без необходимости заключения отдельных контрактов с их поставщиками. Всё это помогает организациям соблюдать требования безопасности, суверенитета данных и нормам обработки и хранения данных, экономя усилия по развёртыванию и управлению инфраструктурой. Компания отметила, что AWS AI Factory разработаны в соответствии со строгими стандартами безопасности AWS, обеспечивая выполнение самых важных рабочих нагрузок на всех уровнях секретности: «Несекретно», «Конфиденциально», «Секретно» и «Совершенно секретно».

AWS AI Factory — совместный проект AWS и NVIDIA, благодаря чему клиенты получат доступ к ПО NVIDIA и множеству приложений с ускорением на базе GPU. AWS Nitro и EC2 UltraClasters поддерживают платформы Grace Blackwell и Vera Rubin. AWS и NVIDIA также сотрудничают в рамках стратегического партнёрства с HUMAIN из Саудовской Аравии. AWS создаёт в Саудовской Аравии первую в своём роде «Зону искусственного интеллекта» (AI Zone) в кампусе HUMAIN, включающую до 150 тыс. ИИ-чипов, в том числе ускорители NVIDIA GB300 и Amazon Trainium, выделенную ИИ-инфраструктуру и ИИ-сервисы AWS.

Постоянный URL: http://servernews.ru/1133354
03.12.2025 [13:25], Сергей Карасёв

AWS представила ИИ-ускорители Trainium3: 144 Гбайт памяти HBM3E и 2,52 Пфлопс в режиме FP8

Облачная платформа Amazon Web Services (AWS) анонсировала ускорители Trainium3 для задач ИИ, а также серверы Trainium3 UltraServer (Trn3 UltraServer). Эти машины, как утверждается, превосходят решения предыдущего поколения — Trainium2 UltraServer — в 4,4 раза по производительности, в 4 раза по энергоэффективности и почти в 4 раза по пропускной способности памяти.

Чипы Trainium3 изготавливаются по 3-нм технологии TSMC. Они оснащены 144 Гбайт памяти HBM3E с пропускной способностью до 4,9 Тбайт/с. По сравнению с Trainium2 объём памяти увеличился в 1,5 раза, её пропускная способность — в 1,7 раза. Ранее сообщалось, что энергопотребление новых ускорителей может достигать 1 кВт.

 Источник изображений: AWS

Источник изображений: AWS

Изделие Trainium3 предназначено для высокоплотных и сложных параллельных рабочих нагрузок с использованием расширенных типов данных (MXFP8 и MXFP4). По утверждениям AWS, на операциях FP8 быстродействие достигает 2,52 Пфлопс. Для сравнения, AMD Instinct MI355X показывает результат в 10,1 Пфлопс, а чип поколения NVIDIA Blackwell — 9 Пфлопс. Как уточняет The Register, ускорители Trainium3 используют структурированную разрежённость (structured sparsity) формата 16:4, что фактически поднимает производительность в четыре раза — до 10 Пфлопс — на таких задачах, как обучение ИИ-моделей.

Системы Trainium3 UltraServer объединяют 144 ускорителя Trainium3, которые соединены посредством интерконнекта NeuronSwitch-v1: эта технология, по оценкам AWS, увеличивает пропускную способность в два раза по сравнению с машинами UltraServer предыдущего поколения. Усовершенствованная сетевая архитектура Neuron Fabric сокращает задержки при передаче данных между чипами до менее чем 10 мкс. Каждая система Trainium3 UltraServer оперирует 20,7 Тбайт памяти HBM3E с общей пропускной способностью 706 Тбайт/с. Заявленная производительность достигает 362 Пфлопс в режиме FP8.

Применённые в Trainium3 технологии, как заявляет AWS, дают возможность создавать приложения ИИ с практически мгновенным откликом. Платформа EC2 UltraClusters 3.0 позволяет объединять тысячи систем UltraServer, содержащих до 1 млн ускорителей Trainium, что в 10 раз больше, чем в случае изделий предыдущего поколения. При этом следующее поколение ускорителей Trainium4 получит интерконнект NVLink Fusion шестого поколения.

Постоянный URL: http://servernews.ru/1133303
02.12.2025 [12:41], Руслан Авдеев

Американский ИИ-стартап ищет деньги, чтобы снабдить китайцев чипами NVIDIA через Японию

Базирующийся в США стартап PaleBlueDot AI ищет, у кого бы занять $300 млн, чтобы купить ускорители NVIDIA и разместить их в токийском ЦОД — и всё это в интересах китайской медиакомпании RedNote (Xiaohongshu), сообщает Bloomberg. В своё время RedNote получила известность за пределами КНР благодаря временному запрету TikTok в Соединённых Штатах — тогда американцы начали массово регистрироваться в китайской соцсети.

PaleBlueDot AI из Кремниевой долины обратилась к банкам и частным кредитным компаниям для получения финансирования. Сообщается, что JPMorgan Chase & Co. причастен к подготовке маркетинговых материалов для потенциальных заёмщиков, но от участия в самой сделке, вероятно, откажется. Источники утверждают, что сделка обсуждается, как минимум, в последние три месяца, хотя неизвестно, каков прогресс. По словам PaleBlueDot AI, «упомянутая информация не соответствует действительности», в JPMorgan от комментариев отказались, а NVIDIA и Xiaohongshu просто не ответили на запросы.

PaleBlueDot AI позиционирует себя как посредника, предлагающего безопасные и экономически эффективные вычислительные решения. Примечательно, что у истоков компании и в её руководстве числятся бизнесмены китайского происхождения.

 Источник изображения: zhang kaiyv/unsplash.com

Источник изображения: zhang kaiyv/unsplash.com

Планируемый заём наглядно демонстрирует, как именно намерены технологические компании обходить ограничения на продажу в Китай передовых ИИ-чипов, неоднократно ужесточавшиеся с 2022 года. Хотя китайские компании теперь не могут покупать оборудование напрямую, они могут вполне легально получать доступ к ЦОД в странах за пределами Китая. Буквально на днях сообщалось, что Alibaba и ByteDance стали обучать передовые ИИ-модели в дата-центрах Юго-Восточной Азии.

Финансирование подобных проектов всегда воспринимается с осторожностью. Это связано с озабоченностью тем, что американские власти могут наложить дополнительные санкции. Хотя сама NVIDIA давно критикует политику полных запретов поставок ИИ-чипов в Китай, компания постоянно обещает, что будет строго придерживаться политики, предотвращающей попадание чипов «не в те руки». Впрочем, подход американских властей может измениться. По слухам, уже рассматривается возможность поставок в КНР относительно устаревших вариантов — NVIDIA H200.

Постоянный URL: http://servernews.ru/1133244
02.12.2025 [09:15], Владимир Мироненко

AWS и Google Cloud подружили свои облачные сети, чтобы интернет падал пореже и не у всех сразу

Amazon и Google представили мультиоблачный сетевой сервис, разработанный совместными усилиями и призванный удовлетворить растущий спрос на надёжное подключение, в то время как даже кратковременные перебои в работе интернета могут привести к серьезным сбоям в работе сервисов.

Новый сервис объединяет AWS Interconnect – multicloud и Google Cross-Cloud Interconnect, предлагая организациям возможность установления защищённых частных высокоскоростных сетевых соединений между Google Cloud и AWS, что обеспечивает онлайн-бизнесу подстраховку в случае сбоя в работе одного из провайдеров. Кроме того, сервис упрощает одновременное использование облачных услуг обоих провайдеров в рамках одного приложения.

Теперь компании смогут за считанные минуты установить соединение между вычислительными платформами через выбранную облачную консоль или API. Как отметила Google Cloud, ранее для подключения провайдеров облачных услуг клиентам приходилось вручную настраивать сложные сетевые компоненты, включая физические соединения и оборудование. Это требовало длительного времени на подготовку и координации с несколькими внутренними и внешними командами, и могло занять недели или даже месяцы.

 Источник изображений: Google

Источник изображений: Google

Сервис предлагает подключение выбранной ёмкости между двумя облачными регионами обоих провайдеров с четырёхкратным резервированием на уровне ЦОД, пограничных маршрутизаторов и т.д. Оба поставщика осуществляют непрерывный мониторинг для проактивного выявления и устранения проблем, а также совместно управляют резервированием и занимаются эксплуатационной поддержкой. Шифрование MACsec защищает соединения между периферийными маршрутизаторами AWS и Google Cloud.

Партнёры также выпустили унифицированный API и открытую спецификацию, предложив другим поставщикам облачных и сетевых услуг фреймворк для интеграции аналогичных мультиоблачных подключений. Благодаря новому сервису клиенты, использующие в работе несколько облаков, получают стандартизированный подход к гибридному перемещению данных, рабочих ИИ-нагрузок и кросс-облачной аналитике.

Salesforce в числе первых внедрила эту технологию. В компании отметили, что интеграция Salesforce Data 360 с более широким ИТ-ландшафтом требует надёжного частного подключения. AWS Interconnect – multicloud позволяет наводить критически важные мосты с Google Cloud с той же лёгкостью, что и развёртывание внутренних ресурсов AWS.

В октябре в AWS произошел крупный сбой, который вывел из строя ряд сервисов, включая Fortnite, Alexa и Snapchat. В последующие недели сбои наблюдались и в Microsoft Azure, и в Cloudflare, что вызвало опасения по поводу рисков, связанных с использованием лишь нескольких крупных поставщиков интернет-инфраструктуры. AWS планирует развернуть аналогичный сервис с Microsoft Azure в следующем году. Ранее AWS, Google Cloud и Microsoft Azure уже сделали шаг навстречу другу другу, отказавшись от платы за выгрузку данных при переезде в другое облако.

Постоянный URL: http://servernews.ru/1133227