Материалы по тегу: aws

19.12.2025 [09:57], Руслан Авдеев

Amazon купила за €225 млн заброшенную британскую угольную электростанцию Didcot A, чтобы переделать её в дата-центр

Deutsche Bank сообщил о сделке немецкой RWE AG (Rheinisch-Westfälisches Elektrizitätswerk) с Amazon. Гиперскейлер приобрёл у энергокомпании неработающую угольную электростанцию Didcot A в Великобритании, сообщает Bloomberg. Как заявили в Deutsche Bank AG, в будущем RWE может хорошо заработать на подобных сделках.

В ноябре RWE объявила, что выручила €225 млн ($265 млн) от продажи простаивающего в Великобритании крупного энергетического объекта, но имя покупателя не раскрыла. В Deutsche Bank также не пожелали сообщать, откуда получили информацию. Угольно-нефтяная электростанция Didcot A мощностью 1,44 ГВт заработала в 1970 году, но была фактически разобрана в 2014–2020 гг.

Год назад стало известно, что оператор ЦОД CloudHQ намерен построить в интересах AWS 84-МВт кампус за £1,9 млрд ($2,48 млрд), расположенный по соседству с электростанцией Didcot. Разрешение на строительство кампуса общей площадью до 55 тыс. м2 было получено ещё в 2021 году. Впрочем, тогда AWS действовала под «псевдонимом» Willow Developments LLC. Сейчас речь идёт о сносе существующего строения и прочих конструкций на площадке, очистка площадки и постройка одного здания ЦОД. Окончательно решение по проекту должно быть принято в марте 2026 года.

Также Amazon подала заявку на получение разрешения на строительство кампуса ЦОД в Ивере (Iver, Баингемшир) на территории распределительного центра Ridgeway Distribution Centre в октябре 2025 года. Пока компания имеет в Великобритании облачный регион в рауоне Бристоля (хотя называется он London), запущенный в 2016 году. Он связан с другими проектами — в Бедфордшире, Мидлсексе, Уилтшире и Беркшире.

 Источник изображения: Didcot

Источник изображения: Didcot

Акции RWE почти достигли максимума стоимости, зарегистрированного 14 лет назад, поскольку эксперты рынка и инвесторы ожидают больше сделок такого рода. В ходе финансового отчёта RWE объявила, что уже работает над десятком аналогичных сделок в Великобритании, Германии и Нидерландах. Операторам дата-центров в последнее время всё интереснее подобные объекты и даже действующие электростанции, поскольку так проще масштабировать свою деятельность с ростом спроса на вычисления. Дополнительным преимуществом является то, что даже заброшенные площадки нередко по-прежнему подключены к электросетям, так что тратиться на присоединение или постройку энергетической инфраструктуры не надо.

По расчётам экспертов Deutsche Bank, каждая из планируемых новых сделок RWE составит 200 МВт, это возможность для компании получить €1,6 млрд, если опираться на характер сделки с Amazon. К 2030 году RWE, возможно, заключит соглашения на €900 млн. В 2024 году RWE уже продала Microsoft земельный участок в районе добычи бурого угля в Рейнской области, сумма не раскрывается. Там IT-гигант намерен построить крупный дата-центр.

Сектор бывших и действующих энергообъектов осваивают и другие компании. В США изучается возможность строительства на подобных площадках АЭС для долгосрочного обеспечения ЦОД энергией, а Министерство энергетики США (DoE) выделило свои земли для ускоренного строительства ЦОД и электростанций. А у AWS уже есть собственный кампус непосредственно на терртории АЭС Susquehanna.

Британская Drax Group намерена развернуть на своём объекте в северной Англии 1 ГВт мощностей ЦОД, первые объекты должны заработать к 2027 году. Испанская энергокомпания Iberdrola SA предлагает свои земли и энергию в обмен на долю в новых проектах ЦОД. Французская государственная энергокомпания EDF (Électricité de France) также готова предложить дата-центрам и землю, и энергию своих АЭС и переделать старые ТЭС в ЦОД.

Постоянный URL: http://servernews.ru/1134124
17.12.2025 [16:41], Владимир Мироненко

Amazon не прочь инвестировать $10 млрд в OpenAI и дать стартапу фирменные ИИ-ускорители Trainium

Amazon ведет переговоры с OpenAI о возможных инвестициях более $10 млрд в стартап, предоставлении ему ускорителей серии Trainium и сдаче в аренду дополнительных вычислительных мощностей, сообщила газета The Financial Times. По словам её источников, знакомых с ситуацией, в случае заключения сделки капитализация OpenAI может превысить $500 млрд. Впрочем, переговоры находятся на ранней стадии и говорить об этом пока рано.

Переговоры проходят после пересмотра первоначальной сделки стартапа с его ранним инвестором Microsoft. Компании реструктурировали свои отношения, что позволило OpenAI заключить соглашения об использовании вычислительных мощностей конкурирующих с Microsoft облачных провайдеров. В частности, стартап подписал сделку с Amazon, обязавшись потратить $38 млрд на аренду ИИ-ускорителей NVIDIA в течение семи лет. Обсуждаемое сейчас соглашение об инвестициях и облачных сервисах будет заключено в дополнение к этому соглашению. Ранее OpenAI обязался использовать сервисы Azure на $250 млрд. Microsoft сохраняет эксклюзивные права на передовые модели OpenAI до 2032 года.

На данный момент стартапом заключены соглашения на сумму $1,5 трлн с NVIDIA, Oracle, AMD и Broadcom на поставку чипов и услуги вычислительной инфраструктуры. Циклический характер заключённых OpenAI сделок, а также отсутствие понятных механизмов коммерциализации ИИ и обоснованных расчётов стартапа по обеспечению окупаемости инвестиций, вызывает обеспокоенность некоторых инвесторов, считающих, что ИИ-индустрия находится на пути к формированию пузыря.

 Источник изображения: Amazon

Источник изображения: Amazon

OpenAI не единственная, кто заключает сделки с поставщиками. Например, разработчик ИИ-моделей Anthropic, привлёк в общей сложности около $26 млрд инвестиций от Amazon, Google, Microsoft и NVIDIA, используя их оборудование и сервисы. Amazon является одним из крупнейших инвесторов Anthropic. С 2023 года она вложила в стартап около $8 млрд.

Обсуждаемая с Amazon сделка также знаменует собой еще один шаг в попытках OpenAI диверсифицировать чипы, используемые для обучения и запуска своих моделей. Источники сообщили, что Amazon и OpenAI также обсуждают коммерческое сотрудничество, связанное с маркетплейсом технологического гиганта. Стартап стремится закрепиться в сфере электронной коммерции и уже заключил сделки с Etsy, Shopify и Instacart с целью создания новых источников дохода.

Постоянный URL: http://servernews.ru/1134061
11.12.2025 [14:05], Руслан Авдеев

Amazon инвестирует $35 млрд в Индию к 2030 году для инноваций в сфере ИИ и создания рабочих мест

Amazon объявила о намерении вложить более $35 млрд в индийские подразделения компании до 2030 года в дополнение к уже потраченным здесь $40 млрд. Новые инвестиции направят на масштабирование активности и три стратегически важных направления: цифровизацию на основе ИИ, рост экспорта и создание рабочих мест.

В отчёте Keystone Strategy говорится, что инвестиции $40 млрд (в т.ч. выплаты сотрудникам и деньги на развитие инфраструктуры) сделали компанию крупнейшим зарубежным инвестором в стране, крупнейшим «катализатором» экспорта с помощью электронной торговли, и одним из ключевых создателей рабочих мест в Индии. Значительные средства затрачены на создание физической и цифровой инфраструктуры, в т.ч. пунктов обслуживания, логистических сетей, дата-центров и инфраструктуры цифровых платежей.

По данным Keystone, Amazon оцифровала более 12 млн малых предприятий, помогла увеличению объёма экспорта с помощью электронной коммерции на сумму $20 млрд, а в 2024 году обеспечила порядка 2,8 млн прямых и косвенных рабочих мест в различных отраслях индийской экономики, включая технологическую сферу, логистику, службы поддержки и др. с медицинским страхованием и обучением.

В Amazon утверждают, что влияние компании в стране выходит за рамки прямого трудоустройства сотрудников, она обеспечивает рабочие места в сфере упаковки, логистики и сопутствующих технологий, а также даёт возможность развития на своей торговой площадке тысячам малых предприятий. В 2030 году количество прямых и косвенных рабочих мест увеличится до 3,8 млн благодаря расширению бизнеса как самой Amazon, так и растущих сетей пунктов обслуживания и сервисов доставки — одновременно поддерживаются и смежные отрасли. Совокупный объём экспорта, связанный с электронной коммерцией, к 2030 году должен вырасти в четыре раза до $80 млрд.

 Источник изображения: pavan gupta/unsplash.com

Источник изображения: pavan gupta/unsplash.com

Благодаря дополнительным вложениям $35 млрд Amazon намерена ускорить цифровую трансформацию в стране, укрепить местную инфраструктуру и поддержать инновации. Инвестиции соответствуют приоритетам Индии и направлены на расширение возможностей ИИ, улучшение логистики, поддержку роста малого бизнеса и создание новых рабочих мест.

Программа Amazon по внедрению ИИ во все сферы жизни должна помочь преобразовать цифровое пространство страны, поддерживая заявленную государством концепцию «ИИ для всех». К 2030 году Amazon намерена обеспечить преимущества ИИ 15 млн малых предприятий — продавцы на платформе Amazon.in уже используют ИИ-инструменты Seller Assistant, Next Gen Selling и др. Опыт покупок для сотен миллионов покупателей планируется улучшить с помощью инструментов Lens AI (визуальный поиск), интерактивных покупок с помощью Rufus и многоязычных интерфейсов.

Также планируется предоставить 4 млн школьников возможности обучиться навыкам работы с ИИ и познакомить их с карьерными возможностями в технологической сфере. Программа включает разработку учебной программы, посвящённой ИИ, экскурсии в технологические компании, практические занятия в «ИИ-песочнице» и обучение самих преподавателей. Инициатива напрямую поддерживает цели Национальной образовательной политики Индии от 2020 года.

 Источник изображения: Varun Gaba/unspalsh.com

Источник изображения: Varun Gaba/unspalsh.com

О том, сколько именно средств выделят на ИИ-инфраструктуру, включая ЦОД AWS, не сообщается. В начале 2025 года AWS выделила $8,3 млрд только на строительство одного облачного региона — AWS Asia-Pacific в Мумбаи (Mumbai). Регион работает с 2016 года, к 2022 году компания инвестировала в него $3,7 млрд. В 2022 году она запустила облачный регион в Хайдарабаде (Hyderabad). Обязательство потратить $8,3 млрд на ЦОД в Мумбаи — часть более обширного инвестиционного плана, в рамках которого AWS намеревалась потратить в Индии $12,7 млрд. Также компания планирует инвестировать $7 млрд в течение 14 лет в облачный регион в Хайдарабаде.

Последние новости об Amazon появились вскоре после того, как Microsoft объявила о планах потратить $17,5 млрд на ИИ-инфраструктуру в Индии к 2030 году. В октябре 2025 года Google подтвердила о реализации проекта по строительству кампуса ЦОД в штате Андхра-Прадеш (Andhra Pradesh), планируется потратить $15 млрд за пять лет.

Постоянный URL: http://servernews.ru/1133751
05.12.2025 [13:41], Сергей Карасёв

Пять облачных гигагерц: AWS запустила инстансы EC2 X8aedz на базе AMD EPYC Turin для требовательных к памяти нагрузок

Облачная платформа AWS анонсировала инстансы EC2 X8aedz, оптимизированные для нагрузок, которым требуется большой объём памяти. Это могут быть задачи, связанные с автоматизацией проектирования электроники (EDA), реляционные базы данных и пр.

В основу инстансов положены процессоры AMD EPYC Turin, тактовая частота которых достигает 5 ГГц: утверждается, что это самый высокий показатель в облаке AWS. Новые экземпляры обеспечивают до двух раз более высокую вычислительную производительность по сравнению с инстансами EC2 X2iezn предыдущего поколения.

В случае EC2 X8aedz количество vCPU варьируется от 2 до 96, а объём оперативной памяти — от 64 до 3072 ГиБ. Инстансы предлагают локальное NVMe-хранилище ёмкостью от 158 до 7600 Гбайт. Пропускная способность сетевого подключения составляет от 18,75 до 75 Гбит/с, пропускная способность EBS — от 15 до 60 Гбит/с. Задействованы карты AWS Nitro шестого поколения, которые отвечают за виртуализацию, разгрузку сетевых функций и функций хранения.

 Источник изображения: AWS

Источник изображения: AWS

В обозначении X8aedz, как отмечает Amazon, суффикс «a» указывает на аппаратную платформу AMD, «e» — на расширенную память, «d» — на локальные NVMe SSD, физически подключённые к хост-серверу, а «z» — на высокую частоту процессоров. Соотношение памяти к виртуальным CPU у всех новых экземпляров составляет 32:1.

Инстансы Amazon EC2 X8aedz уже доступны в регионах US West (Орегон) и Asia Pacific (Токио). В дальнейшем география охвата будет расширяться. Заказчики могут выбирать между различными конфигурациями, включая два варианта Bare Metal.

Постоянный URL: http://servernews.ru/1133436
04.12.2025 [22:18], Владимир Мироненко

AWS анонсировала 192-ядерные серверные Arm-процессоры Graviton5

AWS анонсировала свой самый мощный на сегодняшний день серверный Arm-процессор — 3-нм 192-ядерный Graviton5. Новые инстансы M9g на базе Graviton5 отличаются более высокой производительностью благодаря впятеро большему общему L3-кешу и в 2,6 раза большему объёму кеша на ядро по сравнению с Graviton4, более высокой скорости памяти и повышенной пропускной способности сетевого подключения. Также компания снизила задержку передачи данных между ядрами на треть.

В Graviton5 появилась функция Nitro Isolation Engine с формальной верификацией изоляции исполняемых рабочих нагрузок друг от друга и от самой AWS. Процессоры предлагают полное шифрование памяти, расширенный предсказатель ветвлений, улучшенную подсистему предвыборки выделенные кеши для каждого vCPU и аутентификацию указателей (PAC). Кроме того, Graviton5 получили систему охлаждения на кристалле. Процессор содержит 172 млрд транзисторов.

 Источник изображений: AWS

Источник изображений: AWS

Процессор использует ядра Neoverse V3 (Poseidon) с ISA Armv9.2-A. Хотя сам чип монолитный, он разделён на два NUMA-домена для снижения задержек обращений к памяти. Каждому ядру полагается 2 Мбайт L2-кеша, а общий объём L3-кеша составляет 192 Мбайт — суммарно 576 Мбайт. Процессор имеет 12 каналов DDR5-8800, причём AWS работает с поставщиками памяти для валидации их DIMM. Также отмечено снижение задержки доступа до менее чем 100 нс. Для связи с внешним миром есть восемь контроллеров PCIe 6.0.

Как сообщается, клиенты AWS уже провели первые тесты Graviton5, показавшие прирост производительности от 25 до 60 % в зависимости от типа рабочей нагрузки. Помимо инстансов M9g в 2026 году также появятся инстансы C9g для ресурсоёмких вычислений и R9g с оптимизацией по памяти. Новые инстансы имеют в среднем на 15 % более высокую скорость сетевого подключения и на 30 % более высокую скорость доступа к EBS-томам (в том числе с шифрованием). Кроме того, они получили чипы Nitro 6, ответственные за виртуализацию, защиту и разгрузку сетевых функций и функция хранения.

Процессоры Graviton теперь обеспечивают более половины всех новых вычислительных мощностей, добавляемых в AWS третий год подряд, причем 98 % из 1000 ведущих клиентов EC2 уже используют эту архитектуру. Постепенно осваивают Arm и прямые конкуренты Amazon — Google активно портирует своё ПО на CPU Axion, у Microsoft недавно представила уже второе поколение процессоров Cobalt.

Постоянный URL: http://servernews.ru/1133293
04.12.2025 [09:48], Владимир Мироненко

Частное ИИ-облако под ключ: Amazon представила AWS AI Factory для развёртывания в собственных ЦОД заказчиков

Amazon представила AWS AI Factory — выделенную ИИ-инфраструктуру, включающую ускорители NVIDIA, чипы Trainium, а также сетевые решения, хранилища и базы данных AWS, которую можно развернуть в собственных ЦОД клиентов, обеспечивая их потребность в реализации суверенитета и соблюдении нормативных требований. «Клиенты могут использовать пространство своего существующего ЦОД, сетевое подключение и электроэнергию, в то время как AWS берет на себя все сложности развёртывания и управления интегрированной инфраструктурой», — пояснила компания.

AWS отметила, что организации в регулируемых отраслях и государственном секторе при развёртывании своих масштабных проектов в сфере ИИ сталкиваются с проблемой их размещения в соответствующей требованиям инфраструктуре. Создание собственной ИИ-инфраструктуры требует значительных капиталовложений в покупку ускорителей, (до-)оснащение ЦОД и электроэнергию, а также сложных циклов закупок, выбора ИИ-модели для конкретного сценария использования и лицензирования моделей у разных поставщиков ИИ-технологий. Это требует много времени и усложняет эксплуатацию, отвлекая клиентов от основных бизнес-целей.

AWS AI Factory позволяет решить эту проблему путём развёртывания готовой к использованию выделенной ИИ-инфраструктуры AWS в собственных дата-центрах клиентов. AWS AI Factory функционирует как частный облачный регион AWS, предоставляя безопасный доступ с низкой задержкой к вычислительным ресурсам, хранилищу данных, базам данных и ИИ-сервисам AWS для обучения и инференса ИИ-моделей.

 Источник изображения: Amazon

Источник изображения: Amazon

Кроме того, предоставляются управляемые сервисы, обеспечивающие доступ к ведущим базовым моделям без необходимости заключения отдельных контрактов с их поставщиками. Всё это помогает организациям соблюдать требования безопасности, суверенитета данных и нормам обработки и хранения данных, экономя усилия по развёртыванию и управлению инфраструктурой. Компания отметила, что AWS AI Factory разработаны в соответствии со строгими стандартами безопасности AWS, обеспечивая выполнение самых важных рабочих нагрузок на всех уровнях секретности: «Несекретно», «Конфиденциально», «Секретно» и «Совершенно секретно».

AWS AI Factory — совместный проект AWS и NVIDIA, благодаря чему клиенты получат доступ к ПО NVIDIA и множеству приложений с ускорением на базе GPU. AWS Nitro и EC2 UltraClasters поддерживают платформы Grace Blackwell и Vera Rubin. AWS и NVIDIA также сотрудничают в рамках стратегического партнёрства с HUMAIN из Саудовской Аравии. AWS создаёт в Саудовской Аравии первую в своём роде «Зону искусственного интеллекта» (AI Zone) в кампусе HUMAIN, включающую до 150 тыс. ИИ-чипов, в том числе ускорители NVIDIA GB300 и Amazon Trainium, выделенную ИИ-инфраструктуру и ИИ-сервисы AWS.

Постоянный URL: http://servernews.ru/1133354
03.12.2025 [13:25], Сергей Карасёв

AWS представила ИИ-ускорители Trainium3: 144 Гбайт памяти HBM3E и 2,52 Пфлопс в режиме FP8

Облачная платформа Amazon Web Services (AWS) анонсировала ускорители Trainium3 для задач ИИ, а также серверы Trainium3 UltraServer (Trn3 UltraServer). Эти машины, как утверждается, превосходят решения предыдущего поколения — Trainium2 UltraServer — в 4,4 раза по производительности, в 4 раза по энергоэффективности и почти в 4 раза по пропускной способности памяти.

Чипы Trainium3 изготавливаются по 3-нм технологии TSMC. Они оснащены 144 Гбайт памяти HBM3E с пропускной способностью до 4,9 Тбайт/с. По сравнению с Trainium2 объём памяти увеличился в 1,5 раза, её пропускная способность — в 1,7 раза. Ранее сообщалось, что энергопотребление новых ускорителей может достигать 1 кВт.

 Источник изображений: AWS

Источник изображений: AWS

Изделие Trainium3 предназначено для высокоплотных и сложных параллельных рабочих нагрузок с использованием расширенных типов данных (MXFP8 и MXFP4). По утверждениям AWS, на операциях FP8 быстродействие достигает 2,52 Пфлопс. Для сравнения, AMD Instinct MI355X показывает результат в 10,1 Пфлопс, а чип поколения NVIDIA Blackwell — 9 Пфлопс. Как уточняет The Register, ускорители Trainium3 используют структурированную разрежённость (structured sparsity) формата 16:4, что фактически поднимает производительность в четыре раза — до 10 Пфлопс — на таких задачах, как обучение ИИ-моделей.

Системы Trainium3 UltraServer объединяют 144 ускорителя Trainium3, которые соединены посредством интерконнекта NeuronSwitch-v1: эта технология, по оценкам AWS, увеличивает пропускную способность в два раза по сравнению с машинами UltraServer предыдущего поколения. Усовершенствованная сетевая архитектура Neuron Fabric сокращает задержки при передаче данных между чипами до менее чем 10 мкс. Каждая система Trainium3 UltraServer оперирует 20,7 Тбайт памяти HBM3E с общей пропускной способностью 706 Тбайт/с. Заявленная производительность достигает 362 Пфлопс в режиме FP8.

Применённые в Trainium3 технологии, как заявляет AWS, дают возможность создавать приложения ИИ с практически мгновенным откликом. Платформа EC2 UltraClusters 3.0 позволяет объединять тысячи систем UltraServer, содержащих до 1 млн ускорителей Trainium, что в 10 раз больше, чем в случае изделий предыдущего поколения. При этом следующее поколение ускорителей Trainium4 получит интерконнект NVLink Fusion шестого поколения.

Постоянный URL: http://servernews.ru/1133303
03.12.2025 [01:28], Владимир Мироненко

AWS «сдалась на милость» NVIDIA: анонсированы ИИ-ускорители Trainium4 с шиной NVLink Fusion

AWS готовит Arm-процессоры Graviton5, которые составят компанию ИИ-ускорителям Trainium4 с интерконнектом NVLink Fusion, фирменными EFA-адаптерам и DPU Nitro 6 с движком Nitro Isolation Engine. Но что более важно, все они будут «упакованы» в стойки стандарта NVIDIA MGX.

Amazon и NVIDIA объявили о долгосрочном партнёрстве, в рамках которого ИИ-ускорители Trainium4 получит шину NVIDIA NVLink Fusion шестого поколения (по-видимому, 3,6 Тбайт/с в дуплексе), которая позволит создать стоечную платформу нового поколения, причём, что интересно, на базе архитектуры NVIDIA MGX, которая передана в OCP. Пикантность ситуации в том, что AWS годами практически игнорировала OCP, самостоятельно создавая стойки, их компоненты, включая СЖО, и архитектуру ИИ ЦОД в целом. Даже в нынешнем поколении стоек с GB300 NVL72 отказалась от референсного дизайна NVIDIA.

NVIDIA же напирает на то, что для гиперскейлерам крайне трудно заниматься кастомными решениями — циклы разработки стоечной архитектуры занимают много времени, поскольку помимо проектирования специализированного ИИ-чипа, гиперскейлеры должны озаботиться вертикальным и горизонтальным масштабированием, интерконнектами, хранилищем, а также самой конструкцией стойки, включая лотки, охлаждение, питание и ПО.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Вместе с тем управление цепочкой поставок отличается высокой сложностью, так как требуется обеспечить согласованную работу десятков поставщиков, ответственных за десятки тысяч компонентов. И даже одна задержка поставки или замена одного компонента может поставить под угрозу весь проект. Платформа NVIDIA если не устраняет целиком, то хотя бы смягчает эти проблемы, предлагая готовые стандартизированные решения, которые могут поставлять множество игроков рынка.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам NVIDIA, в отличие от других подходов к масштабированию сетей, NVLink — проверенная и широко распространённая технология. В сочетании с фирменным ПО NVLink Switch обеспечивает увеличение производительности и дохода от ИИ-инференса до трёх раз, объединяя 72 ускорителя в одном домене. Пользователи, внедрившие NVLink Fusion, могут использовать любую часть платформы — каждый компонент может помочь им быстро масштабироваться для удовлетворения требований интенсивного инференса и обучения моделей агентного ИИ, говорит NVIDIA.

 Источник изображения: AWS

Источник изображения: AWS

Что касается самих ускорителей Trainium4, то в сравнении с Trainium3 они будут вшестеро быстрее в FP4-расчётах, втрое быстрее в FP8-вычислениях, а пропускная способность памяти будет увеличена вчетверо. Впрочем, пока собственные ускорители Amazon не всегда могут составить конкуренцию чипам NVIDIA. Любопытно и то, что в рассказе о Trainium3 компания отметила о переходе от PCIe к UALink в коммутаторах NeuronSwitch для фирменного интерконнекта NeuronLink, объединяющего до 144 чипов Trainium. Однако после крупных инвестиций NVIDIA в Synopsys развитие UALink как открытой альтернативы NVLink теперь под вопросом.

Постоянный URL: http://servernews.ru/1133290
02.12.2025 [09:15], Владимир Мироненко

AWS и Google Cloud подружили свои облачные сети, чтобы интернет падал пореже и не у всех сразу

Amazon и Google представили мультиоблачный сетевой сервис, разработанный совместными усилиями и призванный удовлетворить растущий спрос на надёжное подключение, в то время как даже кратковременные перебои в работе интернета могут привести к серьезным сбоям в работе сервисов.

Новый сервис объединяет AWS Interconnect – multicloud и Google Cross-Cloud Interconnect, предлагая организациям возможность установления защищённых частных высокоскоростных сетевых соединений между Google Cloud и AWS, что обеспечивает онлайн-бизнесу подстраховку в случае сбоя в работе одного из провайдеров. Кроме того, сервис упрощает одновременное использование облачных услуг обоих провайдеров в рамках одного приложения.

Теперь компании смогут за считанные минуты установить соединение между вычислительными платформами через выбранную облачную консоль или API. Как отметила Google Cloud, ранее для подключения провайдеров облачных услуг клиентам приходилось вручную настраивать сложные сетевые компоненты, включая физические соединения и оборудование. Это требовало длительного времени на подготовку и координации с несколькими внутренними и внешними командами, и могло занять недели или даже месяцы.

 Источник изображений: Google

Источник изображений: Google

Сервис предлагает подключение выбранной ёмкости между двумя облачными регионами обоих провайдеров с четырёхкратным резервированием на уровне ЦОД, пограничных маршрутизаторов и т.д. Оба поставщика осуществляют непрерывный мониторинг для проактивного выявления и устранения проблем, а также совместно управляют резервированием и занимаются эксплуатационной поддержкой. Шифрование MACsec защищает соединения между периферийными маршрутизаторами AWS и Google Cloud.

Партнёры также выпустили унифицированный API и открытую спецификацию, предложив другим поставщикам облачных и сетевых услуг фреймворк для интеграции аналогичных мультиоблачных подключений. Благодаря новому сервису клиенты, использующие в работе несколько облаков, получают стандартизированный подход к гибридному перемещению данных, рабочих ИИ-нагрузок и кросс-облачной аналитике.

Salesforce в числе первых внедрила эту технологию. В компании отметили, что интеграция Salesforce Data 360 с более широким ИТ-ландшафтом требует надёжного частного подключения. AWS Interconnect – multicloud позволяет наводить критически важные мосты с Google Cloud с той же лёгкостью, что и развёртывание внутренних ресурсов AWS.

В октябре в AWS произошел крупный сбой, который вывел из строя ряд сервисов, включая Fortnite, Alexa и Snapchat. В последующие недели сбои наблюдались и в Microsoft Azure, и в Cloudflare, что вызвало опасения по поводу рисков, связанных с использованием лишь нескольких крупных поставщиков интернет-инфраструктуры. AWS планирует развернуть аналогичный сервис с Microsoft Azure в следующем году. Ранее AWS, Google Cloud и Microsoft Azure уже сделали шаг навстречу другу другу, отказавшись от платы за выгрузку данных при переезде в другое облако.

Постоянный URL: http://servernews.ru/1133227
26.11.2025 [17:49], Руслан Авдеев

AWS вложит $26 млрд в ИИ-инфраструктуру в Индиане, покрыв расходы на новые ЛЭП и электростанции для своих ЦОД

Компания Amazon (AWS) намерена вложить $15 млрд в ИИ-инфраструктуру в Индиане в дополнение к $11 млрд, выделенным на ЦОД в округе Сен-Жозеф (St. Joseph County). Компания намерена нарастить мощности ЦОД в регионе на 2,4 ГВт, открыв в штате новые кампусы. Подробности не разглашаются, но известно, что в 2023 году компания хотела построить новый кампус в Портидже (Portage, округ Портер), и даже получила небольшие налоговые льготы.

Строительство кампуса стоимостью $11 млрд в Нью-Карлайле (New Carlisle, округ Сен-Жозеф) началось в октябре. Кампус, вероятно, будет состоять из 22 зданий, причём минимум треть достанется ИИ-суперкластеру Project Rainier. В Amazon подчёркивают, что все новые объекты в штате изначально проектировались с учётом возможного масштабирования и оптимизированы для ИИ, ML и облачных приложений нового поколения с поддержкой отраслевых стандартов устойчивого развития.

В данном случае интересно и то, что AWS договорилась с местной коммунальной компанией NIPSCO о защите жителей и малого бизнеса от повышения тарифов на электричество. Они, как утверждается, смогут сэкономить около $1 млрд за 15 лет. AWS будет платить за использование ЛЭП и покрывать расходы на любые новые электростанции, новые линии и оборудование, необходимые для питания очередных ЦОД компании. Общий объём введённых мощностей может достигнуть 3 ГВт, из которых 2,4 ГВт достанутся дата-центрам Amazon.

 Источник изображения: Josh Hild/unsplash.com

Источник изображения: Josh Hild/unsplash.com

С 2010 года Amazon инвестировала в Индиану более $31,3 млрд, увеличив местный ВВП на более чем $29,9 млрд и поддержав создание 24,5 тыс. рабочих мест разного характера, а также 27,5 тыс. «косвенных» рабочих мест на разных объектах. Собственные ЦОД в штате строят Meta, Microsoft и Google.

Постоянный URL: http://servernews.ru/1132985

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;