Материалы по тегу: aws
|
13.04.2026 [22:25], Владимир Мироненко
Amazon призвала акционеров не углубляться в климатические показатели компанииСовет директоров Amazon преддверии ежегодного общего собрания призвал акционеров отклонить предложение обязать компанию раскрывать больше информации о влиянии расширения её парка ЦОД на её же климатические обязательства, сообщил The Register. Это предложение было подано некоммерческой организацией As You Sow, выступающей за корпоративную ответственность, и Mercy Investment Services, инвестиционным подразделением Sisters of Mercy of the Americas. В нём отмечается, что Amazon стремится к масштабному расширению своей облачной инфраструктуры в течение следующих нескольких лет, что ставит под сомнение реалистичность климатических обязательств, сделанных раннее центральным элементом её корпоративной стратегии. Ранее Amazon обязалась «достичь нулевых выбросов углерода к 2040 году» и полностью перейти на возобновляемые источники энергии к 2030 году. Хотя она утверждает, что выполнила последнее обязательство в 2023 году, в предложении выражается сомнение в том, сможет ли компания поддерживать этот уровень в ближайшие годы, учитывая масштабное расширение ЦОД, запланированное AWS. Компания наряду с Meta✴ действительно является одним из крупнейших мире покупателей «чистой» энергии. Однако ранее глава компании Энди Джасси (Andy Jassy) сообщил, что Amazon добавила 3,9 ГВт вычислительных мощностей в течение 2025 года и намерена удвоить этот показатель к концу 2027 года, потратив $200 млрд на расширение инфраструктуры в 2026 году. Для этой инфраструктуры потребуется дополнительная электроэнергия. В предложении отмечено, что коммунальные предприятия в таких штатах, где развиты ЦОД, теперь вынуждены строить новые газовые электростанции для удовлетворения растущего спроса и даже поддерживать работу угольных электростанций. Всё это приводит к выбросам миллионов тонн дополнительных парниковых газов в атмосферу. В связи с этим в предложении задан вопрос, как Amazon планирует решать эту проблему и будет ли увеличен объём закупаемых сертификатов возобновляемой энергии (REC). Инвесторы Amazon выиграют от анализа, объясняющего, как компания будет решать эти проблемы, говорится в документе. В свою очередь, Amazon свой призыв к акционеров отклонить предложение объяснила тем, что считает отчёт, запрошенный в предложении, ненужным. «Мы уже регулярно предоставляем публичные обновления о нашем прогрессе, инициативах и работе по достижению наших климатических целей, включая регулярные отчёты о нашей углеродоёмкости и о наших усилиях по сокращению углеродного следа рабочих нагрузок ИИ и повышению устойчивости и эффективности наших ЦОД, — говорится в обращении Amazon, — В результате, наша текущая публичная отчётность уже решает конкретные проблемы, обозначенные в этом предложении, и делает отчёт, запрошенный в предложении, ненужным».
11.04.2026 [23:18], Владимир Мироненко
Глава Amazon допустил продажу собственных чипов сторонним заказчикамНа этой неделе генеральный директор Amazon Энди Джасси (Andy Jassy) опубликовал ежегодное послание акционерам, в котором отметил высокий спрос на чипы собственной разработки. Если бы компания выделила их производство в отдельный бизнес с продажей чипов как самой AWS, так и сторонним клиентам, то его годовой оборот мог бы составить $50 млрд. Он допустил, что в будущем компания будет продавать их целыми партиями. Джасси также сообщил, что два крупных клиента AWS обратились с просьбой выкупить всю мощность инстансов на Graviton на 2026 год, но компания отклонила эти запросы, и уточнил, что расчётная годовая выручка (Revenue Run Rate, RRR) Amazon на собственных чипах (Graviton, Trainiu, Nitro) составляет $20 млрд. По словам Джасси, 98 % из 1000 крупнейших клиентов EC2 используют чипы Graviton, а мощности ускорителей Trainium2 и Trainium3 «почти полностью зарезервированы». Также уже зарезервирована значительная часть мощностей на базе Trainium4, до массовой доступности которого ещё около 18 мес. Согласно прогнозу Джасси, Trainium сэкономит компании «десятки миллиардов долларов капитальных затрат в год и обеспечит преимущество в несколько сотен базисных пунктов операционной прибыли по сравнению с использованием чипов других компаний для выполнения вычислений». Он также отметил, что, хотя расчётный годовой доход AWS в IV квартале 2025 года составил $142 млрд, 85 % глобальных ИТ-затрат по-прежнему приходится на решения on-premise. «Это изменится», — заявил Джасси. Спустя три года после начала волны развёртывания ИИ, годовой доход AWS (Revenue Run Rate, RRR) от ИИ в I квартале 2026 года превысил $15 млрд и продолжает расти. «И все же у нас по-прежнему есть ограничения по мощности, которые приводят к неудовлетворенному спросу», — говорит гендиректор Amazon. Он сообщил, что AWS будет расти ещё быстрее, если будет обеспечен большим объёмом электроэнергии. В 2025 году AWS получила 3,9 ГВт новых мощностей и намерена удвоить общую подведённую мощность к концу 2027 года. AWS запустила один из крупнейших в мире ИИ-кластеров с около 500 тыс. чипов Trainium2, который будет использоваться ИИ-стартапом Anthropic. А первым из технологических гигантов разрешил использовать собственные чипы вне его инфраструктуры стала Google, благодаря чему Anthropic приобретёт около 1 млн Google TPU v7 (Ironwood) для запуска на контролируемых ею объектах (в Fluidstack). Примерно 400 тыс. чипов компания получит напрямую от Broadcom в составе стоечных систем.
11.04.2026 [20:56], Владимир Мироненко
К 20-летию облака AWS в Amazon S3 появился файловый доступAWS представила новый сервис Amazon S3 Files, который «напрямую соединяет любые вычислительные ресурсы AWS с вашими данными в Amazon S3». Компания отметила, что благодаря новому сервису «Amazon S3 становится первым и единственным облачным объектным хранилищем, обеспечивающим полнофункциональный высокопроизводительный файловый доступ к вашим данным». Хранилище обеспечивает полную семантику ФС (NFS 4.1+) и низкую задержку, при этом ваши данные никогда не покидают S3, подчеркнула компания. Новая функция появилась через 20 лет после запуска облака AWS — именно S3-хранилище стало первым публичным облачным сервисом. Он заработал в марте 2006 года. Объектные хранилища традиционно не используются в HPC-задачах, поскольку обычно требуется POSIX-доступ на чтение и запись отдельных файлов, а не изменение целых объектов и семантика GET/PUT/DELTE. Amazon S3 отдаёт приоритет надёжности и низкой стоимости, в то время как HPC-нагрузкам обычно необходим очень быстрый доступ с низкой задержкой, а цена и надёжность являются второстепенными факторами, пишет HPCwire. S3 Files на базе EFS обеспечивает семантику ФС, такую как согласованность данных при чтении после записи, блокировка файлов и права POSIX в сочетании с масштабируемостью, надёжностью и экономичностью S3. S3 Files уже доступен в 34 регионах AWS. S3 Files интеллектуально преобразует ФС-операции в эффективные S3-запросы. Файловые приложения работают с данными S3 без изменений в коде, ИИ-агенты сохраняют данные и совместно используют их в разных конвейерах, а инструменты и приложения могут работать с файлами в S3 напрямую из любого инстанса, контейнера и функции. S3 Files использует многоуровневое кеширование данных (и метаданных) для снижения задержки доступа (менее 1 мс) и обеспечивает совокупную пропускную способность чтения до нескольких Тбайт/с. Размер файла по умолчанию для автоматического чтения из традиционного S3 составляет 125 Кбайт. Файлы меньшего размера могут оказаться в высокопроизводительном хранилище и стать доступными через NFS, если служба хранения сочтёт это необходимым; пользователи могут изменить этот параметр. Хотя, возможно, S3 Files, не будет таким же быстрым, как Lustre (который также предлагает AWS), это всё равно довольно быстрый файловый доступ. Поставщики файловых хранилищ, такие как NetApp и Qumulo, уже предоставляют комбинированные сервисы файлового и объектного хранения в AWS. Теперь они столкнутся с усилением конкуренции, отметил ресурс Blocks & Files. Например, есть Amazon FSx for NetApp ONTAP, Dell PowerScale for AWS, VAST AI OS и Cloud Native Qumulo (CNQ). Так, CNQ тоже предлагает более 1 Тбайт/с и 1 млн IOPS при использовании стандартных клиентов NFS. Аналитики рассматривают нововведение как стратегический шаг AWS по позиционированию S3 как основного слоя хранения данных для ИИ-агентов и современных приложений, выходящий за рамки традиционного использования ИИ в озерах данных и пакетной аналитике, пишет InfoWorld. Ранее предприятиям, разрабатывающим и развёртывающим агентные системы и другие современные ИИ-приложения, обычно приходилось либо формировать отдельную СХД с файловым доступом, либо создавать слой трансляции для работы с S3-хранилищем, отмечает Pareekh Consulting. S3 Files упростит архитектуру хранения, объединив озёра данных, файловые системы и промежуточные уровни хранения в рамках Amazon S3.
09.04.2026 [11:24], Сергей Карасёв
Uber перенесёт рабочие нагрузки на чипы AWS Graviton и Trainium нового поколенияКомпания Uber сообщила о расширении использования облачной платформы Amazon Web Services (AWS). Оператор сервисов для вызова такси и частных водителей, а также доставки еды и грузов перенесёт определённые нагрузки на чипы AWS Graviton и Trainium нового поколения. Компания уже использует Arm-процессоры Ampere в облаке Oracle. В частности, Uber будет использовать изделия Graviton4, насчитывающие до 96 ядер, для поддержания работы своих зон обслуживания поездок (Trip Serving Zones). Соответствующая инфраструктура функционирует в режиме реального времени: каждый раз, когда пользователь заказывает поездку или доставку, система рассчитывает оптимальный маршрут, выбирает подходящего водителя и определяет время. В часы пик и при проведении крупных мероприятий создаётся огромная вычислительная нагрузка: требуются анализ миллионов возможных сценариев поездок и обработка данных о местоположении пользователей и водителей. Ожидается, что применение Graviton4 позволит сократить задержки и оптимизировать затраты, а также обеспечит необходимую масштабируемость в периоды всплеска запросов без ущерба для надёжности, доступности или безопасности.
Источник изображения: AWS Кроме того, Uber начнёт применять ускорители Trainium3 для обучения некоторых своих ИИ-моделей, которые лежат в основе приложений вызова такси и доставки. Эти изделия оснащены 144 Гбайт памяти HBM3E, а производительность на операциях FP8 достигает 2,52 Пфлопс. ИИ-модели Uber, как отмечается, анализируют данные миллиардов поездок для выбора водителя или курьера, оценки времени прибытия и генерации рекомендаций для пользователей. Обучение ИИ в таком масштабе требует колоссальных вычислительных возможностей: решения Trainium3, как подчёркивается, способны предоставить необходимые ресурсы. «Uber — одно из самых требовательных приложений в мире, работающих в режиме реального времени. Мы помогаем Uber обеспечивать надёжность, на которую рассчитывают сотни миллионов людей, а также внедрять ИИ-функции, определяющие будущее сервисов совместных поездок и доставки по запросу», — говорит Рич Гераффо (Rich Geraffo), вице-президент и управляющий директор AWS в Северной Америке.
03.04.2026 [17:08], Руслан Авдеев
AWS захотела пристроить ещё один ЦОД к АЭСAWS, в своё время задавшая тренд на размещение дата-центров возле АЭС, рассчитывает построить новый кампус ЦОД в непосредственной близости от атомной электростанции Calvert Cliffs Nuclear Power Plant — в округе Калверт (Calvert County) штата Мэриленд, сообщает Datacenter Dynamics. Реализация проекта планируется совместно с энергокомпанией Constellation Energy, уже участвующей в других атомных проектах, связанных с индустрией ЦОД. В 2024 году именно Amazon первой в США попыталась построить ЦОД непосредственно на месте получения энергии, приобретя у Talen Energy гигаваттный кампус около АЭС Susquehanna в Пенсильвании. В сделку входило соглашение, оговаривавшее поставки энергии из Susquehanna напрямую дата-центру, что вызвало протесты местных коммунальных компаний. В результате жалобы регулятору FERC соглашение было заблокировано, так что кампус AWS получает энергию опосредованно. В случае с Calvert Cliffs компания уже провела предварительную проверку, анализ нормативно-правовых актов, оценила площадку и разработала предварительные «эскизы» объекта, но официально разрешение у властей пока не запрашивала. Согласно презентации, кампус может включать до восьми дата-центров к югу и западу от АЭС. Территорию уже зонировали для тяжёлой промышленности. Теперь её придётся резонировать для дата-центров.
Источник изображения: Constellation Energy AWS уже объявляла о планах расширить облачный регион в Северной Вирджинии на штат Мэриленд. В апреле 2025 года компания объявила, что её объекты разместятся в технопарке Quantum Frederick Park компании TPG в Адамстауне, приблизительно в 150 км от округа Калверт. Также планируется проложить трансатлантический кабель Fastnet для связи США и Ирландии. Внимание к территории вблизи АЭС в округе проявляют и другие компании. Так, Natelli Holdings хочет купить участок для четырёх зданий ЦОД, первоначальные инвестиции составят $30 млн. Впрочем, местные жители таким инициативам не слишком рады. Отдельные представители округа предложили немедленно ввести 24-месячный мораторий на «любые согласования, разрешения, резонирование, планы, строительство» и прочие действия, связанные с возведением дата-центров — до того, как общественности будут официально представлены результаты всестороннего экологического исследования, включая оценку воздействия ЦОД на землю, воду и воздух. Сама Amazon параллельно ведёт переговоры о строительстве крупного ЦОД рядом с АЭС Comanche Peak в Техасе, принадлежащей Luminant Generation (Vistra). Также компания намерена построить в Вашингтоне мини-реакторы X-Energy на 960 МВт. Microsoft перезапустит АЭС Three Mile Island (принадлежит Constellation Energy), чтобы обеспечивать электричеством свои ИИ ЦОД в течение 20 лет. Станция заработает даже раньше, чем планировалось. Google намерена перезапустить АЭС Duane Arnold Energy Center (DAEC) в Айове, которая принадлежит NextEra, и пристроить к ней шесть дата-центров. Договор об эксклюзивных поставках электроэнергии с АЭС Clinton Clean Energy Center (Constellation Energy) в Иллинойсе сроком на 20 лет заключила и Meta✴. Также Meta✴ купит у Vistra энергию с АЭС Davis-Besse и Perry (Огайо), и Beaver Valley (Пенсильвания). Проекты сотрудничества операторов ИИ ЦОД с АЭС имеются в Индии и Китае. В России не первый год работает дата-центр «Росатома» вблизи Калининской АЭС.
02.04.2026 [14:54], Руслан Авдеев
Иран нанёс новый удар по облачному ЦОД AWS в БахрейнеИран поразил ЦОД в Бахрейне, где размещены мощности AWS ME-SOUTH-1 — это стало редким случаем прямого воздействия на облачную инфраструктуру в зоне активного регионального конфликта. По информации издания Financial Times, ссылающегося на данные властей Бахрейна, удар, ответственность за который возлагается на Иран, привёл к пожару в ЦОД. Впрочем, имя оператора прямо не называлось. Инцидент случился вскоре после того, как КСИР предупредил, что связанные с США технологические компании, действующие в регионе, включая Microsoft, Apple, Google и т.д., могут стать мишенями для силовых акций. Сама Amazon ситуацию пока не комментирует. По мнению экспертов, удар наглядно демонстрирует изменение концепции современных конфликтов, в ходе которых теперь под угрозой новый вид целей — помимо объектов нефтегазового комплекса и судоходных путей, страдает и цифровая инфраструктура глобального значения. ЦОД в Бахрейне является частью широкой сети облачных регионов, обеспечивающих низкую задержку при использовании различных сервисов. Любые сбои в работе таких объектов способны повлиять на работу сервисов, включая механизмы переключения на резервные мощности. Облачные сервисы AWS в регионе обеспечивают работу в том числе банковских систем, авиаперевозчиков, логистических компаний, госаппаратов местных стран и т.д. Любые сбои подобных систем могут привести к каскадным последствиям для самых разных отраслей и регионов. Данные о повреждениях ставят под вопрос защищённость и стабильность облачной инфраструктуры, особенно в геополитически нестабильных регионах. В отличие от физических цепочек поставок, цифровые системы считались довольно устойчивыми, но концентрация ЦОД в отдельных локациях может представлять реальную угрозу для работы всевозможных сервисов. Инцидент свидетельствует и о растущем значении гибридной войны — кибератаки на инфраструктуру применялись довольно широко, но физические удары по ЦОД и объектам связи до недавних пор считались редкостью. Месяц назад три дата-центра AWS в регионе уже пострадали от ударов беспилотников, но тогда сам ЦОД в Бахрейне не был повреждён — только сопутствующая инфраструктура. Оба облачных региона, в ОАЭ (ME-CENTRAL-1) и Бахрейне (ME-SOUTH-1), работали с перебоями. AWS порекомендовала пользователям по возможности перенести данные и нагрузки в другие облачные регионы, а также полностью обнулила для клиентов ME-CENTRAL-1 все счета за март и биллинговые данные. Атака на ближневосточные объекты AWS заставит пересмотреть подход к отказоустойчивости облаков, а эскалация конфликта на Ближнем Востоке угрожает буму ИИ ЦОД в регионе. UPD: Иран взял на себя ответственность за атаку на ЦОД AWS в Бахрейне. По словам КСИР, объект уничтожен.
01.04.2026 [16:28], Руслан Авдеев
Microsoft грозит SMS: в Azure увидели угрозу облачному рынку Великобритании
aws
google cloud platform
microsoft
microsoft azure
software
великобритания
конкуренция
лицензия
облако
Британское антимонопольное ведомство — Управление по конкуренции и рынкам (CMA) — представило «пакет мер» по итогам расследования Cloud Services Market Investigation, завершившегося в июле 2025 года. Регулятор пришёл к выводу, что Microsoft и AWS обладают «значительной рыночной мощью». Было принято решение выяснить, следует ли в их отношении применять режим Strategic Market Status (SMS), сообщает Datacenter Dynamics. Если компаниям присвоят статус SMS (стратегического рыночного игрока), регулятор сможет принимать в их отношении адресные меры для решения выявляемых проблем, связанных с действиями монополий. В последнем обновлении 31 марта CMA констатировала, что Microsoft соответствующий статус присвоен, а AWS удалось смягчить опасения регулятора, приняв меры по обеспечению совместимости со сторонними сервисами и снижению цен на выгрузку данных для британских клиентов. Как Microsoft, так и AWS приняли меры по улучшению взаимодействия между вендорами и снижению зависимости от одного облачного поставщика. Тем не менее в отношении Microsoft остались сомнения, касающиеся офисного ПО, ОС и СУБД, а также связанных сервисов по обеспечению безопасности. Такие продукты играют ключевую роль в британской экономике и лежат в основе современной корпоративной инфраструктуры. Microsoft и AWS объявили, что позволят напрямую связывать свои ЦОД между собой и с Google Cloud Platform, а в перспективе и с другими облаками. По словам CMA, достигнут прогресс в вопросах совместимости и снижения стоимости выгрузки данных в облака конкурентров. Тем не менее, расследование деятельности Microsoft продолжится, а статус SMS позволит устранить остающиеся вопросы к практикам облачного лицензирования Microsoft и позволят обеспечить равные условия конкуренции, особенно на фоне быстрого внедрения ИИ в повседенвные бизнес-инструменты. AWS заявила, что несколько разочарована намерением CMA продолжить расследование, но готова пойти навстречу. Компания уже представила решения UK Addendum, призванные ослабить обеспокоенность CMA. В частности, предусмотрена поддержка протоколов взаимодействия, включая Model Context Protocol (MCP). В ноябре 2025 года запущен сервис AWS Interconnect для передачи данных между облаками по фиксированной цене и даже с бесплатным тарифом. Наконец, AWS IAM Outbound Identity Federation позволяет передавать идентификаторы пользователей во внешние сервисы, а обновления AWS Security Hub выпускаются для мультиоблачных сценариев. Дополнительно AWS пообещала регулярно предоставлять CMA отчёты о развитии технологий и использовании своих сервисов. Microsoft также приняла ряд мер, обеспечив бесплатную миграцию клиентов с использованием Microsoft Global Network. Объявлено об увеличении времени бесплатного переноса данных при миграции в альтернативные облака с 60 до 180 дней, при этом миграция может касаться даже отдельных сервисов Azure. Кроме того, предусмотрена выгрузка данных по себестоимости в мультиоблачных сценариях. Компания рассчитывает создать и специальный механизм для подачи запросов неа совместимость со стороны альтернативных облачных провайдеров. Хотя Microsoft и AWS принимают в целом схожие меры, CMA посчитало готовность AWS к сотрудничеству более убедительной, а вот в отношении Microsoft решен продолжить проверки. Внимание в основном будет уделяться экосистеме корпоративного ПО, которое CMA считает критически важным для британской экономики. Оценить результаты диалога с компаниями планируется через шесть месяцев. При этом Microsoft не удержалась от сарказма в адрес Google, отметив, что облачный бизнес компании, ставшей инициатором жалоб в своё время, в последнем квартале 2025 года рос быстрее, чем у Amazon и Microsoft. Реакция участников отрасли оказалась смешанной. Open Cloud Coalition, в своё время фактически созданная Google в противовес альянсам Microsoft, заявила, что приветствует признание CMA «недобросовестных практик» Редмонда, но предупредила, что расследование в отношении Microsoft должно последовать незамедлительно. CMA призвали активнее следить за соблюдением Microsoft и AWS обязательств, касающихся платы за вывод данных и повышения совместимости облачных сервисов. Civo приветствовала решения относительно Microsoft, но выразила опасения, что решение исключить из расследования AWS может создать «дисбаланс», при котором одной стороне фактически обеспечено преимущество. Частично или полностью приветствуют решение и другие компании. При этом все отметили, что для реальных изменений регулятору необходимо действовать быстро и жестко. Расследование CMA стартовало после того, как ещё один местный регулятор Ofcom, отвечающий за телеком-сектор, в апреле 2023 года опубликовал результаты собственных изысканий. Они показали, что ключевые поставщики облачных сервисов могут навредить конкурентам, используя неоднозначные бизнес-практики. Информацию передали в CMA, запустив механизм государственного расследования. Кроме того, Google сама направила жалобу на Microsoft, её поддержала и AWS. В Евросоюзе на Microsoft оказывается аналогичное давление, причём и здесь активнее всего на неё жалуется Google.
24.03.2026 [15:25], Руслан Авдеев
Работа облака AWS в Бахрейне снова нарушена в результате активности беспилотниковКомпания Amazon объявила, что региональное подразделение Amazon Web Services (AWS), расположенное в Бахрейне, пострадало от «нарушения работы», связанного с текущим конфликтом на Ближнем Востоке. Это уже второй случай за месяц, когда в регионе страдает инфраструктура ЦОД компании, напоминает Reuters. Сбой в работе AWS вызван активностью в районе ЦОД беспилотников. Впрочем, пока подробностей нет, а Amazon пока не ответила на запрос о том, был ли объект в Бахрейне непосредственно атакован беспилотниками или сбой вызван ударами дронов по объектам в близлежащей округе. Компания помогает клиентам перевести свои данные в другие регионы AWS, пока работа не будет восстановлена, но масштаб ущерба и вероятная продолжительность отсутствия обслуживания не разглашаются. Регион AWS в Бахрейне пострадал после начала активной фазы конфликта на Ближнем Востоке уже второй раз. Ранее в марте AWS объявила, что зоны доступности в Бахрейне и ОАЭ пострадали в результате удара БПЛА, оставшись без электроснабжения. Сообщалось, что компания работает над восстановлением работоспособности инфраструктуры, включая перенос вычислительных нагрузок в другие облачные регионы.
Источник изображения: Afsal Shaji/unsplash.com По данным Reuters, удар по объекту в ОАЭ носит знаковый характер — это первый случай, когда военные действия нарушили работу объекта одной из крупнейших американских технологических компаний. Из-за структурных повреждений Amazon ориентировалась на «длительный» период восстановления работоспособности. Сообщается, что удары «причинили структурный ущерб, нарушили подачу электричества, а в некоторых случаях потребовалось тушение пожаров, что вызвало дополнительный ущерб от воды». На момент первых атак Amazon заявила, что расположенный в Бахрейне регион пострадал от удара беспилотника «в непосредственной близости» от одного из объектов компании.
17.03.2026 [19:23], Руслан Авдеев
Amazon и NVIDIA расширят сотрудничество: в течение года AWS развернёт более 1 млн ИИ-ускорителей NVIDIAAWS и NVIDIA анонсировали расширение технологического сотрудничества. Речь идёт о взаимодействии в сфере ускоренных вычислений, технологий интерконнекта, настройки ИИ-моделей и инференса. План включают развёртывание AWS в облачных регионах по всему миру более 1 млн новых ИИ-ускорителей NVIDIA, в т.ч. семейств Blackwell и Rubin, и сетевых технологий NVIDIA Spectrum. Ведётся подготовка к запуску новых инстансов EC2 на основе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS стала первым крупным облачным провайдером, анонсировавшим поддержку этих ускорителей. Эти инстансы предназначены для аналитики, «говорящих» ИИ-систем, генерации контента, рекомендательных систем, видеостриминга, видеорендеринга и др. Они будут построены на архитектуре AWS Nitro С ростом инфраструктуры ключевой проблемой становится взаимодействие между ускорителями NVIDIA и AWS Trainium. Компании объявили о поддержке NVIDIA Inference Xfer Library (NIXL) и AWS Elastic Fabric Adapter (EFA), что позволяет ускорить распределённый инференс ИИ-моделей на EC2. Подобная архитектура распределённого инференса позволяет эффективно совмещать вычисления и передачу данных, снижать задержки и максимизировать использование ИИ-ускорителей. NIXL с EFA интегрируются с популярными открытыми фреймворками, включая NVIDIA Dynamo, vLLM и SGLang.
Источник изображения: AWS Дополнительно AWS и NVIDIA объявили об использовании Apache Spark в конфигурации Amazon EMR на Amazon EKS с инстансами G7e на основе ускорителей NVIDIA RTX Pro 6000 Blackwell, что втрое ускорит аналитику данных. При этом сохраняется совместимость с имеющимися приложениями Spark. Наконец, компании объявили о расширении поддержки ИИ-моделей NVIDIA Nemotron в Amazon Bedrock с адаптацией моделей для юриспруденции, здравоохранения, финансов и других специализированных областей. Вся инфраструктура управляется Bedrock, что значительно упрощает задачи разработчиков. Вскоре ожидается появление гибридной MoE-модели NVIDIA Nemotron 3 Super для финансовых сервисов, кибербезопасности, ретейла, разработки ПО и др. В целом компании создали полный стек ИИ-инфраструктуры — от ИИ-ускорителей и сетей до управляемых сервисов. Это позволит клиентам быстрее внедрять ИИ-решения, не конструируя инфраструктуру из разрозненных компонентов. Как сообщает Datacenter Dynamics, в феврале 2026 года глава AWS Мэтт Гарман (Matt Garman) заявил, что компания всё ещё использовала устаревшие ускорители NVIDIA A100 в некоторых серверах, поскольку спрос был высок даже на них. Широкий доступ к NVIDIA Blackwell Ultra появился в декабре 2025 года, в скором будущем планируется организовать доступ и к ускорителям Rubin. В то же время компания намерена инвестировать в собственные ускорители Trainium. В феврале OpenAI объявила, что будет использовать 2 ГВт мощностей на основе Trainium и других ускорителей в облаке AWS, во многом благодаря $50 млрд инвестиций со стороны Amazon.
14.03.2026 [18:42], Владимир Мироненко
Царь-ускорители Cerebras в облаке AWS пятикратно ускорят инференс ИИAmazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развёрнуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе ускорителей Trainium, системы Cerebras CS-3 на базе царь-чипов WSE-3 и DPU EFA. Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. Позже в этом году AWS предложит ведущие open source решения машинного обучения и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras. Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью EFA, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем сегодня». Совместное решение использует «дезагрегацию вывода» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя. Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS. Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS чипы Trainium обеспечивают этап предварительного заполнения, а чипы WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам». Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность NVLink для ускорителей от NVIDIA. Впрочем, у NVIDIA теперь есть ускорители Groq, которые тоже помогают ускорить инференс. Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на IPO уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE. |
|
