Материалы по тегу: aws

14.01.2022 [16:35], Владимир Мироненко

AWS запустила HPC-инстансы Hpc6a на базе AMD EPYC Milan

Облачная платформа Amazon Web Services (AWS) объявила об общедоступности EC2-инстансов Hpc6a. Это инстансы нового типа, специально созданные для высокопроизводительных вычислений (HPC) в облаке. Как утверждает AWS, новинки на базе процессоров AMD EPYC 3-го поколения (Milan) обеспечивают до 65 % лучшее соотношение цены и производительности по сравнению с аналогичными HPC-инстансами прошлых поколений.

Hpc6a делают масштабирование HPC-кластеров в AWS ещё более экономичным, позволяя выполнять наиболее ресурсоёмкие рабочие нагрузки, такие как геномика, вычислительная гидродинамика, прогнозирование погоды, молекулярная динамика, вычислительная химия, моделирование финансовых рисков, автоматизированное проектирование и т. д. Используя Hpc6a, клиенты смогут с меньшими затратами решать свои самые большие и сложные академические, научные и бизнес-задачи при оптимальном соотношении цены и качества.

Источник изображения: AMD

Источник изображения: AMD

Инстансы Hpc6a по умолчанию используют Elastic Fabric Adapter (EFA), благодаря чему обеспечивается низкая задержка, низкий джиттер и пропускная способность сети до 100 Гбит/с, что повышает эффективность работы и ускоряет получение результатов для рабочих нагрузок, активно задействующих обмен данными между экземплярами. Заказчикам доступен инструмент AWS ParallelCluster для управления кластерами с Hpc6a и инстансами других типов, что обеспечивает гибкость для запуска различных типов рабочих нагрузок.

Hpc6a имеют до 96 vCPU с частотой до 3,6 ГГц (All-Turbo) и до 384 Гбайт RAM. Для хранения данных предлагаются стандартные EBS-тома, а также Amazon FSx for Lustre. Использование AWS Nitro в Hpc6a обеспечивает высокую производительность, высокую доступность и повышенную безопасность. Hpc6a доступны в виде инстансов по запросу или зарезервированных инстансов, а также в рамках планов Savings. Экземпляры Hpc6a.48xlarge уже доступны в регионе us-east-2 (Огайо, США) по цене $2,88/час и в GovCloud (us-west).

Постоянный URL: http://servernews.ru/1058008
11.12.2021 [15:52], Владимир Агапов

Совершенно секретные облака: AWS анонсировала новый регион для спецслужб США

Облачное подразделение Amazon на этой неделе объявило о расширении поддержки засекреченных правительственных нагрузок, создав новый облачный регион AWS Top Secret-West. Он станет вторым подобным регионом на территории США после Top Secret-East, благодаря чему клиенты из оборонного, разведывательного и других сообществ смогут развёртывать архитектуры с высочайшим уровнем отказоустойчивости и доступности, необходимых для выполнения важнейших задач национальной безопасности.

AWS не раскрыла местоположение нового «совершенно секретного» региона, сообщив лишь, что он будет расположен на расстоянии более 1600 км от первого, который находится где-то в Северной Вирджинии. Оба включают несколько зон доступности, что позволит клиентам развёртывать мультирегиональные архитектуры, получать высокоустойчивые сервисы и обрабатывать чувствительные к задержкам данные ближе к пользователям.

Изображение: Amazon.com

Изображение: Amazon.com

Каждая зона доступности состоит из независимых центров обработки данных (ЦОД) с резервными питанием и сетевым подключениями. Между зонами доступности одного региона осуществляется синхронная репликация данных, а с другим регионом она производится уже асинхронно. Благодаря использованию зон доступности повышается устойчивость и снижается время отклика приложений, чего трудно добиться при использовании одного ЦОД.

Помимо Amazon на контракты по облачным вычислениям для правительственных служб претендуют такие компании как Google, Oracle, IBM и Microsoft. В ноябре 2020 года ЦРУ заключило с ними мульти-контракт сроком на 15 лет и стоимостью десятки миллиардов долларов. Впрочем, как и в случае со многими другими правительственными заказами, облачные провайдеры заработают на них не так уж много, но зато смогут привлечь других клиентов.

Постоянный URL: http://servernews.ru/1055740
09.12.2021 [16:24], Руслан Авдеев

В этом году Amazon AWS заключила контракты на поставку 5,6 ГВт «зелёной» энергии

Amazon AWS объявила о скорой реализации новых проектов, связанных с «зелёной» энергетикой. Один из крупнейших владельцев дата-центров продолжает укреплять свой статус крупнейшего корпоративного покупателя возобновляемой энергии в мире. 18 проектов крупного масштаба, связанных с ветряными и солнечными электростанциями, будут реализованы в США, Финляндии, Германии, Италии, Испании и Великобритании.

Суммарная мощность по новым проектам составит 2 ГВт «зелёной» энергии, а по итогам всего 2021 года — плюс 5,6 ГВт. В 2020 году было приобретено 4 ГВт. По данным представителя компании, инвестиции в возобновляемые источники станут важным шагом в достижении компанией «углеродной нейтральности» к 2040 году, то есть на 10 лет раньше, чем предусматривает Парижское соглашение.

Источник: orsted.com

Источник: orsted.com

В США компания реализует свои первые солнечные проекты в Аризоне и Джорджии, а также дополнительные проекты в Огайо, Техасе и Вирджинии. В Финляндии реализован ветрянойой проект мощностью 158 МВт, в Италии — уже третий солнечный проект мощностью 40 МВт в дополнение к имеющимся 66 МВт. В Испании организованы солнечные электростанции общей мощностью 630 МВт.

А недавно компания заключила соглашение о покупке 116 МВт у датской компании Ørsted с ветроэлектростанций в Германии и Северной Ирландии (100 и 16 МВт соответственно). Примечательно, что буквально за день до заключения соглашения электроэнергию для своих дата-центров у Ørsted закупила компания Google — 50 МВт будут поставляться с той же германской электростанции Riffgrund 3.

Сейчас у Amazon имеется по всему миру 274 проекта, связанных с возобновляемой энергетикой, включая 105 солнечных и ветряных электростанций промышленного масштаба. Кроме того, имеется 169 крыш на складах и дата-центрах, закрытых солнечными элементами питания. Когда всё оборудование будет введено в эксплуатацию, общая мощность составит 12 ГВт, а выработка достигнет 33 700 ГВт·ч.

Постоянный URL: http://servernews.ru/1055568
07.12.2021 [00:36], Алексей Степин

ИИ-ускорители AWS Trainium: 55 млрд транзисторов, 3 ГГц, 512 Гбайт HBM и 840 Тфлопс в FP32

GPU давно применяются для ускорений вычислений и в последние годы обросли поддержкой специфических форматов данных, характерных для алгоритмов машинного обучения, попутно практически лишившись собственно графических блоков. Но в ближайшем будущем их по многим параметрам могут превзойти специализированные ИИ-процессоры, к числу которых относится и новая разработка AWS, чип Trainium.

На мероприятии AWS Re:Invent компания рассказала о прогрессе в области машинного обучения на примере своих инстансов P3dn (Nvidia V100) и P4 (Nvidia A100). Первый вариант дебютировал в 2018 году, когда модель BERT-Large была примером сложности, и благодаря 256 Гбайт памяти и сети класса 100GbE он продемонстрировал впечатляющие результаты. Однако каждый год сложность моделей машинного обучения растёт почти на порядок, а рост возможностей ИИ-ускорителей от этих темпов явно отстаёт.

Рост сложности моделей машинного обучения будет лишь расти

Сложность моделей машинного обучения будет расти всё быстрее

Когда в прошлом году был представлен вариант P4d, его вычислительная мощность выросла в четыре раза, а объём памяти и вовсе на четверть, в то время как знаменитая модель GPT-3 превзошла по сложности BERT-Large в 500 раз. А теперь и 175 млрд параметров последней — уже ничто по сравнению с 10 трлн в новых моделях. Приходится наращивать и объём локальной памяти (у Trainium имеется 512 Гбайт HBM с суммарной пропускной способностью 13,1 Тбайт/с), и активнее использовать распределённое обучение.

Для последнего подхода узким местом стала сетевая подсистема, и при разработке стека Elastic Fabric Adapter (EFA) компания это учла, наделив новые инстансы Trn1 подключением со скоростью 800 Гбит/с (вдвое больше, чем у P4d) и с ультранизкими задержками, причём доступен и более оптимизированный вариант Trn1n, у которого пропускная способность вдвое выше и достигает 1,6 Тбит/с. Для связи между самими чипами внутри инстанса используется интерконнект NeuroLink со скоростью 768 Гбайт/с.

Прогресс подсистем сети и памяти в ИИ-инстансах AWS

Прогресс подсистем сети и памяти в ИИ-инстансах AWS

Но дело не только в возможности обучить GPT-3 менее чем за две недели: важно и количество используемых для этого ресурсов. В случае P3d это потребовало бы 600 инстансов, работающих одновременно, и даже переход к архитектуре Ampere снизил бы это количество до 200. А вот обучение на базе чипов Trainium требует всего 130 инстансов Trn1. Благодаря оптимизациям, затраты на «общение» у новых инстансов составляют всего 7% против 14% у Ampere и целых 49% у Volta.

Меньше инстансов, выше эффективность при равном времени обучения — вот что даст Trainium

Меньше инстансов, выше эффективность при равном времени обучения — вот что даст Trainium

Trainium опирается на систолический массив (Google использовала тот же подход для своих TPU), т.е. состоит из множества очень тесно связанных вычислительных блоков, которые независимо обрабатывают получаемые от соседей данные и передают результат следующему соседу. Этот подход, в частности, избавляет от многочисленных обращений к регистрам и памяти, что характерно для «классических» GPU, но лишает подобные ускорители гибкости.

В Trainium, по словам AWS, гибкость сохранена — ускоритель имеет 16 полностью программируемых (на С/С++) обработчиков. Есть и у него и другие оптимизации. Например, аппаратное ускорение стохастического округления, которое на сверхбольших моделях становится слишком «дорогим» из-за накладных расходов, хотя и позволяет повысить эффективность обучения со смешанной точностью. Всё это позволяет получить до 3,4 Пфлопс на вычислениях малой точности и до 840 Тфлопс в FP32-расчётах.

AWS постаралась сделать переход к Trainium максимально безболезненным для разработчиков, поскольку SDK AWS Neuron поддерживает популярные фреймворки машинного обучения. Впрочем, насильно загонять заказчиков на инстансы Trn1 компания не собирается и будет и далее предоставлять на выбор другие ускорители поскольку переход, например, с экосистемы CUDA может быть затруднён. Однако в вопросах машинного обучения для собственных нужд Amazon теперь полностью независима — у неё есть и современный CPU Graviton3, и инфереренс-ускоритель Inferentia.

Постоянный URL: http://servernews.ru/1055294
04.12.2021 [21:27], Сергей Карасёв

Облачные Mac'и: в AWS появились EC2-инстансы с Apple M1

Облачная платформа Amazon Web Services (AWS) анонсировала инстансы EC2 M1 Mac, предназначенные для разработки и тестирования приложений для различных устройств Apple: смартфонов iPhone, планшетов iPad, компьютеров Mac, часов Apple Watch и приставок Apple TV. Конфигурация на базе Mac Mini включает CPU Apple M1 с восемью ядрами, восьмиядерный графический блок, 16-ядерный движок Neural Engine и 16 Гбайт RAM.

Изображение: Amazon AWS

Изображение: Amazon AWS

Фактически это bare-metal инстансы, подключённые посредством Thunderbolt к AWS Nitro, так что выглядят и ведут они себя как обычные EC2-экземпляры. Новинки доступны в составе Amazon VPC с сетевым подключением до 10 Гбит/c. Загрузка осуществляется с EBS-томов (до 8 Гбит/с). Предварительный доступ к EC2 M1 Mac пока что имеется в двух облачных регионах США, а стоимость аренды составляет $0,6498/час. В России аналогичное предложение есть у Selectel — аренда аналогичной bare-metal системы обойдётся в 6990 руб./мес.

Постоянный URL: http://servernews.ru/1055201
04.12.2021 [03:42], Игорь Осколков

Процессор Amazon Graviton3: 64 ядра Arm, 5-нм техпроцесс, чиплетная компоновка и DDR5 с PCIe 5.0

Анонсированный на днях Arm-процессор Graviton3, создававшийся специально для нужд Amazon и AWS, неожиданно оказался по ряду параметров на голову выше ещё даже не вышедших EPYC и Xeon следующего поколения. И это не самый хороший сигнал для AMD, Intel, Qualcomm и прочих производителей.

Amazon Graviton3. Фото: Ian Colle

Amazon Graviton3. Фото: Ian Colle

Graviton3 — первый массовый (самой Amazon и рядом избранных клиентов он используется уже не один месяц) серверный процессор с поддержкой DDR5 и PCIe 5.0. CPU выполнен по 5-нм техпроцессу TSMC и содержит примерно 55 млрд транзисторов. Для удешевления он использует BGA-корпусировку и чиплетную компоновку из семи отдельных кристаллов — два PCIe-контроллера и четыре двухканальных контроллера DDR5 вынесены за пределы собственно CPU.

Узел EC2 C7g. Здесь и ниже изображения Amazon AWS

Узел EC2 C7g. Здесь и ниже изображения Amazon AWS

Более того, их упаковка использует передовые решения с каналами длиной менее 55 мкм, что вдвое меньше, чем у других серверных CPU. Уменьшение длины проводников положительно сказывается на энергоэффективности, которая очень важна для любого гиперскейлера. Этим же объясняется и относительно небольшое по современным меркам число ядер (всего 64) и их частота (2,6 ГГц). Всё это позволило добиться энергопотребления примерно в 100 Вт.

Есть и ещё один важный плюс в сохранении числа ядер — переход на DDR5-4800 позволил не только достичь пиковой суммарной пропускной способности памяти в 300 Гбайт/с на чип, но и повысить реальную скорость работы с памятью каждого vCPU (фактически ядра) в полтора раза по сравнению с прошлым поколением. Та же ситуация и с PCIe 5.0 — для достижения той же пропускной способности, что ранее, нужно вдвое меньше линий.

Для удешевления используются готовые IP-блоки сторонних компаний и, судя по всему, ядра тоже несильно отличаются от референсов Arm. А вот какие именно, узнаем не сразу, поскольку Amazon явно не указала, будут ли это Neoverse V1 (Zeus) или N2 (Perseus). Вероятно, это всё же V1 (ARMv8.5-A), поскольку по описанию Graviton3 похожи именно на эту архитектуру. Новые ядра стали значительно «шире» прежних — они забирают 8 инструкций, декодируют от 5 до 8 из них и отправляют на исполнение сразу 15 инструкций. Соответственно и число исполнительных блоков по сравнению с Neoverse-N1 (Graviton2) практически удвоилось.

Кроме того, они обзавелись поддержкой 256-бит векторных инструкций SVE, что повысило не только скорость выполнения «классических» FP-операций (например, для задач медиакодирования и шифрования), но и благодаря поддержке bfloat16 позволило утверждать Amazon, что новые чипы годятся и для инференса. Среди упомянутых ранее мер защиты есть, например, принудительное шифрование оперативной памяти, изолированные кеши для каждого vCPU (ядра), аппаратная защита стека.

В подписи второго столбца явная опечатка

В подписи второго столбца явная опечатка

В целом, средний прирост производительности Graviton3 по сравнению с Graviton2 составил 25 %, но в некоторых задачах он достигает 60 %. И всё это при сохранении того же уровня энергопотребления и тепловыделения. Всё это позволило уместить в одном 1U-узле с воздушным охлаждением сразу три процессора Graviton3. И они разительно отличаются от грядущих 128-ядерных процессоров Altra Max и EPYC Bergamo, которые Ampere и AMD позиционируют как решения для гиперскейлеров. Зато в чём-то похожи на Yitian 710 от Alibaba Cloud.

Но CPU — это лишь часть платформы, фундамент для которой несколько лет назад заложило появление чипов Nitro. Их сейчас стоило бы назвать DPU/IPU, хотя на момент их появления такого понятия, можно сказать, и не было. Nitro берёт на себя все задачи по обслуживанию гипервизора, обеспечению безопасности, работе с хранилищем и сетью и т.д., высвобождая, с одной стороны, все ресурсы CPU, памяти и SSD для обработки задачи клиента, а с другой — позволяя практически полностью дезагрегировать всю инфраструктуру.

Узел с Nitro SSD

Узел с Nitro SSD

Впрочем, Amazon пошла ещё дальше — теперь она самостоятельно закупает NAND-чипы и производит SSD, тоже под управлением Nitro. То есть у компании под контролем практически полный стек современных аппаратных решений: CPU, DPU, SSD, ИИ-ускорители для обучения (Trainium) и инференса (Inferentia). Она активно переносит на него собственные сервисы и предлагает их клиентам. И именно это и должно обеспокоить крупных вендоров, поскольку их решения вряд ли позволят добиться такого же уровня TCO, а гиперскейлеров, желающих перейти на аналогичную модель, немало.

UPD 06.12.21: презентация новых процессоров стала доступна публично, поэтому в материал добавлены некоторые иллюстрации, а в галерее ниже приведены результаты тестов производительности.

Постоянный URL: http://servernews.ru/1055168
03.12.2021 [23:13], Андрей Галадей

В Amazon FSx появились облачные тома OpenZFS

Сервис Amazon FSx получил поддержку файловой системы OpenZFS. Сервис позволяет создать файловую систему за считанные минуты и сразу же начать пользоваться ей. При этом доступны все особенности OpenZFS — быстрое сжатие, непрерывная проверка целостности, моментальные снимки и так далее.

Сами хранилища работают на узлах с процессорами AWS Graviton, а для доступа используется AWS SRD. Всё это даёт высокую пропускную способность и скорость операций ввода-вывода. Система обеспечивает до 1 млн IOPS с задержкой 100-200 мс, а также пропускной способностью до 4 Гбайт/с без сжатия, до 12 Гбайт/с для сжатых данных и до 12,5 Гбайт/с — для кешированных. Задействован механизм Adaptive Replacement Cache (ARC), использующий RAM узла для повышения производительности. Отдельно отмечается, что все данные хранятся в зашифрованном виде.

Тома OpenZFS доступны для облачных или локальных клиентов Linux, macOS и Windows посредством NFS v3/4/4.1/4.2. Также из облаков к ним могут получать доступ инстансы EC2, кластеры ECS и EKS, VDI-системы Amazon WorkSpaces и виртуальные машины VMware на AWS. Amazon FSx с OpenZFS можно использовать для задач ИИ, EDA, обработки мультимедиа, финансовой аналитики, для хранилищ кода, DevOps и веб-серверов. Также их можно использовать в сценариях, где важна низкая задержка ввода-вывода — порядка 100 мс.

Постоянный URL: http://servernews.ru/1055070
03.12.2021 [18:30], Сергей Карасёв

Meta (Facebook) укрепляет отношения с облаком AWS

Компания Meta, являющаяся материнской структурой Facebook, Instagram, WhatsApp и Oculus, объявила о намерении расширить сотрудничество с облачной платформой Amazon Web Services (AWS). В то же время Meta продолжит инвестировать средства в развитие собственной инфраструктуры.

В ходе конференции AWS Re:Invent в Лас-Вегасе (Невада, США) компания Meta заявила, что Amazon станет её долгосрочным стратегическим провайдером облачных сервисов. Это означает, что Meta расширит сферу применения вычислительных ресурсов и хранилищ на базе AWS. В частности, облачную платформу Amazon планируется задействовать для упрощения поглощений сторонних компаний, которые уже используют сервисы AWS.

Источник изображения: pixabay.com / RobertCheaib

Источник изображения: pixabay.com / RobertCheaib

Мощности AWS также помогут Meta в осуществлении исследований и разработок, связанных со средствами искусственного интеллекта и машинного обучения. «Meta и AWS расширяли сотрудничество на протяжении последних пяти лет. Данное соглашение подразумевает, что AWS продолжит поддерживать исследования и разработки Meta, ускорять инновации, обеспечивать взаимодействие с третьими сторонами и сообществом open source», — отмечает облачная платформа.

Вместе с тем основная часть нагрузок Facebook, Instagram, WhatsApp и Oculus, как и прежде, будет работать в собственных центрах обработки данных Meta. Ежегодно компания тратит десятки миллиардов долларов на расширение своих IT-площадок, установку серверов и прокладку подводных интернет-кабелей.

Постоянный URL: http://servernews.ru/1055139
03.12.2021 [18:17], Владимир Мироненко

AWS ускорит перенос ПО c мейнфреймов в облака

AWS запустила сервис для пользователей мейнфреймов, который позволит на две трети сократить время миграции приложений в облако. Цель новой программы AWS Migration Acceleration Program for Mainframe, доступной в предварительном доступе в США, Австралии, ЕС и Бразилии — перевод таких пользователей в облако «настолько быстро, насколько это возможно», чтобы они смогли использовать все его преимущества.

Новая программа по ускорению миграции является расширением уже существующего сервиса AWS MAP, который получил новые инструменты разработки, тестирования и развёртывания, а также среду исполнения, совместимую с мейнфреймами. Сервис оценивает готовность компаний к работе с ПО в облаке. Например, функция Migration Evaluator рассчитывает общую стоимость владения на основе фактического потребления ресурсов клиентами и способности AWS оптимизировать использование вычислений, хранилищ, СУБД, сетевых функций и лицензий.

Источник изображения: AWS

Источник изображения: AWS

Программа предлагает два основных шаблона миграции — переход на новую платформу (re-platforming) или автоматический рефакторинг — и позволяет выбрать оптимальный вариант, дав подходящий набор инструментов по итогам оценки. Согласно AWS, облачная среда исполнения предоставляет все необходимые ресурсы для запуска приложений после рефакторинга и реплатформинга и автоматизирует управление функциями выделения ёмкости, безопасности, балансировки нагрузки, масштабирования и мониторинга.

Источник изображения: AWS

Источник изображения: AWS

AWS Migration Hub позволяет централизованно отслеживать процесс миграции приложений через AWS и партнёрские сервисы от Accenture, DCX Technology, Tata, Atos, MicroFocus и Infosys. По словам Уильяма Платта (William Platt), генерального менеджера сервисов миграции AWS, перенос приложений для мейнфреймов в облако является привлекательным для предприятий из-за более низкой стоимости и гибкости, но миграция для них до сих пор в новинку, поэтому сервис может снизить сложность и объём работ по переносу нагрузок.

Постоянный URL: http://servernews.ru/1055136
02.12.2021 [14:56], Сергей Карасёв

Goldman Sachs предложит финансовым компаниям облачную платформу на базе AWS

Goldman Sachs, один из крупнейших в мире инвестиционных банков, и облачная служба Amazon Web Services (AWS) анонсировали новую систему для компаний, работающих в финансовой сфере. Новая платформа получила название Goldman Sachs Financial Cloud for Data. Она предоставит сторонним заказчикам сервисы финансовой аналитики и управления данными.

Использование облачного подхода позволит клиентам экономить средства на собственной вычислительной инфраструктуре. Кроме того, не придётся разрабатывать финансовые инструменты, поскольку необходимые средства будут предоставляться в рамках новой платформы. Клиенты смогут использовать собственные закрытые данные в комплексе с финансовыми базами, предоставляемыми Goldman Sachs. Это позволит выполнять различную аналитику, делать оценки, прогнозы и пр.

Источник изображения: pixabay.com / geralt

Источник изображения: pixabay.com / geralt

Руководство Goldman Sachs начало вести обсуждение проекта ещё в феврале 2020 года. В качестве базы выбрана площадка AWS, с которой инвестиционный банк сотрудничает уже более десяти лет. Несмотря на то, что внедрение облачных технологий, как показывают исследования, помогает развиваться финансовым компаниям, высокая зарегулированность рынка всё ещё препятствует этому.

Постоянный URL: http://servernews.ru/1055032
Система Orphus