Материалы по тегу: облако

02.12.2023 [23:25], Сергей Карасёв

Объём мирового рынка облачного CDN превысит $30 млрд к 2030 году

Компания ResearchAndMarkets представила прогноз по глобальному облачному рынку сетей доставки контента (CDN) до конца текущего десятилетия. Аналитики полагают, что спрос на такие услуги продолжит устойчиво расти, чему способствуют появление новых сервисов и трансформация IT-отрасли.

По оценкам, в 2022 году объём рассматриваемого рынка составил приблизительно $6,7 млрд. В перспективе специалисты ResearchAndMarkets прогнозируют значение CAGR (среднегодовой темп роста в сложных процентах) около 20,8 %. В результате, к 2030-му затраты могут достичь $30,5 млрд, увеличившись в 4,5 раза по отношению к 2022 году.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

В качестве основных драйверов отрасли аналитики называют продолжающуюся миграцию корпоративных сервисов в облако, рост спроса на потоковую передачу данных и видео по запросу, увеличивающуюся популярность облачных игр и развитие платформ онлайн-обучения. Кроме того, наблюдается устойчивый рост электронной коммерции: интернет-магазины активизируют использование облачных CDN для улучшения качества обслуживания клиентов.

В сегменте «обычного CDN» (без учёта видео) показатель CAGR в течение рассматриваемого периода ожидается на уровне 19,9 %: затраты по данному направлению к 2030 году могут подняться до $18,5 млрд. Рост сегмента Video CDN оценивается в 22,3 % (CAGR) до конца десятилетия.

В США по итогам 2022 года отрасль CDN достигла объёма в $2,3 млрд. В Китае величина CAGR до 2030 года прогнозируется в размере 27,2 %, что приведёт к росту затрат до $6,5 млрд. В Японии, Канаде и Германии среднегодовой темп роста, по мнению аналитиков, составит соответственно 16,3 %, 18,5 % и 18,2 %.

Постоянный URL: http://servernews.ru/1096852
02.12.2023 [23:23], Сергей Карасёв

Google настаивает на антимонопольных мерах против Microsoft на облачном рынке Великобритании

Компания Google, по сообщению агентства Reuters, направила в антимонопольный орган Великобритании жалобу против Microsoft: редмондский гигант обвиняется в неконкурентном поведении на облачном рынке. По заявлениям Google, политика Microsoft ставит в невыгодное положение других провайдеров облачных услуг.

Amazon Web Services (AWS) и Microsoft Azure столкнулись с растущим вниманием во всем мире по поводу их доминирования на рынке облачных вычислений, в том числе европейском. По оценкам Canalys, в III квартале 2023 года доля AWS в мировом масштабе составляла 31 %, Microsoft Azure — 25 %. Для сравнения: Google Cloud контролирует около 10 %.

 Источник изображения: Google

Источник изображения: Google

Проверкой деятельности Amazon и Microsoft занялись регулирующие органы Великобритании, Европейского Союза и США. В частности, минувшим летом Google направила жалобу на Microsoft в Федеральную торговую комиссию США (FTC), обвинив этого облачного провайдера в антиконкурентной практике. Кроме того, сообщалось, что антимонопольное расследование деятельности Amazon и Microsoft на облачном рынке начнёт британский регулятор Office of Communications (Ofcom).

Сообщается, что в октябре нынешнего года Управление по защите конкуренции и рынкам Великобритании (CMA) с подачи Ofcom инициировало оценку бизнес-практики Amazon и Microsoft в облачном сегменте. По данным Ofcom, в 2022 году AWS и Microsoft Azure совместно контролировали 70–80 % британского рынка публичных облачных услуг, тогда как доля Google варьировалась в диапазоне 5–10 %.

В своей жалобе в CMA компания Google заявляет, что политика лицензирования Microsoft ухудшает конкурентную обстановку на облачном рынке. По утверждениям Google, из-за лицензионных ограничений Microsoft у британских клиентов «не остаётся экономически разумной альтернативы, кроме как использовать Azure в качестве поставщика облачных услуг, даже если у конкурентов более привлекательные цены, качество, безопасность и функциональные возможности». В ЕС Microsoft пошла на некоторые уступки в прошлом году, однако Amazon и Google они не коснулись.

Постоянный URL: http://servernews.ru/1096859
01.12.2023 [15:52], Руслан Авдеев

AWS представила корпоративную систему биометрической идентификации Amazon One Enterprise — через 3 года после дебюта Amazon One для магазинов

AWS представила корпоративную версию системы биометрической идентификации Amazon One Enterprise. Новый сервис основан на решении Amazon One, которое появилось в 2020 году. Оно используется для биометрических платежей в собственных магазинах Amazon, не имеющих кассиров. Посетители Amazon Go могут привязать данные банковской карты к информации об отпечатке ладони.

Хотя технология, как это обычно бывает с такими решениями, вызвала опасения среди правозащитников и политиков в связи с возможной утечкой данных, компания продолжила внедрять её, предлагая клиентам различные льготы. Сервис уже появился во всех магазинах сети Whole Foods, принадлежащей Amazon, в США. Также компания заключила соглашения и со сторонними ретейлерами.

 Источник изображения: Amazon

Источник изображения: Amazon

Проект Amazon One Enterprise стал закономерным развитием предыдущей инициативы. Несмотря на повсеместный переход на удалённую работу, многие компании всё ещё хотят видеть своих сотрудников в офисах хотя бы время от времени. Amazon One Enterprise обеспечивает бесконтактную идентификацию для доступа на такие объекты. Более того, технологию можно использовать и для всевозможного ПО с разграничением доступа, например, для защиты доступа к кадровой или финансовой информации.

 Источник изображения: Amazon

Источник изображения: Amazon

Заказчикам предлагается на выбор два вида устройств: отдельный модуль, который можно разместить где угодно, и турникет. Возможно совместное использование биометрической идентификации с традиционными средствами, т.е. карточками, PIN-кодами и паролями. AWS подчёркивает, что Amazon One Enterprise отличается от решений для магазинов уровнем обеспечения безопасности. В частности, коллекция отпечатков ладоней сохраняется в облаке AWS отдельно для каждой компании. С помощью точно такого же устройства пользователь может удалить свои данные, а если в течение двух лет он не проявлял никакой активности, данные будут удалены автоматически.

Постоянный URL: http://servernews.ru/1096795
01.12.2023 [12:02], Сергей Карасёв

В AWS появилось высокопроизводительное S3-хранилище Express One Zone с миллисекундными задержками

Облачная платформа AWS объявила о доступности Amazon S3 Express One Zone — нового высокопроизводительного объектного хранилища. Утверждается, что решение обеспечивает в 10 раз более высокую производительность по сравнению со стандартной версией S3, что позволяет ускорить работу приложений с интенсивным использованием данных.

Каждая корзина Amazon S3 Express One Zone располагается в определённой локальной зоне, выбранной заказчиком. Там же могут находиться вычислительные ресурсы (EC2, ECS, EKS), что обеспечивает минимальные задержки при обработке запросов. AWS заявляет, что S3 Express One Zone не только быстрее стандартного хранилища S3, но и обеспечивает значительную экономию средств. Утверждается, что стоимость запросов на 50 % ниже по сравнению с обычным хранилищем S3.

 Источник изображений: AWS

Источник изображений: AWS

Утверждается, что хранилище Amazon S3 Express One Zone может обслуживать сотни тысяч запросов в секунду с постоянной задержкой, которая измеряет миллисекундами. Сервис способен обрабатывать объекты любого размера, но наибольшая эффективность достигается при работе с небольшими блоками. Доступ к хранилищу можно получить посредством стандартного набора API. Корзины поддерживают заданный набор функций, включая загрузку и копирование файлов по частям (multi-part upload/copy), предварительно назначенные URL-адреса и анализатор доступа.

По заявлениям AWS, решение отлично подходит для создания масштабных ИИ-моделей, которым требуется доступ к наборам обучающих данных миллионы раз в минуту. Кроме того, могут решаться ресурсоёмкие задачи в сферах финансового моделирования, обработки мультимедийного контента, формирования и размещения рекламы в реальном времени и пр. Такие приложения обычно хранят данные в течение относительно короткого периода времени, но в течение этого срока обращаются к ним очень часто.

Постоянный URL: http://servernews.ru/1096789
30.11.2023 [15:14], Сергей Карасёв

OVHcloud откроет новые дата-центры в Австралии и Канаде

Европейский поставщик облачных услуг OVHcloud, по сообщению ресурса Datacenter Dynamics, наметил на 2024 год открытие как минимум двух новых ЦОД в Австралии и Канаде. Кроме того, планируется активное развитие локальных зон в различных регионах по всему миру.

На мероприятии OVHcloud Summit в Париже компания объявила о том, что весной 2024-го будет введён в эксплуатацию дата-центр SYD3 в Сиднее (Австралия), а в Торонто (Канада) в марте заработает площадка TOR1. Мощности этих объектов пока не раскрываются. В 2025 году OVHcloud откроет дата-центр BHS9 в Квебеке (Канада). Отмечается, что проектная мощность данной площадки пересмотрена в сторону увеличения по сравнению с начальными планами. Расширение также затронет ЦОД компании в Мумбаи (Индия).

 Источник изображения: OVHcloud

Источник изображения: OVHcloud

На сегодняшний день у OVHcloud в Мадриде и Брюсселе действуют локальные зоны, использующие технологии немецкого провайдера Gridscale, который был поглощён ранее в нынешнем году. В ближайшие месяцы OVHcloud откроет ещё почти два десятка локальных зон в США, Европе, на Ближнем Востоке, в Африке и других регионах по всему миру. В течение трёх ближайших лет количество таких площадок планируется довести до 150. Локальные зоны предоставляют вычислительные ресурсы, СХД и сетевые подключения в непосредственной близости к конечным пользователям.

Ранее французское агентство по кибербезопасности ANSSI предоставило OVHcloud квалификацию SecNumCloud, удостоверяющую высокую надёжность хранения конфиденциальных данных. Дата-центры с соответствующей сертификацией располагались в Рубе и Страсбурге. Теперь появилась третья площадка в Гравлине.

Постоянный URL: http://servernews.ru/1096730
30.11.2023 [15:09], Владимир Мироненко

Amazon SageMaker HyperPod обеспечит бесперебойное обучение базовых моделей

Amazon Web Services представила сервис Amazon SageMaker HyperPod для обучения и точной настройки больших языковых моделей (LLM). Новинка обеспечивает распределённое обучение для больших обучающих кластеров ИИ, оптимизированное использование вычислительных ресурсов, памяти и сетевых ресурсов кластера, а также гибкую среду обучения, исключающую перерывы.

Базовые модели ИИ (FM, foundation model) зачастую слишком сложны, поэтому их обучение приходится проводить на нескольких ускорителях, что является технически сложной задачей, требует узкоспециализированных навыков и может занять недели или месяцы в зависимости от количества задействованного оборудования. При этом возрастает вероятность сбоев, таких как единичный отказ ускорителя.

 Изображение: AWS

Изображение: AWS

Эти сбои могут нарушить весь процесс обучения и потребовать ручного вмешательства для выявления, изоляции, отладки, устранения неполадок и восстановления после них, что ещё больше задержит процесс обучения. Для бесперебойного обучения модели разработчики должны постоянно сохранять прогресс обучения с помощью контрольных точек, что ещё больше увеличивает временные затраты и отдаляет вывод решения на рынок.

SageMaker HyperPod обеспечивает доступ к ИИ-кластерам по требованию. Разработчики могут подготовить кластер с помощью комбинации команд и простых сценариев, что значительно быстрее, чем настройка инфраструктуры вручную. По словам AWS, SageMaker HyperPod может сократить время, необходимое для обучения базовых моделей, более чем на треть.

 Изображение: AWS

Изображение: AWS

HyperPod предварительно сконфигурирован с использованием распределённых обучающих библиотек SageMaker, которые позволяют автоматически распределять учебные нагрузки между тысячами ускорителей. SageMaker также разделяет данные, на которых обучается модель, на более мелкие и более управляемые части.

Hyperpod гарантирует непрерывность обучения моделей и периодическое создание контрольных точек. Когда во время обучения происходит аппаратный сбой, SageMaker HyperPod автоматически обнаруживает его, восстанавливает или заменяет неисправный инстанс и возобновляет обучение с последней контрольной точки, устраняя необходимость в ручном управлении этим процессом и позволяя проводить обучение в распределённой среде без сбоев в течение длительного времени.

 Изображение: AWS

Изображение: AWS

Вместе с тем клиенты с повышенными требованиями имеют возможность использовать собственный распределённый код для обучения. AWS также предоставляет возможность оснастить ИИ-кластер другими программными компонентами, такими как инструменты отладки.

SageMaker HyperPod уже доступен в облачных регионах AWS в Огайо, Северной Вирджинии, Орегоне, Сингапуре, Сиднее, Токио, Франкфурте, Ирландии и Стокгольме.

Постоянный URL: http://servernews.ru/1096743
29.11.2023 [22:43], Владимир Мироненко

ИИ-ассистент Amazon Q упростит работу IT-специалистов, разработчиков и корпоративных клиентов AWS

Компания Amazon Web Services представила интеллектуального ассистента Amazon Q на базе генеративного ИИ, предназначенного для помощи корпоративным клиентам. Поначалу Amazon Q будет использоваться для нужд разработчиков и поддержки IT-команд. Amazon Q уже доступен в виде превью, причем многие функции бесплатны. В дальнейшем AWS будет брать по $20/мес. за каждого пользователя, а версия с дополнительными функциями для ИТ-специалистов будет стоить $25/мес.

«Amazon Q может помочь вам получать быстрые и актуальные ответы на насущные вопросы, решать проблемы, генерировать контент и предпринимать действия, используя данные и опыт, найденные в информационных репозиториях, коде и корпоративных системах вашей компании», — сообщил гендиректор Amazon. Глава AWS считает, что Amazon Q реформирует множество видов деятельности. ИИ-помощник разработан с учётом 17-летнего опыта работы самой AWS и поначалу будет доступен именно внутри экосистемы AWS.

Хотя Amazon Q в первую очередь нацелен на разработчиков и ИТ-специалистов, компания планирует в конечном итоге распространить его возможности на весь корпоративный сегмент. Подобно другим ИИ-помощникам он сможет подключаться к различным источникам данных, отвечать на вопросы и составлять резюме, а также предоставлять экспертные сведения или помощь на основе внутренней информации компании. Это потенциально может сделать его конкурентом ChatGPT Enterprise от OpenAI, Copilot for 365 от Microsoft и Duet AI for Workspace от Google.

 Источник изображения: AWS

Источник изображения: AWS

Специалисты смогут получить доступ Amazon Q из консоли AWS. Q расскажет, как использовать сервисы, какие API доступны, к каким сервисам можно подключиться и как они взаимодействуют между собой. Пользователь сможет создавать запросы на естественном языке, а Q подготовит экспертный ответ со ссылками и цитатами. Так, в EC2-консоли Amazon Q даст совет, какой тип инстанса лучше всего подходит для размещения определённого типа приложений в зависимости в зависимости от потребностей клиента. А если возникла проблема с сетью, у Q можно напрямую спросить: «Почему я не могу подключиться по SSH к своему инстансу?». В этом случае помощник подключит его к сетевому анализатору, чтобы устранить неполадки с соединением.

AWS интегрировала ИИ-ассистента в поддерживаемые IDE вместе с ИИ-инструментом Amazon CodeWhisperer, так что с Q можно пообщаться непосредственно во время разработки. Например, Amazon Q может разобрать и описать исходный код незнакомого проекта или же в диалоговом режиме в Amazon CodeCatalyst поможет создать новый код, опираясь на описание необходимой функциональности и учитывая лучшие практики, а также имеющуюся кодовую базу и бизнес-сведения. Наконец, функция Amazon Q Transformation, доступная в виде превью для IntelliJ IDEA и Visual Studio Code, позволит автоматизировать обновление кода приложений с Java 8 и 11 до версии 17. А вскоре Q научится преобразовывать .NET-приложения для Windows в кросс-платформенные.

Постоянный URL: http://servernews.ru/1096691
29.11.2023 [13:02], Сергей Карасёв

Для VMware Cloud on AWS стали доступны инстансы M7i bare metal

Компания VMware объявила о том, что для платформы VMware Cloud on AWS реализована поддержка инстансов Amazon EC2 M7i bare-metal (m7i.metal-24xl) на базе кастомных Intel Xeon Sapphire Rapids. Конфигурация включает 96 vCPU и около 414 Гбайт памяти. Решение, как отмечается, поможет клиентам ускорить миграцию в облако и модернизацию корпоративных приложений.

VMware Cloud on AWS позволяет работать с ПО VMware для программно-определяемых центров обработки данных (SDDC) корпоративного класса в облаке AWS, используя оптимизированный доступ к собственным сервисам AWS. Платформа создана на основе VMware Cloud Foundation. Сервис совмещает решения для вычислений, хранения данных и виртуализации сети (VMware vSphere, VMware vSAN и VMware NSX), а также инструменты управления VMware vCenter Server, оптимизированные для работы в выделенной эластичной инфраструктуре AWS. VMware Cloud on AWS предоставляет однопользовательскую среду с поддержкой от 4 до 16 хостов на каждый кластер vSphere.

 Источник изображения: AWS

Источник изображения: AWS

Объединив M7i bare metal с томами Amazon FSx для NetApp ONTAP и VMware Cloud Flex Storage, клиенты могут расширять хранилище по мере необходимости независимо от вычислительных мощностей, чтобы максимизировать использование ресурсов. Для рабочих нагрузок с интенсивным вводом-выводом, требующих высокой производительности и низких задержек, заказчики могут продолжать использовать существующие экземпляры i3en и i4i с гиперконвергентной архитектурой.

В целом, благодаря M7i bare metal пользователи VMware Cloud on AWS смогут ускорить перенос нагрузок в облако, сократить время восстановления после сбоев и атак программ-вымогателей, а также повысить эффективность развёртывания приложений ИИ и машинного обучения при снижении совокупной стоимости владения, сообщает компания.

Постоянный URL: http://servernews.ru/1096658
28.11.2023 [22:20], Игорь Осколков

NVIDIA анонсировала суперускоритель GH200 NVL32 и очередной самый мощный в мире ИИ-суперкомпьютер Project Ceiba

AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных ранее платформ DGX Cloud тем, что оно первом получило гибридные суперчипах GH200 (Grace Hoppper), причём в необычной конфигурации.

 Изображения: NVIDIA

Изображения: NVIDIA

В основе AWS DGX Cloud лежит платформа GH200 NVL32, но это уже не какой-нибудь сдвоенный акселератор вроде H100 NVL, а целая, готовая к развёртыванию стойка, включающая сразу 32 ускорителя GH200, провязанных 900-Гбайт/с интерконнектом NVLink. В состав такого суперускорителя входят 9 коммутаторов NVSwitch и 16 двухчиповых узлов с жидкостным охлаждением. По словам NVIDIA, GH200 NVL32 идеально подходит как для обучения, так и для инференса действительно больших LLM с 1 трлн параметров.

Простым перемножением количества GH200 на характеристики каждого ускорителя получаются впечатляющие показатели: 128 Пфлопс (FP8), 20 Тбайт оперативной памяти, из которых 4,5 Тбайт приходится на HBM3e с суммарной ПСП 157 Тбайтс, и агрегированная скорость NVLink 57,6 Тбайт/с. И всё это с составе одного EC2-инстанса! Да, новая платформа использует фирменные DPU AWS Nitro и EFA-подключение (400 Гбит/с на каждый GH200). Новые инстансы, пока что безымянные, можно объединять в кластеры EC2 UltraClasters.

Одним из таких кластеров станет Project Ceiba, очередной самый мощный в мире ИИ-суперкомпьютер с FP8-производительность 65 Эфлопс, объединяющий сразу 16 384 ускорителя GH200 и имеющий 9,1 Пбайт памяти, а также агрегированную пропускную способность интерконнекта на уровне 410 Тбайт/с (28,8 Тбайт/с NVLink). Он и станет частью облака AWS DGX Cloud, которое будет доступно в начале 2024 года. В скором времени появятся и EC2-инстансы попроще: P5e с NVIDIA H200, G6e с L40S и G6 с L4.

Постоянный URL: http://servernews.ru/1096645
28.11.2023 [16:28], Владимир Мироненко

896 vCPU и 32 Тбайт RAM: AWS анонсировала самые крупные инстансы EC2 U7i для in-memory баз данных

Облачная платформа AWS представила инстансы Amazon EC2 U7i, предназначенные для поддержки крупных in-memory СУБД, включая SAP HANA, Oracle и SQL Server. Новые инстансы используют кастомные процессоры Intel Xeon Sapphire Rapids и обеспечивают по сравнению с инстансами EC2 High Memory первого поколения до 125 % большую вычислительную производительность и до 120 % большую производительность памяти.

EC2 U7i также обеспечивают в 2,5 раза большую пропускную способность EBS-томов, позволяя наполнять базы данных in-memory со скоростью до 44 Тбайт/час. Инстанс U7i поддерживает подключение до 128 томов EBS gp2/gp3 или io1/io2. Каждый том io2 Block Express может иметь размер до 64 ТиБ и обеспечивать производительность до 256 тыс. IOPS со скоростью до 32 Гбит/с.

Инстансы поддерживают адаптеры ENA Express, обеспечивающем пропускную способность до 25 Гбит/с на каждый сетевой поток. Всего же каждый инстанс может получить 100-Гбит/с подключение для работы с сетью и EBS. Максимальная конфигурация включает 896 vCPU и 32768 ГиБ оперативной памяти. В число поддерживаемых U7i операционных систем входят Red Hat Enterprise Linux и SUSE Enterprise Linux Server. Инстансы U7i в виде превью доступны в регионах US West (Орегон), Азиатско-Тихоокеанском (Сеул) и Европейском (Франкфурт).

Постоянный URL: http://servernews.ru/1096578
Система Orphus