Материалы по тегу: cloud

11.04.2024 [17:57], Владимир Мироненко

Yandex Cloud запустила облачные сервисы для пользователей в Казахстане и Центральной Азии на базе ЦОД в Караганде

Облачная платформа Yandex Cloud объявила о запуске нового региона kz1 на базе ЦОД в Казахстане, благодаря чему пользователям республики и Центральной Азии стал доступен широкий выбор облачных сервисов и технологий Yandex. Тарификация сервисов производится в тенге. А для развития IT-рынка в Казахстане компания выделила гранты 74 компаниям на сумму свыше 160 млн тенге в рамках программы Yandex Cloud Boost.

Компании региона получили возможность использовать решения Yandex Cloud для хранения и обработки данных, технологии искусственного интеллекта (ИИ), машинного обучения, а также различные инструменты для разработки, тестирования и запуска собственных цифровых продуктов. ЦОД с серверной инфраструктурой находится в Караганде, а офисы компании — в Астане и Алматы. В казахстанском офисе работает команда технических специалистов и экспертов.

 Источник изображения: Yandex Cloud

Источник изображения: Yandex Cloud

С помощью сервиса распознавания и синтеза речи Yandex SpeechKit с поддержкой казахского и узбекского языков компании смогут создавать голосовых помощников и роботов для кол-центров. Также они смогут использовать решения для хранения, обработки и анализа данных, средства мониторинга и управления ресурсами облака, а также решения для обеспечения безопасности облачной инфраструктуры Yandex Cloud.

Запуск нового региона выполнен в рамках долгосрочной стратегии развития Yandex Cloud в Казахстане и Центральной Азии. Как сообщает компания, её сервисы и решения уже используют в своей работе десятки казахстанских компаний крупного и среднего бизнеса, стартапы и организации государственного сектора, включая Kolesa Group, Technodom, Бухта, HR Messenger, TargetAI, 1Fit, Demetra и Rocket Firm.

Постоянный URL: http://servernews.ru/1103137
10.04.2024 [01:30], Алексей Степин

Google анонсировала Axion, свой первый серверный Arm-процессор

Компания Google объявила о выпуске собственного процессора для своих ЦОД. В основу новинки, получившей имя Axion, легла архитектура Arm, что ставит её в один ряд с Amazon Graviton, Alibaba Yitian и Microsoft Cobalt.

Это не первый процессор, разработанный Google: c 2015 года компания успела создать пять поколений ИИ-ускорителей Tensor Processing Units (TPU), а в 2018 она представила процессор Video Coding Unit (VCU) Argos для транскодирования видео. Но Axion стал первым чипом Google, который подпадает под определение «процессор общего назначения». При его создании компания сделала упор не только на энергоэффективность, но и на высокий уровень производительности, достаточный для использования в современных серверах.

 Источник изображений: Google

Источник изображений: Google

В основу Axion легли Armv9-ядра Neoverse V2 (Demeter). Этот же дизайн используется в AWS Graviton4 и NVIDIA Grace. К сожалению, архитектурных подробностей Google пока не раскрывает, известно лишь, что ядра Neoverse V2 работают совместно с фирменными контроллерами Titanium. Последние отвечают за работу с сетью, защиту и разгрузку IO-операций при работе с блочным хранилищем Hyperdisk, то есть чем-то напоминают AWS Nitro. При этом Google вложилась в SystemReady Virtual Environment (VE), чтобы упростить перенос нагрузок на новые чипы как для себя, так и для пользователей облака.

Если верить разработчикам, на момент анонса Google инстансы на базе Axion минимум на 30 % производительнее инстансов на базе самых быстрых Arm-процессоров других вендоров, а по сравнению с сопоставимыми по классу x86-процессорами преимущество может достигать и 50 % при 60 % выигрыше в энергоэффективности. Судя по всему, Axion ранее был известен под кодовым именем Cypress. А ещё один Arm-процессор Google Maple, который, по слухам, являлся наследником почивших Marvell ThunderX, в серию, видимо, не пошёл.

Сама компания уже начала переводить на Axion сервисы BigTable, Spanner, BigQuery, Blobstore, Pub/Sub, Google Earth Engine и YouTube Ads. Ряд клиентов и партнёров Google уже оценили Axion по достоинству. Виртуальные машины с новыми процессорами будут доступны в ближайшие месяцы. Они же будут доступны и в Kubernetes Engine, Dataproc, Dataflow, Cloud Batch и т.д.

Постоянный URL: http://servernews.ru/1103000
08.04.2024 [22:49], Руслан Авдеев

Alibaba снизит стоимость облачных сервисов в попытке вернуть бизнес к росту

Китайский IT-гигант Alibaba Group Holding Ltd. инициировала масштабное снижение цен на свои облачные сервисы для клиентов по всему миру. По данным Bloomberg, речь идёт о дисконте до 59 % — ранее стоимость услуг уже была снижена в КНР в попытке потеснить локальных соперников и вернуть бизнес к росту.

Новые меры совпали с ростом спроса на облачные вычисления для ИИ-решений, а также сложной внутренней реструктуризацией бизнеса компании. Её глава надеется придать второе дыхание основному бизнесу холдинга, включая, например, сегмент электронной коммерции. В своё время облачное подразделение отказалось от идеи отделиться и выйти на IPO, сославшись на трудности с получением необходимых ей чипов NVIDIA, а также растущую конкуренцию с китайской же Tencent Holdings Ltd. и рядом поддерживаемых государством облачных провайдеров.

 Источник изображения: Alibaba

Источник изображения: Alibaba

В понедельник она снизила цены в среднем на 23 % на порядка 500 вариантов облачных продуктов. Такие дисконты теперь доступны в 13 регионах. На сегодня Alibaba Cloud является крупнейшим облачным провайдером в Китае, но на мировом рынке это сравнительно небольшой игрок, особенно на фоне AWS или Microsoft Azure. В последние годы компания потеряла часть позиций в Китае, уступив долю рынка окологосударственным бизнесам, а экономическая война США с Китаем помешала экспансии Alibaba за рубежом.

Хотя в прошлом фискальном году выручка превысила $11 млрд, в I квартале этого года она, как ожидается, упадёт на 2 %. На прошлой неделе представители компании заявили, что ограничения на поставку чипов составляют большую проблему для китайских облачных провайдеров — запасов хватит на обучение больших языковых моделей (LLM) ещё в течение 12–18 мес., но ограниченный доступ к передовым ускорителям NVIDIA не может не сказаться на конкурентоспособности компании в среднесрочной перспективе, пока не появятся сильные альтернативы китайского производства.

 Источник изображения: Alibaba

Источник изображения: Alibaba

В Bloomberg считают, что снижение цен свидетельствует о желании поднять выручку, но не прибыльность в фискальном году, заканчивающемся в марте 2025-го. Рост EBITA на 2 п.п. год к году в тот же период оценивается экспертами как «чересчур оптимистичный» прогноз. Изменения на международном рынке последовали за февральским снижением цен на более 100 облачных предложений Alibaba в КНР, которое начало ценовую войну, поскольку конкуренты вроде JD тут же предложили собственные дисконты. Более того, это уже второе понижение цен Alibaba Cloud за последний год.

Новые дисконты, в частности, ожидают существующих международных клиентов. Дополнительно компания обещает увеличить дисконты и улучшить другие условия для продавцов-посредников. Также ИИ-платформа PAI-Lingjun станет доступна в Сингапуре. В целом в Alibaba Cloud намерены не только смягчить условия для клиентов, но и дать понять, что компанией заложена основа для долгосрочного стратегического развития.

Постоянный URL: http://servernews.ru/1102923
08.04.2024 [15:47], Андрей Крупин

VK Cloud представила облачный сервис для создания виртуальных рабочих мест

Облачная платформа VK Cloud дополнилась сервисом Cloud Desktop, построенным на базе решения для удалённого доступа Termidesk компании «Увеон — облачные технологии» (входит в «Группу Астра»).

Cloud Desktop относится к категории VDI-решений (Virtual Desktop Infrastructure) и предназначен для развёртывания инфраструктуры виртуальных рабочих мест и организации безопасной удалённой работы сотрудников. Продукт поддерживает интеграцию со службами каталогов Active Directory/OpenLDAP, включает средства разграничения прав доступа к пулам виртуальных рабочих столов для отдельных пользователей или их групп и позволяет объединить все корпоративные приложения компании в единую рабочую область, обеспечивая масштабирование и гибкость виртуальных рабочих мест сотрудников.

Предусмотрена поддержка Windows и Linux. Ограничений по приложениям нет — можно установить как стандартные, так и специализированные программы. Передача данных выполняется через протокол RDP. Системный администратор компании может централизованно управлять развёрнутой в облаке VDI-инфраструктурой, что упрощает настройку, техническую поддержку и работу с обновлениями. С помощью сервиса можно выделять вычислительные ресурсы, выбирать операционную систему и настраивать политики доступа, добавлять или отключать удалённых сотрудников.

Шифрование и защищённый шлюз для подключения внешних пользователей обеспечивает безопасность работы сервиса. Обработка корпоративной информации разного уровня конфиденциальности происходит изолированно. Решение поддерживает регистрацию событий безопасности, защиту от несанкционированного копирования и потери данных. Данные размещаются на облачной платформе VK Cloud, инфраструктура которой соответствует требованиям 152-ФЗ по уровню защищённости УЗ-1.

Постоянный URL: http://servernews.ru/1102925
22.03.2024 [16:52], Владимир Мироненко

Рост выручки VK Cloud за 2023 год составил 75,4 %

VK сообщила финансовые результаты IV квартала и всего 2023 года. По итогам квартала выручка компании выросла на 34 % год к году до 42,5 млрд руб. Выручка за год составила 132,8 млрд руб., превысив показатель 2022 года на 36 %.

Наибольший рост показал сегмент «Технологии для бизнеса» (VK Tech), увеличивший выручку в 2023 году на 67,5 % до 9,7 млрд руб. Основными драйверами роста сегмента были облачные сервисы платформы VK Cloud (рост год к году на 75,4 %) и коммуникационные решения VK WorkSpace (рост — 68 %). Выручка HR Tech-сервисов увеличилась за год в 3,1 раза.

 Источник изображения: VK

Источник изображения: VK

По итогам IV квартала выручка VK Cloud выросла год к году в 2 раза, коммуникационной платформы VK WorkSpace — на 36 %, сервисов HR Tech — в 4 раза. Реализация промежуточного ПО для хранения и обработки данных Tarantool увеличилась в 3 раза. Компания сообщила, что в IV квартале 2023 года VK Teams расширил возможности для видеоконференций.

За отчётный квартал средняя месячная аудитория сервиса «Облако Mail.ru», входящего в сегмент «Экосистемные сервисы и прочие направления», составила 21,9 млн человек, а средняя дневная аудитория — 2,4 млн человек. Всего за квартал пользователи загрузили в «Облако Mail.ru» около 7,8 млрд файлов.

Компания сообщила о формировании резерва сетевого и серверного оборудования. В частности, VK приступила к строительству собственных ЦОД с целью масштабирования, повышения надёжности и отказоустойчивости инфраструктуры. Также был реализован ряд технических обновлений и программ по повышению информационной безопасности и защите персональных данных пользователей.

Постоянный URL: http://servernews.ru/1102140
22.03.2024 [14:56], Сергей Карасёв

Beeline cloud запустил облачный сервис хранения и обработки данных Data Platform

Beeline cloud объявил о запуске облачной платформы Data Platform, предназначенной для хранения и обработки данных любого типа. Говорится, что это фактически экосистема сервисов с возможностью их бесшовной и гибкой интеграции друг с другом. Data Platform является альтернативой системам зарубежных облачных провайдеров, которые начали блокировать доступ для российских пользователей.

В основу Data Platform положены open-source-технологий S3, Kafka, NiFi, Greenplum, ClickHouse и PostgreSQL. Утверждается, что новая платформа обеспечивает прозрачность и гибкость использования, позволяет управлять жизненным циклом данных, размещённых в различных корпоративных системах.

В состав Data Platform входят три ключевых сервиса. Один из них — Cloud Arenadata DB: это массово-параллельная СУБД для построения корпоративного хранилища данных, основанного на ПО с открытым кодом. Вторым компонентом является Cloud BI — подсистема визуализации и аналитики данных в облаке на базе открытого софта собственной разработки. Третий сервис — объектное хранилище Cloud Object Storage без ограничений по объёму, с возможностью моментального масштабирования и доступом из любой точки.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Отмечается, что Data Platform даёт возможность хранить, обрабатывать и управлять большим объёмом данных с учётом бизнес-задач. При этом достигается высокая согласованность благодаря объединению разрозненной информации в единую среду управления. Beeline cloud подчёркивает, что инфраструктура обладает высокой надёжностью как на физическом, так и на программном уровне.

Постоянный URL: http://servernews.ru/1102126
21.03.2024 [23:54], Владимир Мироненко

В Google Cloud появятся ускорители NVIDIA Grace Blackwell

Google Cloud и NVIDIA объявили о расширении партнёрства, в рамках которого новая ИИ-платформа NVIDIA Grace Blackwell и NVIDIA DGX Cloud на её основе появятся в Google Cloud Platform, а клиентам станут доступны инференс-микросервисы NVIDIA NIM. Также было сказано об общедоступности DGX Cloud на базе NVIDIA H100.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Среди ключевых нововведений отмечены следующие:

  • Внедрение NVIDIA Grace Blackwell для работы с ИИ-моделями с триллионами параметров. Google станет одним из первых облачных провайдеров, предлагающих инстансы на базе Blackwell.
  • Переход DGX Cloud в Google Cloud Platform на суперускорители GB200 NVL72. Текущий вариант DGX Cloud теперь общедоступен и работает на базе инстансов Google Cloud A3 с ускорителями NVIDIA H100.
  • Возможность использование JAX с ускорителями NVIDIA H100 посредством MaxText и Accelerated Processing Kit (XPK).
  • Появление NVIDIA NIM в Google Kubernetes Engine (GKE)
  • Упрощённое развёртывание NVIDIA NeMo с помощью GKE и Google Cloud HPC Toolkit.
  • Vertex AI теперь поддерживает инстансы Google Cloud A3 с NVIDIA H100 и инстансы G2 с NVIDIA L4.
  • Сервис Dataflow теперь также поддерживает обработку данных на ускорителях NVIDIA.
Постоянный URL: http://servernews.ru/1102087
21.03.2024 [00:51], Владимир Мироненко

Облачный ИИ-суперкомпьютер AWS Project Ceiba получит 21 тыс. суперчипов NVIDIA GB200

Amazon Web Services (AWS) и NVIDIA объявили о расширении сотрудничества, в рамках которого ускорители GB200 и B100 вскоре появятся в облаке AWS. Кроме того, компании объявили об интеграции Amazon SageMaker с NVIDIA NIM для предоставления клиентам более быстрого и дешёвого инференса, о появлении в AWS HealthOmics новых базовых моделей NVIDIA BioNeMo, а также о поддержке AWS обновлённой платформы NVIDIA AI Enterprise.

Сотрудничество двух компаний позволило объединить в единую инфраструктуру их новейшие технологии, в том числе многоузловые системы на базе чипов NVIDIA Blackwell, ПО для ИИ, AWS Nitro, сервис управления ключами AWS Key Management Service (AWS KMS), сетевые адаптеры Elastic Fabric (EFA) и кластеры EC2 UltraCluster. Предложенная инфраструктура и инструменты позволят клиентам создавать и запускать LLM с несколькими триллионами параметров быстрее, в больших масштабах и с меньшими затратами, чем позволяли EC2-инстансы с ускорителями NVIDIA прошлого поколения.

AWS предложит кластеры EC2 UltraClusters из суперускорителей GB200 NVL72, которые позволят объединить тысячи чипов GB200. GB200 будут доступны и в составе инстансов NVIDIA DGX Cloud. AWS также предложит EC2 UltraClusters с ускорителями B100. Amazon отмечает, что сочетание AWS Nitro и NVIDIA GB200 ещё больше повысит защиту ИИ-моделей: GB200 обеспечивает шифрование NVLink, EFA шифрует данные при передаче между узлами кластера, а KMS позволяет централизованно управлять ключами шифрования.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Аппаратный гипервизор AWS Nitro, как и прежде, разгружает CPU узлов, беря на себя обработку IO-операций, а также защищает код и данные во время работы с ними. Эта возможность, доступная только в сервисах AWS, была проверена и подтверждена NCC Group. Инстансы с GB200 поддерживают анклавы AWS Nitro Enclaves, что позволяет напрямую взаимодействовать с ускорителем и данными в изолированной и защищённой среде, доступа к которой нет даже у сотрудников Amazon.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Чипы Blackwell будут использоваться в обновлённом облачном суперкомпьютере AWS Project Ceiba, который будет использоваться NVIDIA для исследований и разработок в области LLM, генерация изображений/видео/3D, моделирования, цифровой биологии, робототехники, беспилотных авто, предсказания климата и т.д. Эта первая в своём роде машина на базе GB200 NVL72 будет состоять из 20 736 суперчипов GB200, причём каждый из них получит 800-Гбит/с EFA-подключение. Пиковая FP8-производительность системы составит 414 Эфлопс.

Постоянный URL: http://servernews.ru/1102011
20.03.2024 [02:17], Владимир Мироненко

Oracle и NVIDIA предложат суверенные ИИ-фабрики

Oracle и NVIDIA объявили о расширении сотрудничества для предоставления суверенного ИИ клиентам по всему миру — программно-аппаратные решения обеих компаний позволят правительствам и предприятиями формировать ИИ-фабрики, говорится в пресс-релизе. Облачные сервисы Oracle используют ряд платформ NVIDIA, включая аппаратную инфраструктуру и программную платформу NVIDIA AI Enterprise, в том числе недавно анонсированные микросервисы вывода NVIDIA NIM.

Такие ИИ-фабрики позволят развернуть облачные сервисы, работающие локально и размещённые в безопасных кампусах на территории страны или организации. Сочетание полнофункциональной ИИ-платформы NVIDIA с корпоративным ИИ-инструментами Oracle, которые можно развернуть в выделенном регионе OCI, позволит получить современное ИИ-решение с повышенным уровенем контроля, защиты и безопасности. По словам Oracle, компания является единственным гиперскейлером, способным предоставлять ИИ-решения и полноценные облачные услуги локально и в любом месте.

Oracle также задействует чипы NVIDIA Blackwell (GB200 и B200) в OCI Supercluster и OCI Compute. OCI Supercluster станет значительно быстрее благодаря новым bare metal-инстансам, RDMA-сети со сверхмалой задержкой и высокопроизводительному хранилищу. В OCI появятся и сервисы NVIDIA NIM и CUDA-X, а также NVIDIA NeMo Retriever.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Наконец, в DGX Cloud on OCI станут доступны инстансы на базе суперускорителей GB200 NVL72 для работы с LLM с триллионами параметров. Полный кластер DGX Cloud будет включать более 20 тыс. ускорителей GB200, интерконнект NVLink 5 и сеть NVIDIA InfiniBand XDR.

Постоянный URL: http://servernews.ru/1101930
12.03.2024 [19:28], Сергей Карасёв

Годовая выручка beeline cloud взлетела на 60 % — до 2,7 млрд руб.

Облачная платформа beeline cloud опубликовала показатели деятельности в 2023 году. Выручка достигла 2,7 млрд руб., что на 60 % больше по сравнению с 2022-м. Столь значительный рост, как отмечается, обусловлен расширением спектра предоставляемых услуг и наращиванием присутствия на рынке облачных сервисов.

Количество клиентов beeline cloud по итогам 2023-го составило 2990 компаний. Это на 21 % больше в годовом исчислении. Капитальные вложения (CAPEX) оцениваются в 0,9 млрд руб., что соответствует росту на 29 %. Показатель EBITDA увеличился год к году на 25 % — до 0,9 млрд руб.

 Источник изображения: beeline cloud

Источник изображения: beeline cloud

В общем объёме годовой выручки 84,8 %, или 2,3 млрд рублей, пришлось на облачные сервисы. Ещё 15,2 % — около 417 млн руб. — обеспечили сервисы информационной безопасности. По второму сегменту рост годовой выручки зафиксирован на отметке 40,4 %. Среди трёх самых востребованных решений в сфере безопасности называются Cloud WAF с ростом в 3,1 раза по отношению к 2022-му, Cloud NGFW с увеличением продаж в 1,9 раза и Cloud MFA (ИБ-сервис многофакторной аутентификации пользователей) с 3-кратным ростом.

В сегменте IaaS годовая выручка поднялась в 1,5 раза, тогда как SaaS-решения показали 40-кратный рост. В течение 2023 года введены в эксплуатацию 189 серверных стоек, что на 16 % больше, чем в 2022-м. Ключевыми достижениями PaaS-направления названы запуск сервисов Managed Kubernetes, а также появление платформы данных и первого сервиса DBaaS на базе Greenplum. В области IaaS упомянут переход на новую архитектуру, что привело к усилению информационной безопасности и значительному улучшению доступности облачных вычислений. Кроме того, в 2023 внедрены новые продукты для управления корпоративными почтовыми сервисами, основанными на платформе Communigate Pro: Cloud Mail Gate и Private Cloud Mail Gate.

Постоянный URL: http://servernews.ru/1101599
Система Orphus