Материалы по тегу: azure

03.07.2020 [12:30], Юрий Поздеев

Commvault заключила стратегическое соглашение с Microsoft

Commvault заключила стратегическое соглашение с Microsoft о применении SaaS (ПО как услуга) и облачных технологий для управления данными. Речь идет о технологии Commvault Metallic SaaS, которая будет включена в список приложений Microsoft Azure Marketplace и будет предлагаться для защиты данных заказчиков, которые используют публичное облако или гибридную инфраструктуру.

Тесная интеграция программных продуктов Commvault и Microsoft позволит выстроить многоуровневую масштабируемую систему безопасности, в которой реализована защита от случайного удаления или порчи информации в офисных приложениях. Кроме того, Metallic предлагает несколько дополнительных опций для защиты VMware и Microsoft SQL. Не забывает Commvault и про защиту клиентских конечных устройств (ноутбуки, ПК), для которых есть версия Endpoint, с возможностью облачного развертывания и управления.

Кроме существующих продуктов в портфеле Commvault и Microsoft, были намечены планы по разработке нового решения – Metallic Cloud Storage SaaS на базе Azure Blob Storage, что позволит осуществлять безопасную миграцию высоконагруженных сервисов в облако без существенных потерь производительности.

Постоянный URL: http://servernews.ru/1014835
22.06.2020 [20:03], Владимир Фетисов

Microsoft приобрела работающую в сфере промышленной кибербезопасности компанию CyberX

Microsoft продолжает реализовывать свою стратегию инвестирования $5 млрд в течение четырёх лет в сферу Интернета вещей (IoT) покупкой израильской компании CyberX. Сумма сделки не была озвучена, но, по мнению осведомлённых источников, она составила около $165 млн.

Компания CyberX занимается созданием решений для обеспечения кибербезопасности в сфере IoT. Разработки CyberX используются разными производственными предприятиями, клиентами из сектора энергетики, химической отрасли и др.

Одна из разработок компании позволяет клиентам контролировать и получать оперативную информацию о защищённости IoT-устройств, за счёт чего упрощается процесс мониторинга и увеличивается скорость реагирования в случае возникновения инцидентов.

Технологии CyberX делают возможным формирование цифровых карт из тысяч устройств, расположенных на заводе или в здании, которые помогают поддерживать должный уровень безопасности в режиме реального времени. Согласно имеющимся данным, CyberX предлагает своим клиентам решения для обеспечения защиты промышленных систем управления и IoT-устройств от таргетированных атак, вредоносного ПО, угроз, исходящих от третьих сторон и инсайдерских угроз.

Представители Microsoft заявили, что технологии CyberX станут дополнением к уже используемым IoT-службам Microsoft Azure, а также таким продуктам, как Azure Sentinel. Разработки израильской компании помогут идентифицировать угрозы, которые могут охватывать конвергентные IT-сети.

«Технологии CyberX будут дополнять действующие возможности безопасности IoT в Azure и распространятся на существующие устройства, включая используемые в промышленных IoT-системах, операционных технологиях и сценариях инфраструктуры», — говорится в сообщении Microsoft.

Постоянный URL: http://servernews.ru/1013971
18.06.2020 [15:25], Владимир Мироненко

Из-за пандемии Microsoft Azure пришлось увеличить ёмкость каналов на 110 Тбит/с

Microsoft поделилась информацией о работе, которую пришлось проделать в Azure в связи с введённым из-за пандемии режимом изоляции и переходом многих компаний на удалённый режим работы. В частности, корпорации пришлось ввести круглосуточный график развертывания новых стоек, чтобы удовлетворить спрос на облачные сервисы.

Согласно собственным данным Microsoft, пандемии стала «виновником» нового рекорда, когда за один день в группах было проведено 2,7 млрд минуты совещаний в формате видеоконференции. Впрочем, и этот рекорд вскоре был побит, когда в апреле за день состоялись видеоконференции общей продолжительностью 4,1 млрд минуты.

Чтобы обеспечить достаточную способность и справиться с ситуацией, в первые недели пандемии Microsoft создала удалённую группу, которой было поручено собирать и анализировать данные телеметрии, связанные с тем, как схемы использования команд изменялись с течением времени, когда пандемия охватила Китай и Италию.

«По мере того, как всё больше стран вводило карантин, десятки сотрудников Microsoft из Редмонда собирались каждый воскресный вечер для удалённого просмотра телеметрии, поиска узких мест и устранения неполадок, поскольку беспрецедентное количество удалённых работников в Европе начинало входить в систему утром в понедельник», — говорится в сообщении в блоге корпорации.

Что касается обычных пользователей, то принадлежащая Microsoft игровая платформа Xbox также продемонстрировала 50-процентное увеличение числа игроков, начавших играть в многопользовательские игры, и 30-процентное увеличение пиковых уровней одновременного использования. Обычно такие всплески происходят сезонно или после выхода новых игр.

Xbox тоже использует платформу публичного облака Microsoft Azure, и в ответ компания начала переносить игровые рабочие нагрузки из ЦОД Azure в Великобритании и Азии, где спрос на ёмкость был особенно высок, для предотвращения ухудшения игрового процесса.

Корпорация внедрила систему мер по выполнению замеров, в результате чего доступ к дополнительной ёмкости ЦОД стал приоритетным для использования критически важными группами пользователей и существующими клиентами. В начале апреля она также подтвердила, что работает над «ускорением» создания дополнительных мощностей ЦОД в странах и географических регионах, где спрос на службы Azure, Office и Teams был чрезвычайно высок.

Работа велась 24 часа в сутки, причём сотрудники должны были выполнять меры социального дистанцирования. Их снабдили защитными средствами, а в ЦОД был введён строгий режим дезинфицирования.

«Группы разработчиков продуктов Microsoft работали над поиском дальнейших способов высвободить ресурсы Azure для других клиентов, и компания удвоила ёмкость одного из своих подводных кабелей для передачи данных через Атлантику и провела переговоры с владельцами другого, чтобы открыть дополнительную ёмкость, — сообщается в блоге. — Сетевые инженеры установили новое оборудование и утроили ёмкость кабеля America Europe Connect всего за две недели».

По словам технического директора Microsoft Azure Марка Руссиновича (Mark Russinovich), команда Microsoft Azure Wide Area Network добавила за два месяца 110 Тбит/с ёмкости оптоволоконной сети, которая отвечает за передачу собственных данных Microsoft по всему миру.

«Microsoft также перенесла внутренние рабочие нагрузки Azure, чтобы избежать пиков спроса в разных частях мира и перенаправить трафик из регионов, где наблюдается высокий спрос», — говорится в сообщении в блоге.

Эта работа позволила гарантировать возможность масштабирования критически важных для клиентов Microsoft служб по мере необходимости, не влияя на их стабильность, в то же время позволяя командам облачного инжиниринга компании точно определять области внутри своей инфраструктуры, где можно повысить эффективность, чтобы вычислительные ресурсы могли высвобождаться ещё больше.

Постоянный URL: http://servernews.ru/1013653
16.06.2020 [21:58], Юрий Поздеев

Microsoft анонсировала новые Azure-инстансы на базе Intel Xeon Platinum

Microsoft анонсировали новые виртуальные машины общего назначения для Azure. «Сердцем» их стал заказной CPU Intel Xeon Platinum 8272CL, 26 ядер которого работают на частоте 2,5 ГГц, а в Turbo Boost все ядра одновременно могут работать на частоте 3,4 ГГц. Процессор поддерживает технологии Hyper-Treading, DL Boost и AVX-512.

На базе этого нестандартного процессора Microsoft представляет два семейства виртуальных машин Azure:

  • Azure Ddv4, Ddsv4, Edv4 и Edsv4, которые содержат локальный диск для размещения временных файлов
  • Azure Dv4, Dsv4, Ev4 и Esv4 – новая категория виртуальных машин, без локального диска, но с поддержкой внешнего хранилища.

По заявлениям самой Microsoft новые ВМ примерно на 20% более производительные, чем их предшественники из семейства Dv3 и Ev3. Новые виртуальные машины доступны на данный момент только в США и Канаде.

Инстансы Ddv4 и Ddsv4 могут предоставить пользователю до 64 vCPU, 256 Гбайт оперативной памяти и быстрое локальное SSD-хранилище ёмкостью до 2,4 Тбайт. Они оптимально подходят для разработки и тестирования, небольших баз данных и веб-серверов. Такие сервисы обычно требуют быструю дисковую подсистему для хранения временных файлов. Виртуальные машины Edv4 и Edsv4 аналогичны серии В, но характеризуются большим объемом памяти (до 504 Гбайт). Они оптимальны для серверов баз данных и аналитики.

Виртуальные машины Dv4, Dsv4, Ev4, Esv4 имеют ровно те же характеристики, но стоят дешевле и не имеют локальной дисковой подсистемы. Тяжело сразу разобраться в большом количестве новых виртуальных машин и их отличиях от старых, поэтому Microsoft предоставило краткую таблицу сравнения:

Постоянный URL: http://servernews.ru/1013543
16.06.2020 [17:26], Юрий Поздеев

Microsoft и SAS заключили соглашение о партнерстве в облаке Azure

Microsoft и SAS заключили соглашение о стратегическом партнерстве, которое позволит использовать аналитические продукты и промышленные решения SAS на платформе Microsoft Azure, которая приобретает статус рекомендованного поставщика облачных услуг для SAS Cloud.

Теперь аналитические инструменты SAS интегрированы в Azure Marketplace. Таким образом, SAS расширяет свое присутствие на рынке, за счет того, что ее аналитические инструменты интегрированы в Azure, Dynamics 365, Microsoft 365, Power Platform. Это самом по себе увеличивает потенциальную клиентскую базу в несколько раз.

В портфель решений SAS входят решения для управления цепочками поставок в ритейле, инструменты для аналитики данных, платформа для облачных вычислений, система управление рисками, системы для противодействия мошенничеству. Клиентами SAS в России являются крупные компании: Сбербанк, ВТБ, Ингосстрах, Пятерочка, Ростелеком, РЖД и другие. В рамках заключенного соглашения Microsoft и SAS будут проводить совместные проекты в сфере R&D (исследований и разработок) и создавать новые готовые отраслевые решения.

Постоянный URL: http://servernews.ru/1013532
03.06.2020 [12:54], Владимир Мироненко

WANdisco обеспечит миграцию данных в Azure в петабайтном масштабе

WANdisco и Microsoft объединили усилия для создания собственного сервиса Azure, который позволяет организациям перемещать большие объёмы данных в облако без прерывания бизнес-процессов. В основе платформы WANdisco LiveData Platform for Azure лежит запатентованный механизм Distributed Coordination Engine (DConE), который во время миграции данных обеспечивает Active-Active репликацию без единой точки отказа или узких мест.

С помощью этого механизма из серверов формируется распределённая система, а сами они могут находиться и в одной локальной сети, и за тысчи километров друг от друга. Кроме того, DConE не меняет поведение приложений и обеспечивает прозрачность работы. По словам Дауда Хана (Daud Khan), вице-президента WANdisco по корпоративному развитию, это максимизирует производительность и снижает затраты, обеспечивая согласованный доступ к данным в реальном времени и совместную работу в глобально распределённой организации. 

В результате такая система позволяет осуществлять миграцию данных в облака в петабайтном масштабе без прерывания работы ПО, чего практически невозможно было ранее достичь, отметил Мерв Адриан (Merv Adrian), вице-президент Gartner по исследованиям в области данных и аналитики. Возможность синхронизации означает, что изменение, сделанное на стороне-источнике, пока передача активна, будет зафиксировано и применено на целевом конечном пункте, что позволит бизнесу продолжать обычную работу с обеих сторон: и локально, и в облаке.

«Поскольку объёмы слишком велики для большинства организаций, у них было два варианта: либо дублировать системы, пока вы не закончите (миграцию), либо согласиться с тем, что во время миграции вы не сможете работать, — сказал он. — Таким образом, для многих организаций требование создать ещё одну копию до того, как вы её переместите, а затем переместить, было сложным, трудоёмким, разрушительным, рискованным и дорогостоящим».

Чтобы упростить процесс переноса данных в хранилище Azure Data Lake Storage, WANdisco и Microsoft предоставляют два инструмента: LiveData Migrator for Azure и LiveData Plane for Azure. Согласно WANdisco, эти сервисы автоматически обеспечивают в режиме Active-Active целостность данных локальной Hadoop-системой и Azure Data Lake Storage Gen2. LiveData Migrator for Azure упрощает миграцию данных в Azure Data Lake Storage, используя одно сканирование данных и гарантируя, что любые изменения в источнике отражаются в хранилище ADLS по мере выполнения миграции.

С помощью LiveData Plane for Azure организации смогут обеспечивать согласованность данных между источником и местом назначения, создав настоящее гибридное облако, в котором приложения могут читать и записывать данные, а все изменения будут тут же синхронизироваться. «Это устраняет необходимость большого переключения между средами и устраняет риск потери данных во время миграции», — сообщил Хан.

Постоянный URL: http://servernews.ru/1012508
19.05.2020 [18:00], Игорь Осколков

Microsoft создала облачный суперкомпьютер для ИИ

На проходящей сейчас конференции Build 2020 компания Microsoft объявила о создании суперкомпьютера на базе Azure, производительность которого, как заявлено, достаточна для того, чтобы попасть в пятёрку лидеров рейтинга TOP-500. Новая машина была развёрнута в Microsoft Azure эксклюзивно для проекта OpenAI, о сотрудничестве с которым было объявлено в прошлом году.

Суперкомпьютер ориентирован на обучение сверхтяжёлых ИИ-моделей следующего поколения.

В частности, корпорация имеет собственное семейство таких моделей, Microsoft Turing models, куда входит и самая крупная из существующих сейчас языковая модель Turing Natural Language Generation (T-NLG), включающая 17 млрд параметров. Обучение такой модели — процесс весьма затратный.

В сообщении компания не приводит точную конфигурацию нового суперкомпьютера, говоря лишь о том, что у него имеется более 285 тыс. ядер CPU, 10 тыс. GPU и 400Gb-интерконнект. В Microsoft Azure есть несколько вариантов HPC-инстансов. Например, в основе NDv2 лежат машины, несущие 8 ускорителей NVIDIA Tesla V100, которые можно объединять в кластеры. Заказчикам доступны кластера из 100 таких машин, объединённых InfiniBand. Есть в Azure и другие ускорители — инстансы NDv3 используют системы с восемью картами Graphcore C2.

Напомним, что на прошлой неделе NVIDIA вместе с анонсом ускорителей A100 на базе архитектуры Amper сообщила, что её собственный ИИ-суперкомпьютер SATURN V пополнился четырьмя системами Superpod, каждая из которых состоит из 140 машин DGX A100. Суммарная производительность в ИИ-задачах достигает фантастических 5 экзафлопс. Впрочем, на «классических» FP64-вычислениях обновление платформы даёт 93 Пфлопс в пике. Этого тоже хватит, чтобы попасть в Топ-5 нынешнего списка TOP-500. Кроме того, SATURN V на самом деле не является единой системы — он разбит на кластеры, находящиеся в четырёх разных местах.

Постоянный URL: http://servernews.ru/1011312
18.05.2020 [20:07], Игорь Осколков

Серверные HDD с PCIe и NVMe могут стать реальностью

Секция докладов о различных аспектах хранения данных в рамках прошедшего OCP Virtual Summit 2020 была, конечно, посвящена по большей части SSD и связанным технологиям. Но было и несколько выступлений о будущем жёстких дисков, от которых индустрия отказаться пока не может. 

Собственно говоря, самая интересная тема вынесена в заголовок — речь действительно о том, чтобы, наконец, всем сорганизоваться и создать HDD с интерфейсом PCI Express и поддержкой протокола NVMe. И такие гибриды могут оказаться ближе, чем думается, к воплощению в «железе».

Идея подобных устройств не нова и о ней вспоминали неоднократно после массового распространения стандарта NVMe, которому скоро исполнится 10 лет. По словам представителя Microsoft Azure, основная и, по большому счёту, единственная цель всей этой затеи — полная унификация методов доступа к накопителям с программной точки зрения, на уровне драйверов и протокола.

Переход HDD на NVMe избавит и от необходимости трансляции протоколов, и от самих контроллеров с экспандерами, нужных для обслуживания большого числа накопителей. С другой стороны, вместо экспандеров могут понадобиться PCIe-свитчи. Даже для самого быстрого жёсткого диска возможностей одной линии PCI Express 3.0 более чем достаточно. Для двухпортовых, так и быть, будет выделено две линии. Да, сейчас уже есть CPU с большим количеством PCIe, но их root-комплексы не готовы столь мелко «нарезать» линии.

Общая шина для всех современных устройств позволяет общаться им без прямого участия процессора, что может быть полезно в рамках концепции computational storage, которая предполагает перенос вычислений поближе к месту хранения данных, или, к примеру, для организации RDMA. Эксперименты в этих областях уже давно проводятся в том или ином виде: на днях мы писали про Samsung E-SSD с Ethernet-контроллером и поддержкой NVMe-oF, а ранее рассказывали о SmartSSD PM983F с FPGA на борту.

С приходом NVMe многоактуаторные жёсткие диски станут востребованными, а SMR, к примеру, хорошо подойдёт для зонирования. Однако безболезненным процесс унификации не будет. Seagate уже давно прорабатывает эту тему — доклад на нынешнем саммите является развитием прошлогодней презентации. Компания изучает возможные форм-факторы будущих NVMe HDD, но универсального решения нет — и у U.2, и у U.3, как у наиболее очевидных кандидатов, есть свои плюсы и минусы.

И, похоже, столь желанной стопроцентной совместимости с текущими СХД не добиться никак. Тем не менее, Seagate верит, что в дальней перспективе унификация на базе NVMe произойдёт — и гиперскейлеры, и корпоративные заказчики будут использовать одинаковый формат накопителей.

Когда появятся NVMe HDD? Представитель Azure полагает, что в течение 4-5 лет, а к концу десятилетия они могут стать массовыми. Seagate же говорит (но не обещает), что если будет интерес со стороны клиентов, то прототипы будут готовы уже в следующем году, а реальными такие диски могли бы стать в течение пары лет. Но все сходятся во мнении, что объединяться и действовать надо уже сейчас.

Форм-факторы EDSFF E3

Форм-факторы EDSFF E3

В ближайших планах стоит запрос к комитету NVM Express на формирование подгруппы. Правда, есть шанс, что в далёкой перспективе HDD всё же не смогут удержать низкую цену за терабайт и тогда вся эта инициатива окажется не нужна.

Постоянный URL: http://servernews.ru/1011148
08.05.2020 [00:03], Владимир Мироненко

Доминированию Amazon и Microsoft на европейском рынке облаков пока ничто не угрожает

Согласно данным аналитической фирмы Synergy Research, компании Amazon и Microsoft доминируют на европейском рынке облачной инфраструктуры. Вне зависимости от различия культур и экономического развития, существующего между европейскими странами, Amazon Web Services (AWS) является ведущим облачным провайдером, а Microsoft находится на втором месте по доходам.

Глобальные технологические гиганты и локальные облачные провайдеры сражаются за третье место, но лишь немногие имеют шансы бросить вызов AWS и Microsoft, занимающим ведущие позиции на всём континенте.

По словам Джона Динсдейла (John Dinsdale), главного аналитика Synergy Research Group, в ожесточённой борьбе за третье место чаще всего побеждает Google. Другими претендентами в Европе на высокие места в рейтинге тоже являются глобальные игроки — IBM, Rackspace, Salesforce, Oracle и SAP.

«Основную конкуренцию им оказывают местные игроки, зачастую работающие в основном в одной стране, включая крупных операторов и местных поставщиков ИТ-услуг. В эту группу входят Deutsche Telekom, OVH, Orange, KPN, Swisscom, Telecom Italia, Telefonica, British Telecom, Claranet и iomart», — рассказал Динсдейл.

Великобритания, Германия, Франция и Нидерланды были названы аналитиками Synergy четырьмя крупнейшими потребителями услуг облачной инфраструктуры, причем на эти четыре страны в совокупности приходится 63 % дохода, получаемого от облачных продаж.

Хотя Европа остается гораздо меньшим рынком для облачных сервисов, чем США, здесь наблюдаются более высокие темпы роста, на которые оказывают влияние крупнейшие игроки. «Нет недостатка в компаниях, борющихся за долю на рынке, но по всему региону шесть ведущих облачных провайдеров контролируют три четверти рынка, и их доля растет», — отметил Динсдейл.

«Учитывая важность масштаба, глобального присутствия и денежных ресурсов, любому из небольших облачных провайдеров будет сложно изменить эту ситуацию», — добавил он.

Постоянный URL: http://servernews.ru/1010420
07.05.2020 [14:29], Владимир Мироненко

Microsoft откроет новый, 60-й по счёту облачный регион в Новой Зеландии

Несмотря на то, что перспективы дальнейшего развития мировой экономики в связи с пандемией коронавируса остаются неопределёнными, в одной из областей ИТ-индустрии — облачных вычислениях — продолжает наблюдаться рост.

Именно поэтому Microsoft, сообщившая о росте доходов от облачных служб Azure на 59 % за последний квартал, объявила о планах открыть новый облачный регион и ЦОД в Новой Зеландии после получения одобрения Офиса зарубежных инвестиций страны.

Scott E Barbour / Getty Images

Scott E Barbour / Getty Images

Как отметил в Твиттере генеральный директор Microsoft Сатья Наделла (Satya Nadella), это должно помочь компаниям Новой Зеландии, находящимся в процессе цифровой трансформации. «Сейчас, более чем когда-либо, мы видим мощь цифровой трансформации, и сегодня мы объявляем о новом регионе центров обработки данных в Новой Зеландии, чтобы помочь каждой организации в стране создать свои собственные цифровые возможности», — сообщил Наделла.

Компания намерена сделать больше, чем просто построить новую площадку. Строительство является лишь частью более объёмных инвестиций по всей стране, включая финансирование обучения навыкам и способствование снижению вредного воздействия ЦОД на окружающую среду.

С появлением ЦОД в Новой Зеландии компания будет иметь 60 облачных регионов, охватывающих 140 стран мира. Новая площадка будет предназначен не только для служб Azure. Она также поможет клиентам использовать Office 365 и продукты Dynamics 365.

Постоянный URL: http://servernews.ru/1010370
Система Orphus