Материалы по тегу: ии

25.09.2020 [19:53], Владимир Мироненко

NUVIA, обещающая побороть AMD и Intel в серверах, получила $240 млн для производства первых чипов

Стартап NUVIA, основанный бывшими топ-менеджерами Apple, сообщил о завершении раунда финансирования серии B в размере $240 млн. До этого NUVIA провёл раунд финансирования серии A, в результате которого было привлечено $53 млн инвестиций от Dell Technologies Capital и ещё нескольких фирм из Кремниевой долины.

Нынешний раунд финансирования возглавила инвестиционная фирма Mithril Capital, соучредителем которой является один из первых инвесторов Facebook Inc. Питер Тиль (Peter Thiel), в партнёрстве с основателями Marvell Technology Group Сехатом Сутарджа (Mithril Capital) и Вейли Дай (Weili Dai), а также фондами и аккаунтами под управлением BlackRock, Fidelity Management & Research Company и Temasek при участии Atlantic Bridge, Redline Capital, Capricorn Investment Group, Dell Technologies Capital, Mayfield, Nepenthe LLC и WRVI Capital.

Базирующаяся в Санта-Кларе (штат Калифорния) NUVIA была основана в прошлом году с целью разработки ARM-процессоров для ЦОД, которые будут быстрее и энергоэффективнее существующих решений x86-64 от AMD и Intel, доминирующих на рынке. В этом должен помочь опыт команды бывших сотрудников Apple в создании мощных чипов для устройств с питанием от батарей.

Руководители NUVIA заявили, что финансирование поможет компании завершить разработку своих чипов, первый из которых, по их ожиданиям, поступит к клиентам к 2022 году. Компания нацелена на клиентов, которые управляют крупными ЦОД, в основном использующими чипы Intel и AMD. NUVIA не раскрывает потенциальных клиентов, хотя и сообщила, что сотрудничает с Dell Technologies Inc, чьё подразделение венчурного капитала произвело в неё инвестиции.

NUVIA также отказалась сообщить, присоединится ли Тиль или кто-либо из Mithril к её правлению в связи с успешным раундом финансирования. Ранее сообщалось, что NUVIA работает над созданием SoC Orion, в составе которого будет ARM-процессор Phoenix.  Следует отметить, что Питер Тиль — член правления Facebook, одного из крупнейших покупателей микросхем для центров обработки данных.

Впрочем, есть и неприятные новости. В начале сентября компания покинул вице-президент по программному обеспечению Джон Мастерс (Jon Masters), который вернулся в Red Hat, где до этого проработал 14 лет и отвечал за разработку для ARM-платформ. Он присоединился к Nuvia в ноябре прошлого года, как раз после первого раунда финансирования. А вот второго раунда по каким-то причинам не дождался.

Постоянный URL: http://servernews.ru/1021557
25.09.2020 [14:03], Владимир Мироненко

Huawei анонсировала систему Intelligent Twins для модернизации госорганов и предприятий с использованием облака

Компания Huawei анонсировала на конференции HUAWEI CONNECT 2020 систему Intelligent Twins («Интеллектуальные двойники»), представляющую собой систематизированную эталонную архитектуру для интеллектуальной модернизации государственных органов и предприятий.

Основой Intelligent Twins является облачный сервис, а ядром — искусственный интеллект. С её помощью клиенты и партнёры Huawei смогут вырабатывать свои собственные интеллектуальные решения с целью трансформации всех отраслей для внедрения интеллекта во все сценарии. В Huawei охарактеризовали гибридную облачную базу, ИИ и открытую экосистему как три ключа к созданию надёжной системы Intelligent Twins.

«Intelligent Twins — это интегрированная система с взаимодействием в пяти технологических сферах, объединяющая облачный сервис, сеть, граничную архитектуру и устройство. Она способна воспринимать, осознавать, действовать и эволюционировать», — заявил президент бизнес-группы облачных вычислений и искусственного интеллекта Huawei Хоу Цзиньлун (Hou Jinlong, на фото ниже).

Архитектура Intelligent Twins состоит из четырёх слоев, формирующих интеллектуальную систему, способную работать совместно в облаке, Сети, периферийной среде и на устройстве:

  • Интеллектуальное взаимодействие: этот слой соединяет физический и цифровой миры, позволяя программному обеспечению, данным и алгоритмам ИИ свободно перетекать между облаком, граничной архитектурой и устройством. Слой интеллектуального взаимодействия использует Intelligent EdgeFabric (IEF), операционную систему на границе и в облаке. IEF может соединяться с различными ОС, например, с HarmonyOS, поэтому экосистему HarmonyOS можно с лёгкостью подключить к HUAWEI CLOUD.
  • Интеллектуальное подключение: это ствол системы Intelligent Twins, который обеспечивает соединение между интеллектуальным хабом и слоем интеллектуального взаимодействия. Благодаря ему система Intelligent Twins способна действовать в любых сценариях.
  • Интеллектуальный хаб: это центр принятия решений системы Intelligent Twins. Он построен на облачной инфраструктуре и обеспечивает работу приложений ИИ, обработку данных, а также поддержку умных приложений для всех сценариев. Слой интеллектуального хаба работает на базе гибридного облака и ИИ-технологий.
  • Интеллектуальные приложения: этот слой используется Huawei для внедрения инноваций вместе с клиентами и партнерами, комбинируя информационно-коммуникационные технологии с отраслевым опытом, перестраивая взаимодействие с пользователями и оптимизируя процессы.

Власти Шэньчжэня и Huawei анонсировали на конференции систему Shenzhen Intelligent Twins. С её помощью будет создана интегрированная система глубокого обучения на основе данных для координации деятельности целого города. Предполагается, что в дальнейшем будет построен эталонный «умный» город.

На сегодняшний день система Intelligent Twins внедрена в более чем 600 проектов. ИИ-технологии уже используются в 11 основных бизнес-процессах Huawei и применяются в 200 сценариях, включая НИОКР, производство, продажи и поставки. Система применяется в работе 8000 сотрудников цифровых направлений, в частности, для сложных сценариев с высокими требованиями, предусматривающих обработку больших объёмов данных и выполнение циклических операций.

Постоянный URL: http://servernews.ru/1021523
24.09.2020 [13:00], SN Team

20 октября 2020 года в режиме онлайн пройдет бесплатная конференция по Data Science

Участники конференции смогут услышать актуальные доклады, множество практических кейсов внедрения машинного обучения в бизнесе, подводных камней при разработке проектов, трендов в технологии.

В программе:

  • Дмитрий Ветров * Фрактальность функции потерь, эффект двойного спуска и степенные законы в глубинном обучении - фрагменты одной мозаики.
  • Станислав Кириллов * Новинки catboost: поддержка эмбеддингов, обучение на spark и это еще не всё!
  • Татьяна Савельева * Как устроен умный робот, улучшающий колл-центры Яндекс
  • и многие другие...

В конференции примут участие ведущие специалисты, инженеры, разработчики, готовые поделиться реальными кейсами с коллегами. Подробная информация на сайте мероприятия. Регистрация уже открыта.

Постоянный URL: http://servernews.ru/1021342
22.09.2020 [16:25], Сергей Карасёв

Сервер AAEON BOXER-6842M предназначен для решения задач в сфере ИИ

Компания AAEON, принадлежащая ASUS, представила сервер башенного типа BOXER-6842M на аппаратной платформе Intel. Новинка позиционируется в качестве платформы для решения различных задач, связанных с искусственным интеллектом (ИИ) и машинным зрением.

Основой служит процессор поколения Coffee Lake/Coffee Lake Refresh: это может быть, скажем, чип Xeon E-2124G или i9-9900T. В системе можно задействовать до 128 Гбайт оперативной памяти DDR4-2666 в конфигурации 4 × 32 Гбайт.

В зависимости от модификации доступны по одному слоту расширения PCIe x16 и PCIe x4 или два разъёма PCIe x8 и разъём PCIe x4. За сетевые подключения отвечают три гигабитных контроллера (2 × Intel i211AT и 1 × i219LM).

В сервер можно установить два 2,5-дюймовых накопителя с интерфейсом SATA 3.0 и один твердотельный модуль M.2 2280 NVMe SSD. Опционально также доступен коннектор mSATA.

Набор разъёмов включает два интерфейса HDMI, шесть портов USB 3.2 Gen1, четыре последовательных порта, три гнезда для сетевых кабелей, а также два 3,5-мм аудиогнезда. Габариты составляют 156,7 × 226,5 × 325 мм, вес — 7,1 кг.

На сервере может применяться операционная система Windows 10 Enterprise или Ubuntu 18.04.4. Диапазон рабочих температур простирается от минус 20 до плюс 65 градусов Цельсия. 

Постоянный URL: http://servernews.ru/1021239
18.09.2020 [15:55], Алексей Степин

ИИ-ускоритель Qualcomm Cloud AI 100 обещает быть быстрее и экономичнее NVIDIA T4

Ускорители работы с нейросетями делятся, грубо говоря, на две категории: для обучения и для исполнения (инференса). Именно для последнего случая важна не столько «чистая» производительность, сколько сочетание производительности с экономичностью, так как работают такие устройства зачастую в стеснённых с точки зрения питания условиях. Компания Qualcomm предлагает новые ускорители Cloud AI 100, сочетающие оба параметра.

Сам нейропроцессор Cloud AI 100 был впервые анонсирован ещё весной прошлого года, и Qualcomm объявила, что этот чип разработан с нуля и обеспечивает вдесятеро более высокий уровень производительности в пересчёте на ватт, в сравнении с существовавшими на тот момент решениями. Начало поставок было запланировано на вторую половину 2019 года, но как мы видим, по-настоящему ускорители на базе данного чипа на рынке появились только сейчас, причём речь идёт о достаточно ограниченных, «пробных» объёмах поставок.

В отличие от графических процессоров и ПЛИС-акселераторов, которые часто применяются при обучении нейросетей и, будучи универсальными, потребляют при этом серьёзные объёмы энергии, инференс-чипы обычно представляют собой специализированные ASIC. Таковы, например, Google TPU Edge, к этому же классу относится и Cloud AI 100. Узкая специализация позволяет сконцентрироваться на достижении максимальной производительности в определённых задачах, и Cloud AI 100 более чем в 50 раз превосходит блок инференс-процессора, входящий в состав популярной SoC Qualcomm Snapdragon 855.

На приводимых Qualcomm слайдах архитектура Cloud AI 100 выглядит достаточно простой: чип представляет собой набор специализированных интеллектуальных блоков (IP, до 16 юнитов в зависимости от модели), дополненный контроллерами LPDDR (4 канала, до 32 Гбайт, 134 Гбайт/с), PCI Express (до 8 линий 4.0), а также управляющим модулем. Имеется некоторый объём быстрой набортной SRAM (до 144 Мбайт). С точки зрения поддерживаемых форматов вычислений всё достаточно универсально: реализованы INT8, INT16, FP16 и FP32. Правда, bfloat16 не «доложили».

Об эффективности новинки говорят приведённые самой Qualcomm данные: если за базовый уровень принять систему на базе процессоров Intel Cascade Lake с потреблением 440 Ватт, то Qualcomm Cloud AI 100 в тесте ResNet-50 быстрее на два порядка при потреблении всего 20 Ватт. Это, разумеется, не предел: на рынок новый инференс-ускоритель может поставляться в трёх различных вариантах, два из которых компактные, форм-факторов M.2 и M.2e с теплопакетами 25 и 15 Ватт соответственно. Даже в этих вариантах производительность составляет 200 и около 500 Топс (триллионов операций в секунду), а существует и 75-Ватт PCIe-плата формата HHHL производительностью 400 Топс; во всех случаях речь идёт о режиме INT8.

Данные для NVIDIA Tesla T4 и P4 приведены для сравнения

Данные для NVIDIA Tesla T4 и P4 приведены для сравнения

Основными конкурентами Cloud AI 100 можно назвать Intel/Habana Gaia и NVIDIA Tesla T4. Оба этих процессора также предназначены для инференс-систем, они гибче архитектурно — особенно T4, который, в сущности, базируется на архитектуре Turing —, однако за это приходится платить как ценой, так и повышенным энергопотреблением — это 100 и 70 Ватт, соответственно. Пока речь идёт о распознавании изображений с помощью популярной сети ResNet-50, решение Qualcomm выглядит великолепно, оно на голову выше основных соперников. Однако в иных случаях всё может оказаться не столь однозначно.

Новые ускорители Qualcomm будут доступны в разных форм-факторах

Новые ускорители Qualcomm будут доступны в разных форм-факторах

Как T4, так и Gaia, а также некоторые другие решения, вроде Groq TSP, за счёт своей гибкости могут оказаться более подходящим выбором за пределами ResNet в частности и INT8 вообще. Если верить Qualcomm, то компания в настоящее время проводит углублённое тестирование Cloud AI 100 и на других сценариях в MLPerf, но в открытом доступе результатов пока нет. Разработчики сосредоточены на удовлетворении конкретных потребностей заказчиков. Также заявлено о том, что высокая производительность на крупных наборах данных может быть достигнута путём масштабирования — за счёт использования в системе нескольких ускорителей Cloud AI 100.

В настоящее время для заказа доступен комплект разработчика на базе Cloud Edge AI 100. Основная его цель заключается в создании и отработке периферийных ИИ-устройств. Система достаточно мощная, она включает в себя процессор Snapdragon 865, 5G-модем Snapdragon X55 и ИИ-сопроцессор Cloud AI 100. Выполнено устройство в металлическом защищённом корпусе с четырьмя внешними антеннами. Начало крупномасштабных коммерческих поставок намечено на первую половину следующего года.

Постоянный URL: http://servernews.ru/1020978
16.09.2020 [13:23], Алексей Степин

IBM открыла ядро POWER A2O и ПО Open Cognitive Environment

Открытые архитектуры часто побеждают в долгосрочной перспективе, и это доказала система IBM PC, вариациями которой мы пользуемся и сейчас, спустя почти 40 лет после появления первых IBM PC и PC XT. Про POWER-системы этого сказать пока нельзя, но архитектура продолжает развиваться и существуют даже рабочие станции на её основе. IBM сделала POWER открытой в августе 2019 года и продолжает активно вкладываться в проект OpenPOWER Foundation, на этот раз она отдала в его распоряжение процессорного ядра A2O и программное обеспечение для машинного обучения Open Cognitive Environment.

Ранее на саммите Linux Foundation Open Source компания анонсировала открытое ядро A2I, однако оно не имело внеочередного исполнения и предназначалось для малых систем типа SoC, например, для встраиваемых приложений. На этот раз на OpenPOWER Summit 2020 представлено ядро A2O и, как нетрудно понять из названия, поддержка внеочередного исполнения (out of order) в нём имеется. Как следствие, A2O гораздо лучше подходит там, где требуется повышенная однопоточная производительность. В основе лежит 64-битный набор инструкций PowerISA v2.07 Book III-E.

В ядре реализована поддержка SMT, но не такая развитая, как у A2I — два потока на ядро против четырёх. Предсказание ветвлений построено на базе GSHARE. Объёмы кешей первого уровня составляют 32 Кбайт для инструкций и данных, имеется MMU, а также блок AXU (Auxiliary Execution Unit), облегчающий построение модульных дизайнов SoC на базе этого ядра. Основное предназначение A2I не слишком отличается от A2O — это всё так же кастомные системы-на-чипе и встраиваемые приложения. Площадь одного ядра в 7-нм исполнении оценивается в 0,31 мм2, при частоте 3 ГГц потребление должно составлять не более 0,25 Ватт, и даже с 4,2 ГГц оно не выйдет за пределы 1 Ватта.

Помимо A2O компания открыла для использования инструментарий Open Cognitive Environment, изначально развивавшийся в рамках проекта IBM PowerAI. Его назначение — упростить и облегчить пользование базовыми средствами машинного обучения и построить удобный мост между различными компонентами, такими как TensorFlow, PyTorch и другими фреймворками и библиотеками. По сути, Open-CE представляет собой набор мультиархитектурных «рецептов», скриптов, кода интеграции для Kubernetes, позволяющий быстро и удобно проектировать и развёртывать ИИ-системы.

Другой член проекта OpenPOWER, Орегонский университет (OSU) объявил о поддержке Open-CE и заявил, что планирует создать бинарные файлы для всех версий этого проекта. При этом планируется поддержка нескольких архитектур, в частности, Power PC версий little и big endian, как с поддержкой NVIDIA CUDA, так и без оной.

Модуль памяти OMI

Модуль памяти OMI

Также на OpenPOWER Summit 2020 была отмечена прогрессивная роль нового стандарта памяти OMI, использующего подключение OpenCAPI и чип-конвертер, расположенный прямо на модулях памяти. Накладные расходы в плане латентности, как отметил технический директор OpenCAPI, составляют менее 10 наносекунд, при этом пропускная способность OMI в 4 раза выше, чем у DDR4 и в 1,2 раза выше, нежели у HBM2. По параметру «memory depth» OMI в 2,3 раза превосходит DDR4 и в 116 раз — HBM2, и это делает новый стандарт очевидным выбором для индустрии серверов и супервычислений.

Постоянный URL: http://servernews.ru/1020756
15.09.2020 [17:33], SN Team

Data Fest, крупнейшая в Евразии конференция по data science, впервые пройдет в online формате

19 и 20 сентября 2020 года Data Fest, организованный сообществом Open Data Science, соберет исследователей, инженеров и разработчиков в области анализа данных, искусственного интеллекта и компьютерного обучения. 

В 2019 году Data Fest прошел в Москве на территории FLACON и собрал более 6 000 человек. Для обеспечения безопасности участников в этом году мероприятие будет адаптировано под новые реалии и пройдет в режиме двухдневной online-конференции.

В рамках Data Fest запланировано более 35 секций в формате Youtube-трансляций и сессий свободного онлайн-общения со спикерами и экспертами. Отличительная особенность Data Fest online в том, что все материалы фестиваля попадут в образовательный фонд на ODS.ai в формате треков. Помимо лекций, в треке будут размещаться практические задания, мини-соревнования и тесты для закрепления полученных знаний.

Ключевые эксперты фестиваля:

  • Алексей Натёкин — основатель сообщества ODS.ai, организатор Data Fest;
  • Валерий Бабушкин — руководитель управления развития данных в компании X5 Retail Group;
  • Михаил Рожков — основатель онлайн-курсов по управлению экспериментами и проектированию машинного обучения;
  • Асхат Уразбаев— управляющий партнер в ScrumTrek;
  • Павел Плесков  — digital nomad, data scientist в стартапе Praxis Pioneering;
  • Eghbal Rahimikia— доктор философии Alliance Manchester Business School, University of Manchester
  • Ser-Huang Poon— профессор University of Manchester, Alliance Manchester Business School.

«Цель Data Fest – объединить сообщества и подсообщества с их самыми активными специалистами для динамичного обмена знаниями и актуальной информацией о data science (науке данных) и machine learning (искусственном интеллекте, который изучают методы построения алгоритмов, способных обучаться). Мы сделали лекции открытыми и доступными в YouTube, чтобы каждый имел возможность получить информацию в режиме реального времени» — поделился Алексей Натёкин.

Data Fest— это обширная конференция по самым разным направлениям. Секции делятся на 5 основных видов, и сгруппированы по залам:

  • Бизнес — важные темы со стороны бизнеса.
  • Индустрия — применение DS/ML в индустрии.
  • Инженерия — технические секции о прикладных методах и о том, как это работает.
  • Наука — научные секции по актуальным и горячим темам.
  • Сообщество — жизнь сообщества и специалистов.

Подробнее о Data Fest на сайте мероприятия: https://datafest.ru/2020/

Постоянный URL: http://servernews.ru/1020655
14.09.2020 [10:14], Юрий Поздеев

NVIDIA и Arm создадут исследовательский центр в Кембридже

По мнению NVIDIA искусственный интеллект — самая мощная технологическая сила нашего времени. Это следующая ступень автоматизации, когда программное обеспечение пишет программное обеспечение. Хотя ИИ зародился в центрах обработки данных, он быстро переходит на периферию — в магазины, склады, больницы, аэропорты, где интеллектуальные датчики, подключенные к компьютерам с ИИ, могут ускорить и оптимизировать рутинные операции.

Со временем появятся триллионы небольших автономных компьютеров с ИИ, подключенных к мощным облачным центрам обработки данных во всех уголках мира.

После новостей о покупке NVIDIA компании ARM, вполне логичной стала новость о том, что на базе этих двух компаний будет создан открытый исследовательский центр в Кембридже, где когда-то жили такие выдающиеся ученые, как Иссаак Ньютон и Алан Тьюринг, в честь которых названы некоторые технологии NVIDIA. Именно в Кембридж приедут ведущие ученые и инженеры со всего мира, чтобы развивать новые технологии ИИ.

Центр в Кембридже будет включать:

  • Суперкомпьютер на базе Arm/NVIDIA: ожидается, что это будет один из самых мощных суперкомпьютеров ИИ в мире, сочетая в себе самые передовые процессоры Arm и новейшие графические ускорители NVIDIA, соединенные DPU NVIDIA Mellanox (пример суперкомпьютера Fugaku на базе Arm доказывает, что это возможно).
  • Исследовательские стипендии и партнерства: в исследовательском центре NVIDIA будет расширять сотрудничество с академическими кругами и промышленностью для проведения исследований, охватывающих все передовые разработки в различных областях.
  • Обучение искусственному интеллекту: образовательное подразделение NVIDIA, Институт DEEP LEARNING AI, обучило более 250 000 студентов фундаментальным и прикладным дисциплинам, связанным с ИИ. Подобный институт будет создан на базе Кембриджа, что позволит увеличить количество студентов.
  • Акселератор для стартапов: большинство передовой разработки в области ИИ выполняется стартапами. NVIDIA Inception, программа акселератора стартапов, насчитывает более 6000 участников, из которых более 400 находятся в Великобритании. NVIDIA продолжит свои инвестиции в этой области, помогая развиваться новым «единорогам».
  • Отраслевое сотрудничество: исследовательский центр NVIDIA AI станет открытым центром отраслевого сотрудничества с промышленными предприятиями самого разного профиля.

Поставленные цели очень амбициозны, но осуществимы. Будем следить за успехами нового исследовательского центра в Кембридже.

Постоянный URL: http://servernews.ru/1020518
07.09.2020 [20:29], Владимир Мироненко

Суперкомпьютеры дороги, но выгодны: каждый доллар инвестиций в высокопроизводительные вычисления приносит 44 доллара прибыли

Исследование Hyperion Research показало, что высокопроизводительные вычисления (HPC) приносят $44 прибыли на каждый доллар инвестиций.

Все, кто использует HPC для научно-исследовательских работ и создания технологических инноваций, понимают внутреннюю ценность этой технологии. Благодаря сочетанию HPC, больших наборов данных и таких методов, как машинное обучение, пользователи теперь могут генерировать идеи, которых было бы практически невозможно достичь без экстремальных вычислений. Вместе с тем доказать ценность HPC с финансовой точки зрения до недавних пор было не так уж и просто.

В настоящее время организации получили более чёткое представление о рентабельности инвестиций в HPC благодаря исследованиям, проведенным фирмой Hyperion Research и разработкам Министерства энергетики США. Hyperion изучила и проанализировала, как финансовые выгоды, так и влияние научных открытий, сделанных с помощью систем HPC.

Финансовые выгоды были смоделированы на основе доходов, экономии или прибыли, а также рабочих мест, созданных в результате инвестиций в высокопроизводительные вычисления, отметила Hyperion в официальном докладе под названием «Инвестиции в высокопроизводительные вычисления приносят высокую прибыль».

«Финансовая рентабельность инвестиций в базу данных HPC состоит из более чем 150 сценариев использования по всему миру, которые показывают средний доход в $463 доллара на $1 инвестиций в HPC, а также $44 прибыли на каждый $1 инвестиций в HPC, — сообщила компания. — Чтобы представить это в контексте, для системы HPC, приобретённой за $100 000 частной корпорацией, анализ показывает, что прибыль составит около $4,4 млн».

Hyperion сообщила, что, хотя рентабельность инвестиций во всей экосистеме высокопроизводительных вычислений высока, некоторые секторы экономии позволяют получить ещё большую отдачу от вложенных средств. Например, в финансовой сфере каждый доллар инвестиций приносит $834 дохода и $61 прибыли.

В дополнение к рассмотрению финансовой отдачи, в исследовании Hyperion изучалось влияние и ценность проектов, направленных на развитие науки, а не на получение финансовой отдачи. В частности, исследователями рассматривалось количество важных инноваций в той или иной области за определённый период времени. Большинство организаций сообщило о 5–10 инновациях в своей области и относительно повсеместной распространённости практической ценности открытий, сделанных с помощью HPC.

Постоянный URL: http://servernews.ru/1020051
07.09.2020 [11:50], Андрей Крупин

Облачные решения SAP Marketing Cloud и S/4HANA получили сертификаты ФСТЭК России

Немецкий разработчик бизнес-софта SAP объявил о получении сертификатов Федеральной службы по техническому и экспортному контролю (ФСТЭК России) на облачные решения Marketing Cloud и S/4HANA, развёрнутые в российском центре обработки данных компании.

В рамках сертификации перечисленные программные комплексы прошли проверку на соответствие требованиям безопасности и техническим условиям, а также на предмет отсутствия недекларированных разработчиком возможностей.

Источник изображения: ZDNet

Источник изображения: ZDNet

Выданные ФСТЭК России документы удостоверяют, что облачные решения SAP Marketing Cloud и S/4HANA располагают встроенными средствами защиты информации и гарантируют безопасность обрабатываемых данных клиентов.

Аттестаты соответствия выданы сроком на пять лет. Сертификационные испытания проводились испытательной лабораторией ООО «Центр безопасности информации» (ЦБИ).

Постоянный URL: http://servernews.ru/1020019
Система Orphus