Материалы по тегу: software

13.04.2021 [19:52], Андрей Галадей

В ядре Linux появилась ранняя поддержка секретных областей памяти

Более года шла разработка функции, которая позволит создавать секретные области памяти в Linux. Эти области будут видны только процессу-владельцу и не будут показываться другим процессам, а их содержимое будет недоступно ядру. Задачей этой подсистемы является повышение защиты.

К примеру, при использовании OpenSSL в пользовательском пространстве в этой области можно хранить закрытые ключи, что уменьшает вероятность их компрометации. Отдельно стоит отметить, что для скрытых таким образом областей памяти не предполагается использование шифрования или иных методов дополнительной защиты.

linuxhint.com

linuxhint.com

При этом по умолчанию эта функция отключена. Для её запуска во время загрузки системы нужно передать особый параметр. Функциональность секретной памяти и системный вызов memfd_secret скрыты за параметром secretmem_enable, по крайней мере, на данный момент. Само собой, пока это ранняя версия функции. Однако не стоит исключать, что в сборке ядра Linux 5.13 она уже станет доступна для использования.

Постоянный URL: http://servernews.ru/1037249
13.04.2021 [17:16], Владимир Мироненко

Отпочковавшееся от IBM подразделение инфраструктурных услуг получит имя Kyndryl

Компания IBM сообщила название своего нового дочернего предприятия, сформированного на базе подразделения управляемых инфраструктурных услуг, — Kyndryl. В прошлом году IBM объявила, что выделит этот бизнес в отдельную компанию, поскольку после приобретения Red Hat она сосредоточилась на программном обеспечении, сервисах и гибридном облаке. До сих пор эта компания была известна под условным названием NewCo.

Как объяснила IBM, бренд Kyndryl представляет собой современную адаптацию двух слов, «являющуюся центральным элементом идентичности и миссии компании». «Kyn» происходит от слова «kinship» (родство), а «dryl» происходит от слова «tendril» (побег) и идеи о том, что бизнес всегда работает над продвижением человеческого прогресса.

«Выбор названия — это только начало нашего пути как бренда, — отметила директор по маркетингу Kyndryl Мария Бартоломе Винанс (Maria Bartolome Winans). — Это поможет идентифицировать нас и поддержать узнаваемость, но смысл названия со временем будет развиваться и расширяться за счёт наших поступков, стремлений и действий, а также возможностей, которые мы предоставим нашим клиентам».

Ожидается, что разделение IBM на две компании произойдёт к концу 2021 года. Штаб-квартира Kyndryl, как и у IBM, будет находиться в Нью-Йорке. «Решение разместить нашу корпоративную команду в одном из самых динамичных и глобальных городских центров мира подчёркивает нашу приверженность экономическому здоровью городов», — заявил гендиректор Kyndryl Мартин Шретер (Martin Schroeter).

Постоянный URL: http://servernews.ru/1037243
13.04.2021 [00:28], Андрей Галадей

Дистрибутивы SUSE SLES  появились в маркетплейсе Yandex.Cloud

В маркетплейсе Yandex.Cloud появились коммерческие продукты компании SUSE: дистрибутивы SUSE Linux Enterprise Server 15 SP2 и SUSE Linux Enterprise Server 15 SP2 for SAP. Доступ к ним можно будет получить в рамках почасовой оплаты (Pay-as-you Go): от 4 249 руб./мес. и от 13 702 руб./мес. соответственно. Для первого варианта также доступна подписка с приоритетной поддержкой от 6 610 руб./мес. Ранее в Yandex.Cloud была доступна только бесплатная версия дистрибутива — openSUSE 15.2.

documentation.suse.com

«SUSE уже давно и довольно активно развивает свои продукты на публичных облачных платформах. Yandex.Cloud станет нашим крупнейшим облачным партнером на российском рынке. Благодаря облачной витрине Yandex.Cloud, продуктами SUSE смогут воспользоваться и те компании, которых останавливали сложности настройки и управления инфраструктурой на базе продуктов SUSE, а также отсутствие глубокой внутренней компетенции», — заявил Владимир Главчев, управляющий директор SUSE в России и СНГ.

Постоянный URL: http://servernews.ru/1037175
12.04.2021 [19:48], Владимир Мироненко

NVIDIA TAO, Triton и Fleet Command помогут компаниям в выборе, дообучении, оптимизации и развёртывании моделей ИИ

«Путь к созданию предприятия, основанного на искусственном интеллекте, не должен быть долгим или трудным, если вы знаете, как использовать предварительно обученные модели и инструменты, такие как NVIDIA TAO и Fleet Command», — заявил Адель Эль-Халлак (Adel El-Hallak), директор по управлению продуктами NGC.

По его словам, теперь компаниям не придётся проектировать и обучать собственную нейронную сеть с нуля, так как можно будет выбрать одну из множества доступных в каталоге NGC. Предлагаемые NVIDIA модели, охватывают широкий спектр задач ИИ — от компьютерного зрения и разговорного ИИ до понимания естественного языка и многого другого.

Многие модели в каталоге предлагаются с расширенной информацией о наборе данных для обучения, о частоте использования и с прогнозом результатов использования. Это обеспечивает прозрачность и уверенность в том, что вы выбираете подходящую модель для своего варианта использования. Выбрав модель, клиент сможет её настроить в соответствии с конкретными потребностями с помощью NVIDIA TAO.

С помощью NVIDIA Transfer Learning Toolkit предобученную модель из каталога NGC можно будет дообучить на небольших наборах данных, которые есть у пользователей, чтобы индивидуально подстроить модели под нужды клиента. Кроме того, TAO предлагает и Federated learning (федеративное обучение), которое позволяет безопасно обучить модель на данных от различных пользователей внутри зашифрованных анклавов в GPU, не открывая их никому из участников процесса.

После точной настройки модели её необходимо оптимизировать для развёртывания — сделать более компактной без ущерба для качества и возможности эффективного функционирования на целевой платформе клиента, будь то массив графических процессоров в сервере или робот с приводом от Jetson в заводском цехе. С помощью NVIDIA Triton пользователи смогут выбрать оптимальную конфигурацию для развёртывания, независимо от архитектуры модели, используемой инфраструктуры, целевого процессора или графического ускорителя, на котором она будет работать.

После того, как модель оптимизирована и готова к развёртыванию, пользователи могут легко интегрировать её с любой инфраструктурой, которая соответствует их сценарию использования или отрасли. На завершающем этапе с выбранной платформой пользователи смогут запустить NVIDIA Fleet Command для развёртывания и управления приложением ИИ на различных устройствах с графическим процессором.

Fleet Command объединяет сертифицированные NVIDIA серверы, развёрнутые на границе сети, с облаком, используя протоколы сквозной безопасности для защиты данных приложений и интеллектуальной собственности. Данные передаются между периферией и облаком в полностью зашифрованном виде. А перед развёртыванием приложения сканируются на наличие вредоносных программ и уязвимостей.

Fleet Command и элементы TAO уже используются на складах, в розничной торговле, в больницах и в производственных цехах. В числе их пользователей такие компании, как Accenture, BMW и Siemens Industrial. Основные компоненты TAO, включая инструментарий Transfer Learning Toolkit и федеративное обучение, на данный момент уже доступны клиентам.

Постоянный URL: http://servernews.ru/1037137
12.04.2021 [19:34], Владимир Мироненко

NVIDIA развивает Arm-экосистему: GPU-инстансы с Graviton2, набор HPC-разработчика на базе Ampere Altra и новые партнёрства с Marvell, MediaTek и SiPearl

Собственный серверный Arm-процессор NVIDIA Grace ещё не вышел, но компания уже формирует экосистему вокруг Arm и собственных ускорителей. NVIDIA анонсировала серию совместных проектов с использованием своих GPU и программного обеспечения с процессорами на базе Arm для широкого круга рабочих нагрузок — от облака до периферии.

В частности, анонсированы инстансы Amazon EC2 на базе AWS Graviton2 с графическими процессорами NVIDIA, поддержка разработки научных приложений и ИИ-приложений с помощью нового набора разработчиков HPC, повышение уровня видеоаналитики и функций безопасности на границе сети, а также создание нового класса ПК на базе Arm с графическими процессорами NVIDIA RTX.

В частности, NVIDIA и AWS объявили о совместном проекте по развёртыванию Arm-экземпляров с графическими процессорами в облаке. Новые экземпляры Amazon EC2 позволят разработчикам запускать Android-игры в AWS, ускорять рендеринг и кодирование, а также транслировать игры на мобильные устройства.

Также NVIDIA представила набор NVIDIA Arm HPC Developer Kit, который включает сервер с 80-ядерным процессором Ampere Altra с тактовой частотой до 3,3 ГГц, два ускорителя NVIDIA A100, а также два DPU NVIDIA BlueField-2, которые ускоряют решение ключевых задач безопасности, передачи и хранения данных в ЦОД, включая изоляцию, , управление ключами, RDMA / RoCE, GPU Direct, хранение эластичных блоков, сжатие данных и многое другое.

Для этой платформы компания предлагает NVIDIA HPC SDK: набор компиляторов, библиотек и инструментов, которые позволяют создавать и переносить GPU-приложения HPC и ИИ в Arm-окружение. Среди первых ведущих вычислительных центров, развернувших новые платформы разработки, есть Ок-Риджская национальная лаборатория, Национальная лаборатория Лос-Аламоса и Университет Стоуни-Брук в США, а также Национальный центр высокопроизводительных вычислений на Тайване и Корейский институт науки и техники. NVIDIA Arm HPC Developer Kit будет доступен в 3 квартале 2021 года.

В области периферийных вычислений NVIDIA объявила о расширении сотрудничества с Marvell с целью объединения DPU OCTEON с графическими процессорами для ускорения облачных, корпоративных, операторских и пограничных приложений, и, в целом, повышения производительности систем и сокращения задержек от периферии до облака.

В категории ПК компания сотрудничает с MediaTek, одним из крупнейших мировых поставщиков SoC на базе Arm, чтобы создать эталонную платформу, поддерживающую Chromium, Linux и NVIDIA SDK. Сочетание графических процессоров NVIDIA RTX с высокопроизводительными, энергоэффективными процессорами Arm Cortex позволит использовать в ноутбуках графику с трассировкой лучей и искусственный интеллект.

Кроме того, NVIDIA сотрудничает и с другими партнёрами, включая Fujitsu и SiPearl. Первая, напомним, разработала самый мощный в мире суперкомпьютер Fugaku, который по совместительству является и самой производительной системой на базе Arm-процессоров, пусть и довольно специфичных. Вторая же пока всё ещё занимается разработкой Arm-процессоров SiPearl Rhea для будущих европейских суперкомпьютеров.

Постоянный URL: http://servernews.ru/1037079
10.04.2021 [19:52], Андрей Галадей

В Fedora 34 добавят утилиту sevctl для управления AMD SEV

В будущем дистрибутиве Fedora 34 ожидается появление новинки, которой пока нет ни у кого. В нём будет доступна sevctl — утилита с открытым исходным кодом для управления системой шифрованияя Secure Encrypted Virtualization (SEV) в процессорах AMD EPYC. Эта утилита отображает различные детали SEV, позволяет управлять сертификатами, состоянием платформы и так далее.

Она реализует все основные возможности, доступные через API для SEV. Технология SEV, напомним, позволяет изолировать виртуальные машины, шифруя их память по алгоритму AES (128 бит) с помощью уникальных ключей, управляемых отдельной SoC AMD Secure Processor, находящейся непосредствено внутри чипов EPYC.

Технология AMD появилась ещё в первом поколении процессоров EPYC 7001 (Naples). AMD внедрила поддержку SEV в ядро Linux и соответствующие части стека виртуализации с открытым исходным кодом. В EPYC 7002 (Rome) компания увеличила число доступных ключей шифрования памяти с 15 до 509, а в EPYC 7003 (Milan) появилось расширение SEV-SNP (Secure Nested Paging), которое защищает гостевые системы от попыток вмешательства в их память со стороны гипервизора.

Сама утилита sevctl выпущена под лицензией Apache 2.0 в рамках проекта Enarx для работы со средами доверенного исполнения различных поставщиков. Исходники её размещены на GitHub. Также она доступна в репозитории. А сам релиз Fedora 34 намечен на конец апреля этого года.

Постоянный URL: http://servernews.ru/1037032
09.04.2021 [16:49], Андрей Галадей

IBM выпустит компилятор COBOL для Linux на x86-системах

Компания IBM готовит к выпуску компилятор COBOL версии 1.1 для ОС на базе Linux для архитектуры x86-64. В комплекте идёт также набор runtime-библиотек, а сама сборка основана на том же оптимизирующем компиляторе, что и версия Enterprise COBOL для z/OS. Новинка позволяет создавать приложения COBOL для Linux в системах с процессорами x86-64. Релиз запланирован на 16 апреля.

Как отмечается, новая система совместима с текущими спецификациями, поддерживает современные дистрибутивы, а также пригодна для создания бизнес-приложений. Компилятор совместим со стандартом COBOL 1985, а также некоторыми спецификациями COBOL 2002 и 2014. Программы, написанные на COBOL, теперь можно развёртывать в гибридных облачных системах на основе IBM Z (z/OS), IBM Power (AIX) и x86-64 (Linux).

medium.com

medium.com

COBOL 1.1 для Linux включает следующие функции и возможности:

  • Оптимизирующий компилятор и runtime-библиотеки IBM COBOL для Linux.
  • Поддержка IBM TXSeries на разных платформах.
  • Совместимость с IBM Db2 для Linux, UNIX и Windows.
  • Поддержка Unicode, позволяющая приложениям COBOL напрямую обрабатывать данные в этой кодировке.
  • Встроенная поддержка XML, которая позволяет приложениям COBOL анализировать входящие и генерировать исходящие XML-сообщения.
  • Совместимость с IBM Enterprise COBOL для z/OS и IBM COBOL для AIX.
  • Утилита преобразования исходного кода (scu) для помощи в переносе исходного кода, разработанного с помощью компиляторов COBOL других производителей.
  • Совместимость с Red Hat Enterprise Linux 7.8 или новее, а также Ubuntu Server 16.04 LTS, 18.04 LTS или новее.

Отметим, что языку программирования COBOL уже более 60 лет, однако на нём написан софт, который используется в банковской и многих других сферах. Появление официального компилятора IBM для Linux позволит банковским и финансовым структурам улучшить работу и перевести свою инфраструктуру на Linux, в том числе в облака.

Постоянный URL: http://servernews.ru/1036911
09.04.2021 [16:12], Владимир Мироненко

Российский разработчик oneFactor реализовал машинное обучение внутри анклавов Intel SGX

Российский разработчик сервисов искусственного интеллекта oneFactor впервые реализовал тренинг алгоритмов машинного обучения внутри анклавов (защищённой области в адресном пространстве приложения) Intel Software Guard Extensions (Intel SGX) на своей ML-платформе.

Для аналитиков банков это означает возможность сокращения вывода готовой аналитики с нескольких дней до считанных минут. Новое решение позволит повысить качество рекомендаций с применением алгоритмов машинного обучения на 20–35 % по сравнению с раздельной обработкой данных, и ускорить ML-цикл, сократившийся до нескольких часов. Увеличение производительности достигается за счёт комбинации данных различных типов и обучения алгоритмов в зашифрованном виде.

Благодаря использованию технологии Intel Software Guard Extensions (Intel SGX), обеспечивающей защиту данных в анклаве от системных процессов, выполняемых с более высокими уровнями привилегий, клиенты oneFactor могут быть уверены, что код приложения, осуществляющий доступ к личным данным, был проверен и одобрен. Теперь исполняемый код — алгоритм машинного обучения, генерируется непосредственного в анклаве. А в новых процессорах Intel Xeon Ice Lake-SP размер объём анклава может достигать 512 Гбайт, что упрощает работу с такими нагрузками.

Благодаря использованию Intel SGX решение oneFactor позволяет обрабатывать полностью зашифрованные данные в апаратно-защищённой среде. Это позволяет объединять данные разных компаний и индустрий с соблюдением условия конфиденциальности в едином вычислительном облаке, а затем использовать их в рекомендательных сервисах на базе ИИ. Особенностью ML-платформы oneFactor является высокий уровень защиты исходных данных от компрометации на аппаратном уровне, поскольку их «видит» только алгоритм машинного обучения. К ним нет доступа даже у администраторов системы или поставщика облачных сервисов.

oneFactor отметил, что это первое в России коммерческое применение технологии обеспечения конфиденциальности данных для тренировки алгоритмов машинного обучения в финансовом секторе. Данное решение позволит банкам улучшить качество сервисов и обслуживания своих клиентов: от противодействия телефонному мошенничеству до полностью автоматической верификации кредитных заявок. На данный момент к платформе уже подключён ряд крупнейших российских банков.

Постоянный URL: http://servernews.ru/1036948
07.04.2021 [21:01], Андрей Галадей

Memory Machine 1.2 повышает производительность in-memory нагрузок с Intel Xeon Ice Lake-SP и Optane PMem 200

Компания MemVerge объявила о выпуске версии 1.2 программного обеспечения Memory Machine, которое используется для систем класса Big Memory. Новая версия адаптирована под процессоры Intel Xeon Scalable 3-го поколения (кодовое название Ice Lake), которые поддерживают до 6 Тбайт памяти (DDR4-3200 + Intel Optane серии 200).

Компания также объявила о вступлении в Консорциум CXL и своём участии в лабораториях Big Memory в Arrow, Intel, Penguin Computing и WWT, которые теперь оснащены необходимой техникой и доступны для демонстраций технологий Big Memory, тестирования новых разработок и адаптации программного обеспечения.

«Memory Machine v1.2 разработана, чтобы позволить поставщикам приложений и конечным пользователям в полной мере использовать преимущества новейшего процессора Intel Xeon Scalable и технологии памяти Optane. Мы начали с предоставления доступа к новым уровням производительности и ёмкости без необходимости вносить изменения в приложения», — заявил Чарльз Фэн (Charles Fan), генеральный директор MemVerge.

Как отмечается, программное обеспечение Big Memory позволяет максимально эффективно использовать доступный объем памяти, обеспечивая новые возможности для рабочих нагрузок in-memory. Memory Machine позволяет не просто задействовать весь объём памяти в системе, но и существенно ускоряет работу с ней за счёт особых алгоритмов.

Постоянный URL: http://servernews.ru/1036695
06.04.2021 [16:55], SN Team

Открыта регистрация на весеннюю серию обучающих вебинаров VMware

Компания VMware продолжает проводить обучающие русскоязычные вебинары о самых инновационных технологиях в областях сетевой инфраструктуры, информационной безопасности, современных приложений, облачных технологий и решений для удаленной работы. А в конце каждого вебинара проводится розыгрыш призов.

По вторникам и четвергам в 11:00 по МСК, с 16 марта по 1 июня, представители компании будут рассказывать о том:

  • Как поменялась архитектура сетевых функций после прихода программной определяемости?
  • Какие непривычные возможности получают привычные инструменты ИБ, когда они работают на уровне платформы?
  • Какие новые технологии в области виртуализации и информационной безопасности нас ждут?
  • Какие инструменты есть у VMware для управления частными и гибридными облаками?
  • Почему важно следить за использованием ресурсов и при чем здесь инструменты Инфраструктуры-как-код?
  • Как продукты VMware помогают ИТ-департаментам сделать их работу удобной и безопасной?
  • Как оптимизировать работу удаленных сотрудников с популярными SaaS сервисами (Teams, Office, *-Drive)?

Вебинары подойдут как для начинающих, так и для опытных ИТ-специалистов, которые хотят расширить свои знания о самых инновационных технологиях в областях сетевой инфраструктуры, информационной безопасности, современных приложений и облачных технологий.

Портфель компании давно выходит за рамки виртуализации и включает решения в области:

  • модернизации, мониторинга и запуска приложений;
  • миграции в облако;
  • сетей и безопасности;
  • удаленных рабочих столов.

Не упустите шанс узнать о решениях для вашей ИТ-инфраструктуры!

Зарегистрироваться: https://via.vmw.com/ERkX

Постоянный URL: http://servernews.ru/1035189
Система Orphus