Материалы по тегу: виртуализация

29.11.2020 [14:38], Андрей Галадей

Релиз системы управления виртуализацией Proxmox VE 6.3: поддержка Backup Server, упрощение хранения ключей и многое другое

Компания Proxmox Server Solutions GmbH выпустила Proxmox VE версии 6.3. Это платформа для управления виртуализацией серверов на базе дистрибутива Linux и ядра с долгосрочной поддержкой. Версия 6.3 основана на Debian Buster 10.6 и ядре 5.4. Компоненты также обновлены до последних версий. К примеру, там есть QEMU. 5.1, LXC 4.0, Ceph 15.2 и ZFS 0.85.

Основные нововведения Proxmox VE 6.3 включают в себя интеграцию стабильной версии Proxmox Backup Server 1.0. Это решение открытым исходным кодом для корпоративных клиентов, которое выполняет резервное копирование и восстановление виртуальных машин, контейнеров и физических хостов. Отметим, что Backup Server поддерживает инкрементальное, полностью дедуплицированное резервное копирование с надёжным шифрованием.

В Proxmox VE 6.3 пользователям просто нужно добавить хранилище данных Proxmox Backup Server в качестве нового целевого хранилища, после чего его можно использовать. Отмечается, что во время резервного копирования можно шифровать весь трафик, что позволяет дополнительно обезопасить данные. Появились новые параметры хранения резервных копий, которые позволяют задавать сроки хранения и другие данные. Также теперь можно подробно рассматривать каждое задание резервного копирования.

Также заявлено, что система поддерживает несколько способов хранения ключей, обеспечивая их безопасность и надежность — ключи можно хранить на флешке, файловом сервере, а также просто распечатывать. Кроме того, для AD/LDAP доступны более тонки настройки прав, включая поддержку подключения по клиентским ключам и сертификатам. Опционально проводится дополнительная проверка сертификата TLS для аутентификации LDAP и AD.

Наконец, в новой версии поддерживаются Ceph Octopus 15.2.6 и Ceph Nautilus 14.2.15, выбор можно сделать в процессе установки. Добавлена функция отслеживания уровня износа SSD. Из других обновлений отметим улучшения интерфейса — теперь узлы Proxmox VE можно легко подключить к InfluxDB или Graphite. Также улучшился визуальный редактор порядка загрузки виртуальных машин — в нём можно выбрать несколько устройств одного типа (диск, сеть) для загрузки. Наконец, поддерживается перетаскивание.

Контейнеры Proxmox VE 6.3 теперь поддерживает системы с количеством ядер до 8192 и образы Kali Linux и Devuan, а также последние версии Ubuntu, Fedora и CentOS. Из мелочей отметим поддержку часовых поясов для каждого контейнера и улучшенный мониторинг запуска. А после успешной установки система запускается сама. В брандмауэре появился улучшенный API и графический интерфейс для сопоставления типов ICMP.

Также были исправлены ошибки. Proxmox VE 6.3 уже доступен по ссылке. А подробности о самом дистрибутиве есть в официальной вики

Постоянный URL: http://servernews.ru/1026542
21.11.2020 [00:14], Андрей Галадей

ScaleMP представила линейку продуктов vSMP Foundation 10.0

Компания ScaleMP объявила, что её фирменная линейка продуктов vSMP Foundation 10.0 доступна для всех. Ранее её несколько месяцев тестировали избранные клиенты и партнёры. Новая версия обзавелась поддержкой систем виртуализации. В частности, она позволяет виртуальным машинам использовать больше памяти, чем предоставляет хост-система.

С помощью vSMP MemoryONE можно расширить видимый объём ОЗУ за счёт высокоскоростных SSD. В списке поддерживаемых моделей накопителей есть решения Intel, WDC, Samsung, Micron и так далее. На данный момент новая вресия ПО уже работает с виртуальными машинами VMware ESXi, Linux KVM и в облаке AWS. Поддержка Microsoft Azure Cloud и Oracle Cloud ожидается к концу года.

vSMP Foundation 10.0 обеспечивает повышение производительности за счёт вертикального масштабирования вычислительных мощностей, памяти и каналов ввода-вывода путём объединения нескольких физических хостов в один виртуальный. В списке совместимых приложений есть масса ПО для HPC и популярных облачных и корпоративных ИТ-нагрузок, включая SAP HANA, Redis, Apache / Spark, MongoDB, MySQL и Lotus (Filecoin).

Как заявил Шай Фултхейм (Shai Fultheim), основатель и генеральный директор ScaleMP, технология программно-определяемых серверов доказала, что отвечает основным требованиям для текущих и будущих задач. Она может использоваться в облачных системах и дата-центрах, поскольку позволяет создавать масштабируемые системы на базе стандартного оборудования.

Постоянный URL: http://servernews.ru/1025943
20.10.2020 [01:43], Владимир Мироненко

OpenStack Foundation переименовали в Open Infrastructure Foundation: новые функции, миссия и участники

Организация OpenStack Foundation, управляющая одноимённым открытым облачным проектом, станет фондом Open Infrastructure Foundation (OIF) с расширенной миссией, иными масштабом и сообществом. Новый фонд был представлен на виртуальном саммите Open Infrastructure Summit, который продлится до конца этой недели. Он станет «полностью работоспособным» 1 января 2021 года.

OpenStack — один из крупнейших проектов с открытым исходным кодом, хотя и не самый известный, поскольку он полезен только для организаций, решивших запустить свою собственную облачную инфраструктуру, не полагаясь на AWS, Google или Microsoft. На прошлой неделе вышел 22-й выпуск проекта OpenStack под названием Victoria с обновлениями для таких продуктов, как Nova (управление виртуальными машинами), Neutron (программно-определяемые сети) и Cinder (управление блочным хранилищем).

Главный операционный директор Марк Коллиер (Mark Collier) отметил, что за десять лет существования проекта многое изменилось, что побудило адаптировать его к современным условиям. «За 10 лет продвижения OpenStack ландшафт инфраструктуры и то, что вам нужно автоматизировать, и требования к приложениям стали намного шире… многое изменилось, и мы меняемся вместе с этим», — сказал он на пресс-конференции.

Как отмечено, OIF будет поддерживать и другие связанные проекты. К этой категории относится Magma, программное обеспечение с открытым исходным кодом для операторов, предлагающих услуги сотовой связи или Wi-Fi и поддерживающих такие стандарты, как LTE, 3GPP и 5G. «Magma находится на другом уровне стека, и для него было бы здорово иметь сообщество экспертов», — заявил Коллиер.

Также существует лаборатория OpenInfra Labs, которая занимается внедрением программного обеспечения с открытым исходным кодом в производство. Например, проект Wenju направлен на предоставление ресурсов, сокращающих время, необходимое для развертывания приложений ИИ, которое, как утверждается, больше, чем должно быть, потому что «текущий ландшафт инструментов ИИ разрознен, переполнен и сбивает с толку разработчиков», вызывая сегодня «кризис промышленной эксплуатации ИИ».

Ещё один фактор — Kubernetes. В большинстве сред OpenStack работает и Kubernetes, и, хотя Kubernetes является проектом Cloud Native Computing Foundation (CNCF), а не OIF, предполагается многое сделать, чтобы они могли хорошо взаимодействовать друг с другом.

Также сообщается о расширении круга участников организации. К платиновым спонсорам OIF, в число которых входят AT&T, Ericsson, Huawei, Red Hat и Tencent Cloud, недавно присоединились ANT Group, Facebook Connectivity, FiberHome и Wind River.

Впрочем, наблюдалось движение и в другом направлении. Intel, до этого бывшая платиновым спонсором OpenStack Foundation, понизила статус до золотого, в то время как SUSE, еще один бывший платиновый спонсор, продолжит участие в фонде, но лишь на серебряном уровне. А облачный провайдер Rackspace, похоже, пока ещё думает над спонсированием OIF, хотя эта компания является крупным пользователем и разработчиком OpenStack.

Red Hat, как утверждается, будет «крупнейшим корпоративным участником OpenStack». Она нуждается в технологиях, чтобы предлагать полную платформу с открытым исходным кодом. Canonical — ещё одна из тех, кто будет оказывать поддержку фонду. Её продукты широко используются в телекоммуникационной отрасли, включая AT&T, а также многими восточными операторами, включая China Telecom и China Unicom из Китая.

Постоянный URL: http://servernews.ru/1023318
12.10.2020 [12:39], Андрей Крупин

Облачная платформа «РУСТЭК» получила крупное обновление

Компания «СБКлауд» сообщила о выпуске нового релиза облачной платформы «РУСТЭК».

«РУСТЭК» представляет собой российский программный комплекс, созданный на основе открытого кода OpenStack и предназначенный для развёртывания виртуальной IT-инфраструктуры. В качестве гипервизора в платформе задействован KVM со вспомогательной инфраструктурой (сетевой и хранения данных). Корневой операционной системой может являться любая ОС, сертифицированная ФСТЭК России по НДВ-4. Для взаимодействия с платформой на уровне администратора и конечного пользователя предусмотрены соответствующие веб-интерфейсы.

Обновлённая платформа «РУСТЭК» получила расширенные средства управления защитой данных и возможности настройки пограничного межсетевого экрана на уровне сегмента сети. В дополнение к этому разработчики реализовали поддержку протоколов BGP и IPv6, новые механизмы сегментации оверлейных сетей (GRE, GENEVA, VxLAN), функции шифрования дисков виртуальных машин, добавили сервис DNSaaS и инструменты управления ключами. Благодаря появлению встроенного SDS теперь можно развёртывать и использовать «РУСТЭК» на серверах без специализированных СХД.

С полным списком изменений можно ознакомиться на сайте платформы ru-stack.ru.

Постоянный URL: http://servernews.ru/1022715
02.10.2020 [20:25], Алексей Степин

NVIDIA Virtual Compute Server упростит использование vGPU для A100

В мае этого года NVIDIA представила миру новую архитектуру Ampere и первенца на её основе, чип A100. Одной из возможностей новинки является улучшенная виртуализация — один ускоритель можно разбить несколько разделов, что может быть полезно в массе сценариев. Можно наоборот, объединить несколько GPU в рамках одной ВМ. Свежий релиз NVIDIA Virtual Compute Server (vCS) упрощает работу с этими функциями.

Виртуализация — явление не новое, но полноценные виртуальные рабочие места с поддержкой различных ускорителей стали появляться сравнительно недавно. Задач и сценариев, где можно использовать виртуальный графический процессор в качестве вычислительного ресурса, немало — это и автоматизированное проектирование (CAD/CAM), и обработка «тяжёлого» фото- и видеоконтента, и обработка массивов медицинских данных, и бизнес-аналитика, и многое другое. Сложность и ресурсоёмкость задач постоянно растёт, а особенно востребованной технология vGPU становится сейчас, когда день ото дня увеличивается количество удалённых рабочих мест.

NVIDIA A100, исполнение NVLink

NVIDIA A100, исполнение NVLink

Такие места либо не всегда возможно снабдить ускорителями класса Tesla, либо мощности, развиваемой одной-двумя платами, может оказаться недостаточно, поэтому NVIDIA продолжает активно продвигать решение по виртуализации ГП под названием Virtual Compute Server (vCS). Такой подход позволяет при необходимости легко наращивать мощность вычислительного пула, обеспечивая при этом удобные средства управления и контроля.

Последняя архитектура NVIDIA под кодовым названием Ampere особенно хорошо проявляет себя в задачах машинного обучения и аналитики больших объёмов данных. Причина этому — наличие в составе новых графических процессоров блоков целочисленных вычислений (INT32) и блоков тензорных вычислений третьего поколения. Теперь вся эта мощь может использоваться и в рамках vCS.

Использование vCS не несёт серьёзных накладных расходов

Использование NVIDIA vCS не несёт серьёзных накладных расходов

Отныне ЦОД, использующие стандартные гипервизорные платформы вроде VMware vSphere или KVM, могут использовать все преимущества ускорителей A100, причём сентябрьское обновление ПО NVIDIA получило ряд полезных нововведений. Среди них — поддержка множественных инстансов: каждый ускоритель теперь может быть разделен на изолированные разделы (Multi-Instance GPU, MIG), запускающие разные задачи разных пользователей. Таких разделов может быть до 7, и каждый будет работать в собственной виртуальной машине.

Появилась гетерогенность: вышеупомянутые инстансы могут иметь разную «величину». Также реализована поддержка GPUDirect RDMA, прямого доступа сетевых устройств к памяти GPU в обход CPU и системной памяти, что позволит разгрузить центральные процессоры серверов виртуализации. Сертифицированные серверы такого класса, оснащаемые новейшими ускорителями A100, уже доступны от партнёров NVIDIA. А на конференции GPU Technology Conference, которая стартует 5 октября, NVIDIA собирается рассказать о технологии Virtual Compute Server более подробно.

Первая версия продукта NVIDIA появилась ещё год назад под именем vComputeServer, однако его впоследствии пришлось поменять, так как оказалось, что торговая марка «vCompute» давно принадлежит компании Virtual Compute. Последняя две недели назад подала иск к NVIDIA в связи с тем, что такая схожесть имён мешает бизнесу компании — в Google ссылки на её сервисы теперь даже не попадают на первую страницу поисковой выдачи. Virtual Compute просит суд запретить NVIDIA использовать любые похожие имена, уничтожить все материалы с их упоминанием, а также компенсировать ущерб.

Постоянный URL: http://servernews.ru/1022080
30.09.2020 [22:51], Владимир Мироненко

VMware vSphere получила полную поддержку функций безопасности AMD Infinity Guard

На прошлой неделе VMware анонсировала очередное обновление программной платформы виртуализации vSphere — vSphere 7 Update 1, в котором была добавлена поддержка технологии защиты памяти виртуальных машин гипервизора AMD Secure Encrypted Virtualization (SEV).

Таким образом, AMD-платформы стали более привлекательными как с точки зрения плотности и прозводительности, так и с точки зрения безопасности виртуализации для локальных облачных сред. По словам чипмейкера, процессоры EPYC показали в бенчмарке VMmark 3.1.1 гораздо более высокую (в 2,3 раза) производительность, чем чипы конкурентов. Помимо увеличения количества ядер и потоков, клиенты смогут использовать более ёмкую и быструю оперативную память, а также полный набор функций безопасности с AMD Infinity Guard, включая SEV, SEV-ES и SME.

AMD утверждает, что процессоры EPYC становятся одним из самых популярных движителей для виртуализации и HCI. Компания работает с OEM-партнёрами над поставкой узлов vSAN Ready Nodes, в которых используются процессоры AMD EPYC, а также другие решения VMware HCI на базе процессоров AMD EPYC.

На текущий момент экосистема AMD для VMware включает следующие решения на EPYC 7002:

  • Гиперконвергентные системы Dell EMC VxRail серии E поколения обеспечивают HCI для широкого круга сценариев использования.
  • Узлы Dell EMC VMware vSAN Ready Node — используя серверы Dell EMC PowerEdge, заказчики могут получить производительность в сочетании с гибкостью узлов Dell EMC vSAN Ready, гиперконвергентных строительных блоков для сред VMware vSAN.
  • Серверы HPE ProLiant DL325, DL385 Gen10 и Gen10 Plus специально созданы для пользователей VDI, критически важных бизнес-приложений и смешанных рабочих нагрузок с возможностью масштабирования. Серверы также сертифицированы vSAN ReadyNode.
  • Lenovo предлагает одно- и двухпроцессорные серверы Lenovo ThinkSystem, сертифицированные VMware vSAN ReadyNode. Сюда входят двухсокетные Lenovo ThinkSystem SR645 и SR665 с повышенной производительностью, а также однопроцессорные серверы Lenovo ThinkSystem SR635 и SR655, которые помогают клиентам ускорить выполнение более высокопроизводительных рабочих нагрузок и повысить эффективность.
  • Supermicro предлагает сертифицированные решения vSAN ReadyNode с двухпроцессорными процессорами AMD EPYC для клиентов, которые хотят как можно быстрее развернуть гиперконвергентное решение.
Постоянный URL: http://servernews.ru/1021919
29.09.2020 [19:57], Алексей Степин

VMware возложит часть нагрузки vSphere на DPU и SmartNIC

Когда-то архитектура x86 была очень простой, хотя её CISC-основа и была сложнее пути, по которому пошли процессоры RISC. Но за всё время своей эволюции она постоянно усложнялась и на процессоры возлагались всё новые и новые задачи, требующие дополнительных расширений, а то и перекладывались задачи с плеч специализированных чипов. Эта тенденция сохраняется и поныне, однако один из лидеров в мире виртуализации, компания VMware, имеет иное видение.

Сложность приложений и сценариев растёт, x86 может не успевать за возрастающей нагрузкой

Сложность приложений и сценариев растёт, x86 может не успевать за возрастающей нагрузкой

Перекладывание на x86 несвойственных этой архитектуре задач началось с внедрения расширений MMX. Сегодня современные серверные процессоры умеют практически всё и продолжают усложняться — достаточно вспомнить Intel VNNI, подмножество AVX-512, ускоряющее работу с всё более популярными задачами машинного обучения. Однако VMware считает, что x86 не успевает за усложнением программного обеспечения и полагает, что будущее ЦОД лежит в дезагрегации вычислительных ресурсов.

С учётом того, что задачи перед серверами и ЦОД встают всё более и более сложные, неудивительно, что наблюдается расцвет всевозможных ускорителей и сопроцессоров, от умных сетевых адаптеров и уже ставших привычными ГП-ускорителей до относительно экзотических идей, вроде «процессора обработки данных» (DPU). Последнюю концепцию на конференции VMworld 2020 поддержал такой гигант в сфере виртуализации, как VMware.

Но ряд задач можно переложить на плечи ускорителей типа SmartNIC или DPU

Но ряд задач можно переложить на плечи ускорителей типа SmartNIC или DPU

Переработкой своей основной платформы виртуализации vSphere компания занимается уже давно, и в проекте прошлого года под кодовым названием Pacific переработано было многое. В частности, в основу системы управления была окончательно положена контейнерная модель на базе коммерческой системы для Kubernetes под названием Tanzu. Проект этого года, получивший имя Monterey, ознаменовал дальнейшее движение в этом направлении.

Теперь Kubernetes стал не дополнением, пусть и включенным изначально, но единственным движком для управления как виртуальными машинами первого поколения, так и более современными контейнерами. Но из этого следует дальнейшее повышение вычислительной нагрузки на серверы.

Новая версия платформы vSphere проще, но она эффективнее использует имеющиеся вычислительные ресурсы

Новая версия платформы vSphere проще, но она эффективнее использует имеющиеся вычислительные ресурсы

В частности, как отмечает VMware, обработка данных ввода-вывода становится всё сложнее. Как мы уже знаем, это привело к зарождению таких устройств, как «умные сетевые адаптеры» (SmartNIC) и даже специализированных чипов DPU. Как первые, так и вторые, как правило, содержат ядра на базе архитектуры ARM, и именно их-то и предлагает использовать для разгрузки основных процессоров VMware. Информация о том, что компания работает над переносом гипервизора ESXi на архитектуру ARM официально подтвердилась.

Важной частью ESXi, как известно, является виртуализация сетевой части — «коммутаторов» и «микро-файрволлов», и в Project Monterey появилась возможность запускать сетевую часть ESXi полностью на ресурсах DPU или SmartNIC, благо современные ускорители этих классов имеют весьма солидную производительность, а иногда и превосходят в этом плане классические центральные процессоры.

Новое видение кластера по версии VMware: каждый процессор и сопроцессор занят своим делом

Новое видение кластера по версии VMware: каждый процессор и сопроцессор занят своим делом

Сама идея ускорения сетевой части, в частности, задач обеспечения сетевой безопасности в серверах за счёт SmartNIC не нова. Новизна подхода VMware заключается в другом: теперь реализация ESXi-on-ARM позволит не просто снять нагрузку в этих сценариях с плеч основных процессоров, но и представить за счёт виртуализации все сетевые ресурсы безопасно, в виде единого унифицированного пула и вне зависимости от типа процессоров, занятых в этих задачах. Среди уже существующих на рынке устройств, совместимых с новой концепцией VMware числятся, к примеру, и NVIDIA BlueField-2 — «умный сетевой адаптер», разработанный Mellanox — и решения Intel.

Как считает VMware, такой подход кардинально изменит архитектуру и экономику ЦОД нового поколения. На это есть основания, ведь если объединить пару 64-ядерных процессоров AMD EPYC второго поколения с сетевым ускорителем или DPU, работающим под управлением ESXi в составе единой платформы vSphere, то эту систему можно будет с полным правом назвать «ЦОД в коробке». Такое сочетание позволит запускать множество виртуальных машин с достаточным уровнем производительности, ведь основным x86-процессорам не придётся вывозить на себе виртуализацию сети, функционирование файрволлов и задачи класса data storage.

Демонстрация ESXi-on-ARM выглядит скромно, но это только начало

Демонстрация ESXi-on-ARM выглядит скромно, но это только начало

Пока Project Monterey имеет статус «технологического демо», но сама идея дизагрегации серверов, над которой продолжает работу VMware, выглядит логичной и законченной. Каждый процессор будет выполнять ту задачу, к которой он лучше всего приспособлен, но за счёт единой системы виртуализации платформа не будет выглядеть сегментировано, и разработка ПО не усложнится. Кроме того, VMware уже подтвердила возможность запуска на SmartNIC и DPU приложений сторонних разработчиков, так что лёд явно тронулся.

Постоянный URL: http://servernews.ru/1021812
24.09.2020 [17:02], Юрий Поздеев

VMware намекает, что ESXi для Arm скоро станет полноценным продуктом

VMware рассказала про ESXi-on-Arm в сентябре 2018 года, в 2019-ом предположила, что она сможет найти применение в SmartNIC или может оптимально подойти для облака AWS на базе Arm, но уже в 2020 году VMware заявила, что клиенты не видят необходимости в этом гипервизоре, поэтому он скорее всего не станет полноценным продуктом. Так что же изменилось с тех пор?

VMware собирается принять участие в конференции разработчиков Arm, которая начнется 6 октября. На этой конференции компания собирается представить новое решение для Arm, охватывающее локальную среду и периферийные вычисления.

Еще одним косвенным доказательством может являться новая учетная запись @esxi_arm в Твиттере с профилем, который гласит «Перенос знаменитого гипервизора VMware на 64-битный Arm». VMware даже заказала логотип ESXi-on-Arm, на логотипе которого изображена куропатка (в названии «Ptarmigan» есть слово «Arm»):

На данный момент нет достаточного количества информации о новом гипервизоре и остается только предполагать какой он будет, однако, учитывая, что VMware определенно любит Kubernetes и микросервисы, а AWS и Oracle заявляют, что Arm отлично подходит для подобных рабочих нагрузок, то такой анонс выглядит вполне логичным.

VMware в недавнем обновлении предоставила поддержку Kubernetes для пользователей vSphere, но на данный момент этот продукт еще недостаточно удобен в использовании. С появлением подобного продукта для Arm у VMware будет больше причин довести до совершенства поддержку контейнеров в своем гипервизоре.

Будет ли новый продукт востребован? Определенно да, ведь Arm активно развивает направление серверных процессоров. На днях она представила две новых платформы Neoverse c поддержкой SIMD SVE и формата bfloat16, а также интерфейсов PCIe 5.0, DDR5 и HBM: Neoverse N2 (Perseus) продолжит развитие универсальных CPU, а в V1 (Zeus) сделан упор на повышение производительности любой ценой.

Все больше пользователей начинают всерьез начинают рассматривать Arm как альтернативу х86, поэтому ESXi-on-Arm будет пользоваться популярностью.

Постоянный URL: http://servernews.ru/1021444
15.09.2020 [23:40], Владимир Мироненко

Анонсирована VMWare Workstation Pro 16.0: поддержка Kubernetes, 32 vCPU и 128 Гбайт в ВМ и тёмной темы

Компания VMWare объявила о выходе VMWare Workstation Pro 16.0 — проприетарной платформы виртуализации для настольных компьютеров под управлением Windows и Linux. VMware Workstation Pro позволяет специалистам разрабатывать, тестировать, демонстрировать и развертывать на одном ПК программное обеспечение, одновременно используя несколько операционных систем на базе x86: Windows, Linux и т. д.

Изменения и добавления в VMWare Workstation Pro 16.0:

  • Поддержка контейнеров и кластеров Kubernetes. Создание, запуск, извлечение образа контейнера производится с использованием интерфейса командной строки vctl
  • Поддержка новых гостевых ОС: RHEL 8.2, Debian 10.5, Fedora 32, CentOS 8.2, SLES 15 SP2 GA, FreeBSD 11.4 и ESXi 7.0
  • Поддержка DirectX 11 и OpenGL 4.1

Для последнего пункта для Windows-хостов необходима поддержка DirectX 11 со стороны GPU, а для Linux-хостов нужна видеокарта NVIDIA с драйверами с поддержкой OpenGL 4.5 и выше. Гостевые системы: Windows 7 и выше или Linux c драйвером vmwgfx. Кроме того, в Workstation 16 Pro для Linux благодаря Vulkan появилась поддержка 3D-ускорения для GPU Intel — гостевые системы получат доступ DirectX 10.1 и OpenGL 3.3. Естественно, для этого нужны подходящие драйверы, рекомендуется Mesa 20.1 и выше.

Существенно расширены возможности конфигурации виртуальной машины: до 32 виртуальных ядер, до 128 Гбайт памяти, до 8 Гбайт графической памяти. Для запуска ВМ с 32 vCPU необходимо, чтобы хостовая и гостевая операционные системы тоже поддерживали 32 логических процессора. Среди прочих изменений значатся следующие:

  • Повышена безопасность ВМ за счет переноса графического рендеринга из vmx в песочницу
  • Виртуальный контроллер XHCI перевели с USB 3.0 на USB 3.1 для поддержки скорости обмена до 10 Гбит/с.
  • Поддержка тёмной темы оформления
  • Поддержка vSphere 7.0 (подключени, миграция ВМ в обе стороны)
  • Повышена скорость передачи файлов
  • Уменьшено время выключения виртуальной машины.
  • Повышена производительность виртуального хранилища NVMe.

Для ряда функций (K8s и тёмной темы) требуется Windows 10 1809 или старше. Также сообщается о прекращении поддержки общих (shared) и возможности задать дополнительный пароль для защиты ВМ (Restricted Virtual Machines).

Постоянный URL: http://servernews.ru/1020714
26.08.2020 [20:20], Владимир Мироненко

Мобильный ЦОД путешествует вместе с гоночной командой Williams «Формулы-1»

Одиннадцать лет назад корреспондент ресурса eWEEK во время посещения штаб-квартиры Ferrari в Маранелло (Италия) обнаружил там, помимо гоночных автомобилей для состязаний «Формулы-1», центр обработки данных с десятью стойками с оборудованием, системой кондиционирования и серверами с жидкостным охлаждением. С тех пор многое изменилось, но мобильные ЦОД по-прежнему являются непременным атрибутом команд «Формулы-1».

В «Формуле-1», как и везде, растёт потребность во всё больших вычислительных мощностях и в том, чтобы компьютеры были как можно ближе к месту проведения самой гонки. В этот раз eWEEK рассказал о британской команде гонщиков Williams F1. Хотя у Williams есть дата-центр в штаб-квартире компании в Великобритании, у неё также есть мобильный ЦОД, который путешествует с гоночной командой.

«У нас есть две стойки с оборудованием, которые мы возим по всему миру», — сообщил Грэм Хакланд (Graeme Hackland), ИТ-директор Williams Racing. Мобильный ЦОД Williams также включает в себя рабочие станции, системы кондиционирования, источники бесперебойного питания и генераторы. По словам Хакланда, ранее у мобильного ЦОД было больше оборудования, но его количество удалось уменьшить благодаря виртуализации (Nutanix) и переносу части вычислительных задач в облако.

«Когда-то, до виртуализации у нас было четыре стойки с оборудованием, — рассказал он. — Наш проект виртуализации окупился за девять месяцев в одном сезоне только за счёт экономии на транспортировке». Хакланд сообщил, что доставка ЦОД к месту проведения каждой гонки обходится в $300 за каждый килограмм оборудования. Но это только часть расходов. К гаражу на месте гонки прокладывается отдельный кабель для доступа в Интернет, а в самом гараже силами IT-команды разворачивается локальная сеть.

Хакленд подчеркнул, что они используют физическую проводную сеть в гараже, потому что «Wi-Fi становится ненадёжным в выходные дни». Кабели Ethernet прокладываются к пит-зоне через боксы. Хакленд пояснил, что обслуживающей команде нужен доступ к сети, чтобы она могла вносить изменения во время гонки. «Мы обеспечиваем 100-процентный доступ к боксам в режиме реального времени», — сказал Хакленд.

Мобильный ЦОД Williams F1. Фото: eWeek

Мобильный ЦОД Williams F1. Фото: eWeek

Мобильный ЦОД (на фото выше) получает непрерывный поток зашифрованной телеметрии от примерно 300 датчиков в автомобиле во время гонки, что позволяет команде отслеживать его поведение на предмет возможных корректировок и потенциальных проблем. Кроме того, поддерживается прямая связь со штаб-квартирой.

Часть данных отправляется в облако, где можно получить дополнительные вычислительные мощности, в частности, для анализа видео с гонок. Хакланд отметил, что видео с записью конкурирующих автомобилей используется для анализа их действий, и если выявляется что-то подозрительное, то это можно использовать для опротестования результатов гонки.

Постоянный URL: http://servernews.ru/1019164
Система Orphus