Материалы по тегу: вычисления

06.12.2021 [13:19], Сергей Карасёв

DataQube получила инвестиции в размере €26 млн, а EdgeMicro будет ликвидирована

Стартап DataQube, специализирующийся на разработке масштабируемых платформ для построения периферийных центров обработки данных, сообщил о привлечении инвестиций в рамках раунда Series A. Средства предоставила французская инвестиционная компания Rgreen Invest.

Rgreen Invest выделила €26 млн. Деньги будут направлены в том числе на разработку новых технологий и аппаратных решений, обеспечивающих сокращение выбросов углекислого газа в атмосферу. Летом нынешнего года DataQube анонсировала специализированную платформу для быстрого развёртывания дата-центров. Разработчик называет своё решение первой в мире самостоятельной edge-системой, готовой к использованию технологий 5G.

Источник изображений: DataQube

Источник изображений: DataQube

Модульная платформа DataQube может иметь различные конфигурации, что позволяет устанавливать её на площадках с ограниченным пространством. Допускается применение разных источников энергии. В целом, платформа обеспечивает возможность организации высокопроизводительных вычислений (НРС) на периферии.

Между тем стало известно, что молодая компания EdgeMicro будет ликвидирована. О причинах данного решения ничего не сообщается. Компания специализировалась на создании модульных периферийных контейнерных микро-ЦОД, размещаемых около базовых станций 5G. На первом этапе планировалось развернуть 30 таких дата-центров, 20 из которых должны были вступить в строй в прошлом году.

Постоянный URL: http://servernews.ru/1055261
20.11.2021 [13:05], Павел Котов

После неудачи с JEDI Пентагон запросил у Amazon, Google, Microsoft и Oracle предложения по новым облачным контрактам

Управление общих служб США (GSA) заявило, что Министерство обороны запросило у Amazon, Google, Microsoft и Oracle тендерные предложения по новым облачным контрактам. Это произошло после того, как Пентагон был вынужден отменить контракт на $10 млрд, который Microsoft выиграла, а Amazon оспорила.

Новый проект получил название JWCC (Joint Warfighting Cloud Capability) — по всей вероятности, предпочтение будет отдано Amazon и Microsoft как крупнейшим в мире облачным провайдерам, хотя доверие может быть оказано и более мелким игрокам. В сообщении GSA говорится: «Правительство склоняется к заключению двух IDIQ-контрактов — одного с Amazon Web Services, Inc. (AWS) и одного с Microsoft Corporation (Microsoft), — но намеревается заключить соглашения со всеми поставщиками облачных услуг (CSP), которые продемонстрируют соответствие требованиям Министерства обороны».

Источник изображения: David Mark / pixabay.com

Источник изображения: David Mark / pixabay.com

Контракты IDIQ (Indefinite Delivery, Indefinite Quantity) предполагают получение неопределённого объёма услуг в течение неопределённого времени. В GSA заявили, что из американских облачных провайдеров, по всей видимости, только Amazon и Microsoft способны выполнить все требования Пентагона, включающие наличие «тактических периферийных устройств», способных работать за пределами традиционных ЦОД и поддерживать все уровни секретности данных.

Amazon и Microsoft стали финалистами проекта JEDI (Joint Enterprise Defense Infrastructure) — он был предназначен рассчитан только на одного поставщика, а его ожидаемая стоимость в течение 10 лет составляла $10 млрд. В 2019 году его выиграла Microsoft, однако Amazon подала протест, и в июле 2021 года Пентагон аннулировал контракт. JWCC отличается от JEDI тем, что позволяет заказчику работать с несколькими облачными провайдерами. Предполагается, что каждый IDIQ-контракт будет заключаться на трёхлетний период с возможностью двухкратного продления сроком на один год.

Постоянный URL: http://servernews.ru/1054175
11.11.2021 [16:03], Владимир Мироненко

Облачная ИИ-платформа SberCloud ML Space получит новый сервис конфиденциальных вычислений на базе Intel SGX

Облачная платформа SberCloud ML Space, предоставляющая доступ к инструментарию oneAPI, в ближайшем будущем получит сервис конфиденциальных вычислений на базе технологии Intel Software Guard Extensions (Intel SGX). Об этом было сообщено в ходе международной конференции AI Journey 2021. Новый сервис станет доступен в облаке SberCloud в марте 2022 года.

Благодаря использованию Intel SGX новый сервис позволит не только хранить и передавать данные в зашифрованном виде, но и обрабатывать их в защищённом анклаве, позволяющем обеспечить защиту чувствительных данных от многих известных и активных угроз. Доступ в эту защищённую зону закрыт как от проникновения извне, так и для самого провайдера облачных услуг.

Источник изображения: sber.ru

Источник изображения: sber.ru

В мае SberCloud объявил о расширении возможностей облачной платформы ML Space благодаря применению кросс-архитектурной модели программирования oneAPI от Intel. С её помощью разработчики теперь могут использовать возможности различных архитектур без полного переписывания кода для каждой аппаратной платформы.

Давид Рафаловский, CTO Сбера, отметил, что использование инструментов oneAPI позволяет заметно ускорить разработку ИИ-приложений за счёт оптимизации аппаратного обеспечения и софта. Вместе с тем есть необходимость в новом сервисе, который позволит использовать для обучения моделей «очень чувствительные данные, которые необходимо безопасно обрабатывать».

Постоянный URL: http://servernews.ru/1053508
11.11.2021 [15:47], Сергей Карасёв

NVIDIA представила конвергентные ускорители A30X и A100X: GPU + DPU + PCIe-свитч

NVIDIA анонсировала конвергентные ускорители A30X и A100X, позволяющие выполнять ресурсоёмкие задачи на периферии, границе сети и в дата-центрах уровнем безопасности и производительности. В устройствах объединены ускоритель Ampere, DPU и коммутатор PCIe.

Наличие этих компонентов на одной физической карте повышает эффективность использования пространства и энергии. Применение конвергентных ускорителей позволяет упростить развёртывание и обслуживание систем на базе ИИ. Изделия выполнены в виде полноразмерных двухслотовых карт расширения с основным интерфейсом PCIe 4.0 x16, двумя портами 100G Ethernet/InfiniBand и выделенным портом управления.

Источник изображений: NVIDIA

Источник изображений: NVIDIA

Модель A30X с TDP 230 Вт сочетает ускоритель A30 и DPU BlueField-2. Объём памяти HBM2e составляет 24 Гбайт (ПСП 1,16 Тбайт/c). С помощью технологии MIG (Multi-Instance GPU) укоритель можно разделить на четыре инстанса, на каждом из которых может быть запущен отдельный сервис. Вариант A100X с TDP 300 Вт получил ускоритель A100 с 80 Гбайт памяти HBM2e (ПСП 1,94 Тбайт/с) и всё тот же DPU BlueField-2. Возможно использование до семи инстансов.

Модель A100X также имеет три мостика NVLink 3.0 для прямого подключения нескольких ускорителей друг к другу, а у A30X такой мостик только один. «В системах, где требуется несколько GPU и DPU, конвергентный ускоритель позволяет избежать конфликтов при попытке одновременной передачи данных по шине PCIe, поэтому производительность увеличивается линейно числу дополнительных устройств», — заявляет NVIDIA.

Ускорители могут работать в двух режимах. В стандартном режиме хост-система видит GPU и DPU и может работать с ними независимо. В режиме BlueField-X набортный PCIe-коммутатор сконфигурирован так, все ресурсы GPU эксклюзивно отданы DPU, поэтому хост-системе доступен только DPU.

Новинки могут быть использованы для обслуживания малых сот и базовых станций посредством 5G vRAN, для предоставления ускоренных 5G-сервисов, формирования высокопроизводительных «умных» систем хранения данных, ИИ-обработки трафика, детектирования сетевых аномалий, сервисов информационной безопасности (Morpheus) и т.д.

Постоянный URL: http://servernews.ru/1053507
09.11.2021 [13:53], Владимир Мироненко

Электрический ИИ: Siemens Energy использует NVIDIA Triton для управления энергетическими объектами

Siemens Energy и NVIDIA объявили о внедрении решения на базе инференс-сервера NVIDIA Triton с целью использования искусственного интеллекта для управления объектами энергетики и их прогнозного обслуживания по всему миру. Siemens Energy, ведущий поставщик оборудования и технологий для электростанций, располагает обширным портфолио машин и объектов для обслуживания, которые обеспечивают поставку электроэнергии по всему миру.

Список объектов включает десятки тысяч газовых и паровых турбин, генераторов, газовых и дизельных двигателей — всё вместе включает невероятное количество движущихся частей, которыми надо управлять, отслеживая их состояние. При обслуживании электростанции проводится сотни различных видов проверок, которые выполняются квалифицированными специалистами. Многие электростанции уже не требуют постоянного присутствия человека, что влечёт к необходимости удаленного управления.

Арик Отт (Arik Ott), менеджер по продуктам Siemens Energy AG, также отметил, что в Европе стареет рабочая сила, и ожидается, что многие квалифицированные специалисты выйдут на пенсию в течение следующего десятилетия. Подыскать на их место тех, кто обладает нужными навыками, будет непросто. Поэтому уже сейчас необходимо создавать «умные» средства мониторинга и управления объектами.

NVIDIA

NVIDIA

Siemens Energy имеет широкий набор средств для получения телеметрии. Это различные механические и «умные» датчики, камеры и даже акустические сенсоры. На основе получаемых от них данных обучаются и дорабатываются ИИ-модели, причём с учётом различных условий. Например, модель должна правильно распознавать поломку даже при смене освещения или выявлять утечку пара в помещении и на открытом воздухе.

Однако обучение моделей — это полдела. Требуется и масштабируемое решение для инференса — для обработки данных миллионов датчиков — способное работать с несколькими платформами и массивными входными потоками. Поэтому Siemens Energy выбрала NVIDIA Triton, поскольку это универсальная и открытая инференс-платформа, способная работать и в облаке, и на периферии. Это полезно в тех случаях, когда данные не могут быть перемещены с электростанций и требуется локальная или пограничная аналитика.

Решение позволяет дополнять, а иногда и полностью заменять физические проверки, обеспечивая круглосуточный удаленный мониторинг. Кроме того, предоставляемая аналитика обеспечивает автоматизированную работу в режиме мониторинга, а также предоставляет возможность электростанциям назначать уровни автономности в управлении объектами с помощью ИИ. Электростанции требуют тщательного мониторинга как эффективности, так и безопасности. Утечки жидкости, пара или масла, оставленные незамеченными, могут быть катастрофическими и стоить миллионы долларов.

Постоянный URL: http://servernews.ru/1053292
09.11.2021 [12:33], Алексей Степин

NVIDIA представила платформу Jetson AGX Orin для периферийных ИИ-вычислений, робототехники и автономного транспорта

Одним из лидеров в создании высокопроизводительных встраиваемых решений давно является NVIDIA с серией Jetson. На смену уже немолодой платформе Jetson AGX Xavier пришла Jetson AGX Orin, обладающая ускорителем с архитектурой Ampere.

Компания не без оснований называет Jetson AGX Orin самой мощной, компактной и энергоэффективной платформой для робототехники, автономного транспорта и встраиваемых решений для работы на периферии — её производительность оценивается в 200 Топс, что более чем в шесть раз выше показателей Xavier. По словам NVIDIA новинка сравнима по скорости работы с GPU-сервером, но при этом умещается на человеческой ладони.

Новая 7-нм SoC состоит из 17 млрд транзисторов. Она включает 12 ядер Cortex-A78AE, одних из самых мощных в арсенале Arm, предназначенных для задач класса mission critical и имеющих продвинутые механизмы защиты от системных сбоев Это немаловажно, к примеру, при применении в беспилотных транспортных средствах и промышленной автоматике. Всё это дополнено 2048 ядрами NVIDIA Ampere. ускорители. Ускорена подсистема памяти (200 Гбайт/с). Серьёзно возросли сетевые возможности — новый чип имеет сразу четыре интерфейса 10 Гбит/с.

Разработчики решений на базе Jetson AGX Orin могут использовать NVIDIA CUDA-X, JetPack SDK и наиболее новые версии утилит NVIDIA. Также на момент анонса уже доступны предварительно натренированные и оптимизированные под новую платформу ИИ-модели из каталога NVIDIA TAO, которые помогут сократить время создания новых решений на базе Orin. Доступность новых плат Jetson AGX запланирована на первый квартал следующего года. Дабы не пропустить этот момент, NVIDIA предлагает зарегистрироваться в соответствующем разделе своего сайта.

Постоянный URL: http://servernews.ru/1053253
01.11.2021 [22:02], Владимир Мироненко

Рынок конфиденциальных вычислений может достичь в 2026 году $54 млрд

Intel, один из основателей консорциума Confidential Computing Consortium, представила решени Gramine 1.0. Это решение, предназначенное для обеспечения защиты чувствительных рабочих нагрузок с помощью набора инструкций Intel Software Guard Extensions (Intel SGX). Кроме того, консорциум опубликовал результаты исследования Everest Group, согласно которому рынок конфиденциальных вычислений может достичь в 2026 году $54 млрд.

Конфиденциальные вычисления в доверенной аппаратной среде (Trusted Execution Environment, TEE) находятся на подъёме. Согласно прогнозу Everest Group, этот рынок будет расти до 2026 года со средним годовым темпом роста от 90 до 95 % при агрессивном сценарии роста и от 40 до 45 % при наиболее консервативном сценарии. Поставщики ПО, как ожидается, будут иметь долю в общей прибыли около 63 %, за ними следуют поставщики оборудования около 29 %, а также поставщики услуг и интеграторы около 6 %.

intel.com

intel.com

Ожидается, что ужесточение правил в отношении конфиденциальности данных и увеличение числа кибератак будут способствовать наибольшему распространению конфиденциальных вычислений в сегментах аппаратного и программного обеспечения, особенно в регулируемых отраслях, таких как банковское дело и здравоохранение. Новые технологические парадигмы, такие как протокол конфиденциального вычисления (MPC) и корпоративный блокчейн, также будут составлять значительную долю рынка.

Постоянный URL: http://servernews.ru/1052707
21.10.2021 [20:44], Алексей Степин

AWS представила Panorama Appliance для периферийных систем машинного зрения

Крупные облачные провайдеры последовательно осваивают всё новые и новые ниши, предлагая всё более комплексные и специализированные решения. Но при всех своих преимуществах, облачные технологии не всегда подходят для любого сценария, поэтому для локализованной обработки данных на периферии без пересылки их в облако приходится создавать новые решения вроде AWS Panorama Appliance.

Panorama Appliance — не совсем обычный продукт для AWS, поскольку речь действительно идёт о классическом аппаратном устройстве, которое может быть приобретено как обычный сервер или любой другой компонент ИТ-инфраструктуры, а не просто сдаётся в аренду. Предназначено оно, как можно догадаться из названия, для систем машинного зрения.

В основе новинки лежит NVIDIA Jetson Xavier AGX, достаточно мощная сама по себе платформа. Напомним, сердцем данного модуля является 8-ядерный процессор с архитектурой ARM v8.2, дополненный 512 ядрами Volta и 64 ядрами для тензорных вычислений, а также контроллером LPDDR4X (256 бит) с пропускной способностью 137 Гбайт/с.

Эта связка развивает 11 Тфлопс на вычислениях FP16 и 22 Топс при работе с INT8, что уже весьма немало. Однако это не всё: два дополнительных движка NVDLA дают ещё 5 Тфлопс в FP16 и 10 Топс в INT8, а за функции машинного зрения отвечает отдельный VLIW-сопроцессор. Чип умеет декодировать одновременно восемь HEVC-видеопотоков 8К@30, а декодировать — двенадцать.

Под передней крышкой скрываются порты HDMI, USB и SD; разъёмы Ethernet расположены сзади

Под передней крышкой скрываются порты HDMI, USB и SD; разъёмы Ethernet расположены сзади

Основным сценарием, как и было сказано, является классификации данных, поступающих с видеокамер, с помощью ИИ-моделей. Интеграция с сервисом AWS SageMaker предусмотрена, но не является обязательной — Panorama Appliance может функционировать и автономно. Поддерживаются модели, созданные с помощью Apache MXNet, DarkNet, GluonCV, Keras, ONNX, PyTorch, TensorFlow или TensorFlow Lite. Стоит устройство $4000 + каждый уникальный видеопоток оплачивается отдельно ($8,33/мес.).

Постоянный URL: http://servernews.ru/1051876
20.10.2021 [15:18], Сергей Карасёв

Axis представила чип ARTPEC-8 с поддержкой ИИ-видеоаналитики

Компания Axis Communications анонсировала специализированный чип ARTPEC-8, предназначенный для сетевых видеоприложений. Решение ARTPEC-8, как утверждает разработчик, поддерживает высокоэффективные решения в области видеоаналитики на базе глубокого обучения непосредственно в камерах.

Это позволяет уменьшить нагрузку на каналы связи и СХД, сократить время реакции, повысить защищённость данных, упростить масштабирование и снизить затраты. Кроме того, были улучшены функции повышения качества изображения, сжатия данных и обеспечения безопаcности, представленные ещё в ARTPEC-7. Также новинка поддерживает технологии Axis Lightfinder 2.0 и Axis Forensic WDR для оптимальной обработки изображений, полученных в сложных условиях освещения.

Здесь и ниже изображения Axis

Здесь и ниже изображения Axis

Вместе с чипом представлена четвёртая версия платформы для аналитических приложений AXIS Camera Application Platform (ACAP), которая позволяет разработчикам создавать современные аналитические приложения. В состав продукта включён ACAP Computer Vision SDK, который позволяет объединить в целое периферийные, локальные и облачные платформы. Кроме того, он поддерживает приложения компьютерного зрения для устройств Axis с функциями ИИ и включает в себя стандартные для отрасли API и фреймворки.

Компания отдельно подчёркивает, что она полностью контролирует разработку чипов «вплоть до последнего транзистора», что важно для обеспечения безопасности. ARTPEC-8 (как и ARTPEC-7) поддерживает Secure Boot, прошивки с цифровой подписью, а также безопасное хранилище Edge Vault для ключей и сертификатов. В ряде камер на базе нового чипа будет доступен TPM-модуль для формирования хранилища в соответствии со стандартами FIPS.

Постоянный URL: http://servernews.ru/1051725
14.10.2021 [22:33], Андрей Галадей

Cambridge Quantum выпустила первый в мире инструментарий для создания квантовых переводчиков

Компания Cambridge Quantum (CQ) объявила о выпуске первого в мире набора инструментов и библиотеки для квантовой обработки естественных языков (QNLP). Этот инструментарий называется lambeq в честь покойного математика и лингвиста Иоахима Ламбека (Joachim Lambek).

Утверждается, что lambeq — это первый в мире программный инструментарий QNLP. Он предназначен для ускорения разработки приложений, которые смогут автоматически переводить разговор на разные языки, преобразовывать текст в речь и так далее. Новинка получила полностью открытые исходники, которые доступны на GitHub.

В основе lambeq и QNLP лежат результаты исследовательского проекта, продолжавшегося более десяти лет. lambeq автоматизирует разработку и развертывание квантового ПО, которое может использоваться в том числе для систем перевода. В последние годы приложения на основе NLP стали широко распространены во всех сферах — от клиентских и потребительских технологий до здравоохранения и рекламы. Аналитики считают, что к 2028 году мировой рынок NLP-решений вырастет до $127,26 млрд, а среднегодовой прирост составит не менее 30%.

Постоянный URL: http://servernews.ru/1051291
Система Orphus