Материалы по тегу: вычисления

09.04.2021 [16:12], Владимир Мироненко

Российский разработчик oneFactor реализовал машинное обучение внутри анклавов Intel SGX

Российский разработчик сервисов искусственного интеллекта oneFactor впервые реализовал тренинг алгоритмов машинного обучения внутри анклавов (защищённой области в адресном пространстве приложения) Intel Software Guard Extensions (Intel SGX) на своей ML-платформе.

Для аналитиков банков это означает возможность сокращения вывода готовой аналитики с нескольких дней до считанных минут. Новое решение позволит повысить качество рекомендаций с применением алгоритмов машинного обучения на 20–35 % по сравнению с раздельной обработкой данных, и ускорить ML-цикл, сократившийся до нескольких часов. Увеличение производительности достигается за счёт комбинации данных различных типов и обучения алгоритмов в зашифрованном виде.

Благодаря использованию технологии Intel Software Guard Extensions (Intel SGX), обеспечивающей защиту данных в анклаве от системных процессов, выполняемых с более высокими уровнями привилегий, клиенты oneFactor могут быть уверены, что код приложения, осуществляющий доступ к личным данным, был проверен и одобрен. Теперь исполняемый код — алгоритм машинного обучения, генерируется непосредственного в анклаве. А в новых процессорах Intel Xeon Ice Lake-SP размер объём анклава может достигать 512 Гбайт, что упрощает работу с такими нагрузками.

Благодаря использованию Intel SGX решение oneFactor позволяет обрабатывать полностью зашифрованные данные в апаратно-защищённой среде. Это позволяет объединять данные разных компаний и индустрий с соблюдением условия конфиденциальности в едином вычислительном облаке, а затем использовать их в рекомендательных сервисах на базе ИИ. Особенностью ML-платформы oneFactor является высокий уровень защиты исходных данных от компрометации на аппаратном уровне, поскольку их «видит» только алгоритм машинного обучения. К ним нет доступа даже у администраторов системы или поставщика облачных сервисов.

oneFactor отметил, что это первое в России коммерческое применение технологии обеспечения конфиденциальности данных для тренировки алгоритмов машинного обучения в финансовом секторе. Данное решение позволит банкам улучшить качество сервисов и обслуживания своих клиентов: от противодействия телефонному мошенничеству до полностью автоматической верификации кредитных заявок. На данный момент к платформе уже подключён ряд крупнейших российских банков.

Постоянный URL: http://servernews.ru/1036948
08.04.2021 [15:45], Сергей Карасёв

Supermicro Hyper-E: компактные edge-серверы на базе Intel Xeon Ice Lake-SP

Компания Supermicro анонсировала новые серверы серии Hyper-E: эти системы могут применяться в составе облачных платформ и инфраструктур связи пятого поколения (5G). Кроме того, они подходят для edge-вычислений, приложений искусственного интеллекта, машинного обучения, виртуализации сетевых функций и решения различных задач в телекоммуникационной сфере.

В серии представлены машины в форм-факторе 1U и 2U, рассчитанные на монтаж в стойку и использующие новейшие процессоры Intel Xeon Scalable 3-го поколения с кодовым именем Ice Lake-SP, которые были официально представлены всего несколько дней назад.

Семейство включает двухсокетные модели SYS-220HE-FTNR, SYS-220HE-FTNRD, SYS-120H-TNR и SYS-620H-TN12R. Все они оснащены 32 слотами для модулей оперативной памяти DDR4-3200 суммарным объёмом до 8 Тбайт. В зависимости от модификации допускается установка накопителей формата 3,5 или 2,5 дюйма с «горячей» заменой. Кроме того, предусмотрены коннекторы для твердотельных модулей M.2 NVMe.

Для серверов предлагаются гибкие опции по организации сетевых подключений. К примеру, могут быть установлены контроллеры с портами 10GbE SFP+, 25GbE RJ45/SFP28 и 100GbE QSFP28.

В зависимости от модели поддерживается монтаж двух или четырёх графических акселераторов для организации GPU-вычислений. Более подробно с техническими характеристиками устройств можно ознакомиться здесь.

Постоянный URL: http://servernews.ru/1036864
06.04.2021 [15:14], Владимир Мироненко

Серверные решения на базе Arm наращивают присутствие на рынке периферийных вычислений

Согласно недавнему отчёту Digitimes Research, Arm-архитектура расширяет своё присутствие на рынке серверов для периферийных вычислений, поскольку решения на этой платформе отличаются низким энергопотреблением и более доступной стоимостью.

Операторы облачных вычислений первого уровня и крупные вендоры, такие как Amazon, Huawei и Hewlett-Packard Enterprise (HPE), инвестировали в разработку чипов и систем на базе Arm, а сама Arm также начала продвигать проект Project Cassini, стремясь укрепить экосистему своей серверной платформы и расширить совместимость с периферийными решениями.

Supermicro SYS E403 9D 16C IPD2 — периферийный сервер для радиомачт

Supermicro SYS E403 9D 16C IPD2 — периферийный сервер для радиомачт

Как ожидается, Amazon станет основным клиентом решений для облачных вычислений на базе Arm. В дополнение к своим сервисам AWS Elastic Compute Cloud (EC2) на базе Arm, компания также планирует запустить к концу 2021 года гибридные облачные сервисы Outposts на базе Arm, которые будут ориентированы на бизнес периферийных вычислений на предприятиях.

Аналитики отметили, что в настоящее время решения на базе Arm занимают лишь ограниченную долю на рынке серверов и по-прежнему имеют проблемы, связанные с совместимостью с аппаратным и программным обеспечением серверов на базе x86. Поэтому экосистему Arm пока нельзя назвать всеобъемлющей.

Но, как прогнозирует Digitimes Research, Arm-решения будут постепенно проникать на рынок пограничных серверов, где в настоящее время доминирует архитектура x86, с большим количеством брендов серверов и операторов облачных вычислений, которые будут разрабатывать продукты на основе Arm.

Постоянный URL: http://servernews.ru/1036660
20.03.2021 [13:47], Сергей Карасёв

Xilinx представила компактные решения UltraScale+ для периферийных вычислений

Компания Xilinx расширила семейство продуктов UltraScale+, анонсировав ультракомпактные изделия Artix и Zynq, рассчитанные на применение в сфере периферийных (edge) вычислений. Чипы позволят решать различные задачи в сферах машинного зрения, вещания, здравоохранения, транспорта и пр.

Новинки будут производиться по 16-нанометровой технологии и использовать упаковку InFO (Integrated Fan-Out) компании TSMC. Утверждается, что изделия приблизительно на 70 % компактнее традиционных современных чипов.

Новое семейство Artix UltraScale+ включает небольшие ПЛИС (FPGA). Они отлично подходят для машинного зрения, высокоскоростных сетевых устройств, видеооборудования класса 8K-Ready и пр. Упомянуты трансиверы с пропускной способностью 16 Гбит/с.

В свою очередь, решения Zynq UltraScale+ — это микропроцессорные системы на кристалле (MPSoC), оптимизированные с целью снижения стоимости. Они могут содержать два или четыре вычислительных ядра ARM Cortex-A53, а также программирые элементы и DSP. Эти изделия подходят для оборудования Интернета вещей, интегрируемых видеокамер, различного медицинского оборудования и пр.

Пробные производство и поставки новых чипов планируется организовать в третьем квартале текущего года. Подробности о новинках представлены в презентации компании.

Постоянный URL: http://servernews.ru/1035347
19.03.2021 [14:18], Владимир Мироненко

Submer представила контейнерные микро-ЦОД MegaPod с погружным охлаждением

Компания Submer, специализирующаяся на разработке решений иммерсионного охлаждения для центров обработки данных, облачных и периферийных вычислений, объявила о запуске MegaPod, модульного дата-центра с иммерсионным охлаждением. Данная технология использует метод погружения компонентов (или целых серверов) в диэлектрический теплоноситель.

Погружное охлаждение позволяет ЦОД справиться с растущим спросом на более высокую удельную мощность. К преимуществам технологии, по словам разработчика, также следует отнести снижение уровней выброса CO2 и энергопотребления + лучшую совокупную стоимость владения (TCO). Кроме того, иммерсионное охлаждение обеспечивает защиту оборудования от воздействия окружающей среды.

MegaPod объединяет ванны Submer SmartPod XL/XL+, IT-системы, системы электропитания, пожаротушения и т.д. в 10-, 20- или 40-футовом ISO-контейнере High Cube, который дополнен внешней градирней. Несколько контейнеров можно поставить друг на друга или рядом. Компактность и модульность обеспечивает быстрое развёртывание ЦОД в любом месте и упрощённый ввод в эксплуатацию наряду с низким энергопотреблением. Также упрощается выбор места для размещения дата-центра благодаря имеющейся опции с полностью сухим охлаждением.

В серию входят модели MegaPod 100, 200, 400 и 800, которые имеют ёмкость 2 × 44U/42OU, 4 × 44U/42OU, 8 × 44U/42OU и 8 × 41U/39OU. Цифра в наззвании указывает на максимальную мощность. Для первых трёх моделей опционально доступна сертификация Tier III. Компания также предложит клиентам возможность приобрести MegaPod в качестве решения «под ключ» через нескольких партнёров, что позволит клиентам получить полностью работоспособный ЦОД менее чем за 16 недель.

Дэниел Поуп (Daniel Pope), генеральный директор Submer, говорит, что «запуск такого продукта, как MegaPod, является следующим шагом для Submer. Благодаря простоте развёртывания и беспрецедентным преимуществам в TCO, на наши интегрированные решения существует большой спрос. Кроме того, MegaPod оптимизирует цепочку поставок, внедряя иммерсионное охлаждение, которое может иногда, как и в случае с традиционными ЦОД, выступать в качестве барьера для клиентов. Это идеальное решение для тех компаний, которые хотят легко расширить свои периферийные возможности, а также повысить свою эффективность и устойчивость. При необходимости, благодаря нашим партнёрам, Submer теперь в состоянии предоставить полностью модульный ЦОД».

Постоянный URL: http://servernews.ru/1035234
16.03.2021 [01:36], Владимир Мироненко

В Azure появились инстансы на базе AMD EPYC 7003 для HPC и защищённых вычислений

В рамках анонса новых процессоров EPYC 7003 (Milan) компании AMD и Microsoft объявили о появлении в облаке Azure новых решений на базе этих CPU. Первое, находящееся в приватном бета-тестировании, предназначено для так называемых защищённых или конфиденциальных вычислений (Confidential Computing). Microsoft Azure уже не первый год занимается инновациями этой в области. Более трёх лет финансовые и правительственные службы, поставщики медицинских услуг и даже мессенджеры используют эту технологию защиты, например, для распределённого машинного обучения или для переноса своих конфиденциальных данных в облако.

Технический директор Azure Марк Руссинович (Mark Russinovich) объявил в понедельник, что сервис ещё больше расширяет возможности конфиденциальных вычислений в Azure. Azure станет первым крупным поставщиком облачных услуг, предлагающим конфиденциальные виртуальные машины на новых процессорах AMD EPYC серии 7003. Они дополнят существующие решения Azure, такие как конфиденциальные контейнеры для службы Azure Kubernetes, и откроют возможность создания новых защищённых приложений без необходимости модификации кода, что, в свою очередь, существенно упростит процесс их создания.

В основе лежит новое расширения системы шифрования памяти AMD SEV (Secure Encrypted Virtualization) — Secure Nested Paging, или SEV-SNP. SEV-SNP обеспечивает защиту памяти виртуальных машин от самого гипервизора. Ключи шифрования генерируются отдельным сопроцессором непосредственно внутри EPYC. Это гарантирует, что никто, включая администраторов облака, рабочих нагрузок, приложений или данных на виртуальных машинах, не имеет к ним доступа.

Вторая новинка Azure — виртуальные машины с процессорами AMD EPYC серии 7003 серии Azure HBv3, оптимизированные для высокопроизводительных вычислений (HPC), доступны в ряде регионов Azure в США и в Западной Европе. Также они вскоре будут доступны в остальных регионах США и Юго-Восточной Азии.  HBv3 имеют до 120 ядер ЦП AMD EPYC серии 7003, 448 Гбайт оперативной памяти и не поддерживают многопоточность (SMT).

Виртуальные машины серии HBv3 также обеспечивают пропускную способность памяти до 340 Гбайтт/с, до 32 Мбайт кеш-памяти L3 на каждое ядро, блочное SSD-хранилище со скоростью до 7 Гбайт/с и тактовую частоту до 3,675 ГГц. Все виртуальные машины серии HBv3 имеют выделенное подключение NVIDIA Mellanox HDR InfiniBand 200 Гбит/с для работы MPI. Машины HBv3, впервые в серии H, будут иметь варианты с малым числом ядер, которые при этом получат доступ к ровно тем же ресурсам, что и инстансы с большим числом ядер.

Постоянный URL: http://servernews.ru/1034924
03.03.2021 [16:17], Владимир Мироненко

Microsoft представила программно-аппаратную платформу Azure Percept для запуска ИИ на периферии

Microsoft анонсировала на виртуальной конференции Spring Ignite 2021 программно-аппаратную платформу Azure Percept, позволяющую вывести на периферию больше сервисов Azure AI и упростить клиентам использование технологий ИИ на граничных устройствах. Как сообщила компания, платформа предоставляет клиентам комплексную систему, от аппаратного обеспечения до возможностей искусственного интеллекта и машинного обучения, позволяющую пройти путь от создания моделей искусственного интеллекта до их развёртывания на совместимом оборудовании.

Percept сочетает в себе облачные инструменты Microsoft Azure для управления устройствами и создания моделей искусственного интеллекта с оборудованием от партнёров Microsoft. Новая платформа позволит компаниям упростить создание и внедрение решений ИИ для таких задач, как обнаружение объектов и аномалий, аналитика магазинных полок и определение ключевых слов на периферии, без подключения к облаку.

Платформа Azure Percept включает комплект разработчика оборудования, предоставленный ASUS и представляющий собой несущую плату, инструменты для монтажа и систему-на-модуле с камерой, получившую название Azure Percept Vision. В комплект входят модули искусственного интеллекта с аппаратной поддержкой для запуска моделей на периферии, но она также может быть подключена к облаку. Также в платформе есть дополнительный звуковой ускоритель с массивом из четырёх микрофонов, под названием Azure Percept Audio.

Azure Percept Vision и Azure Percept Audio поставляются отдельно со встроенными модулями с аппаратным ускорением, которые обеспечивают работу с речевым и визуальным ИИ на периферии или когда устройство не подключено к интернету.

«Azure Percept готова к работе с Azure Cognitive Services, Azure Machine Learning, Azure Live Video Analytics и другими службами Azure, — сообщила корпоративный вице-президент компании Роанна Сонс (Roanne Sones), — чтобы предоставлять визуальные и звуковые идеи в режиме реального времени».

По словам Microsoft, по мере того, как клиенты будут работать с использованием комплекта разработки Azure Percept, они получат доступ к сервисам Azure AI Cognitive Services и моделям Azure Machine Learning, а также к моделям ИИ, доступным в сообществе разработчиков ПО с открытым исходным кодом и предназначенным для работы на периферии. Кроме того, устройства Azure Percept будут автоматически подключаться к Azure IoT Hub, что поможет обеспечить защищённый от взлома обмен данными между устройствами Интернета вещей и облаком.

Программное обеспечение, как сообщается, доступно «разработчикам всех уровней квалификации» благодаря библиотеке предварительно созданных моделей искусственного интеллекта Azure и решению для построения моделей с минимальным написанием кода для их кастомизации.

Azure Percept является конкурентом Google Coral, набора оборудования и аксессуаров на базе тензорного сопроцессора Edge, предназначенного для поддержки разработки ИИ на периферии.

Постоянный URL: http://servernews.ru/1034023
01.03.2021 [15:09], Сергей Карасёв

Microsoft Azure MDC: мобильное облако в 40-футовом контейнере

Корпорация Microsoft начала поставки любопытного серверного решения — центра обработки данных Azure Modular Data Center (MDC), все составляющие которого заключены в стандартный 40-футовый контейнер. Такое исполнение позволяет перевозить систему на различных видах транспорта и быстро вводить в эксплуатацию.

ЦОД может быть развёрнут в любом месте, где есть подходящая площадка для установки контейнера и электрическая сеть необходимой мощности. Более того, питание может подаваться от дизельных генераторов. ЦОД и всё его оборудование сконструированы так, чтобы пережить и транспортировку, и эксплуатацию в не самых благоприятных условиях.

Система позволяет получить доступ к вычислительным мощностям облака Azure. Контейнерный ЦОД может функционировать в суровом климате, обеспечивая бесперебойную работу критически важной инфраструктуры. Платформа MDC может использоваться, к примеру, в центрах гуманитарной помощи, передвижных пунктах управления, а также на территориях предприятий добывающей промышленности.

MDC может работать как полностью автономно, так и в связке с «большим» облаком Azure. Причём предусмотрена возможность использования спутниковых средств связи — на случай перебоев в основном интернет-канале. Собственно говоря, именно в рамках совместного со SpaceX проекта Azure Space и были анонсированы эти ЦОД.

Внутри контейнера размещены три серверных блока, каждый из которых содержит две стойки 42U с коммутаторами и контроллерами. На каждый блок приходится 8 серверов и 48 узлов хранения. Все они работают под управлением Azure Stack Hub. Доступ к такому ЦОД предоставляется на условиях аренды, как и в случае более простых и компактных устройств серии Azure Stack Edge.

Постоянный URL: http://servernews.ru/1033796
28.02.2021 [01:01], Владимир Мироненко

IonQ планирует выйти на биржу через сделку с dMY: новая компания уже оценена в $2 млрд

Стартап IonQ может стать одной из первых публичных фирм в сфере квантовых вычислений. По данным ресурса Bloomberg в настоящее время он ведёт переговоры с dMY Technology Group Inc. III по поводу SPAC-слияния, которое позволит ему выйти на биржу, минуя процедуру первичного размещения акций (IPO). В переговорах по поводу сделки также участвуют Silver Lake, MSD Partners, Breakthrough Energy Билла Гейтса (Bill Gates) и дочерняя компания Hyundai Motor.

Компания dMY III стала публичной в ноябре прошлого года, получив в результате IPO $275 млн. В состав руководства dMY входят председатель Гарри Л. Ю (Harry L. You) и гендиректор Никколо де Маси (Niccolo de Masi). Гарри Л. Ю, ранее занимавший пост исполнительного вице-президента EMC, а также бывший член совета директоров Broadcom, уже имеет опыт работы в сфере SPAC. В 2016 году он основал компанию GTY Technology Holdings, которая была ориентирована на государственные технологические компании, и в 2019 году она приобрела шесть подобных фирм. А де Маси ранее возглавлял компании Glu Mobile, Resideo, а также обанкротившуюся Essential Энди Рубина (Andy Rubin).

Ожидается, что существующие инвесторы IonQ вложат в сделку свой капитал. В число инвесторов стартапа входят Amazon Web Services, Samsung Catalyst Fund, GV (ранее известная как Google Ventures), NEA, Lockheed Martin Corp., Airbus Ventures и Robert Bosch Venture Capital GmbH. Объединённая компания уже оценивается в $2 млрд.

Постоянный URL: http://servernews.ru/1033715
25.02.2021 [17:04], Алексей Степин

IBM разработала прототип 7-нм высокоэффективного ИИ-сопроцессора

В популярных нынче вычислительных ядрах, процессорах и SoC, нацеленных на рынок машинного обучения, как правило, используются режимы вычисления с пониженной разрядностью, такие, как FP16 или даже INT8.

Но для реализации обучения и инференс-систем на периферии даже восьмибитная точность может быть избыточной, а вот экономичность остаётся ключевым фактором. Компания IBM раскрыла некоторые детали относительно своего нового ИИ-чипа, предназначенного специально для периферийных систем.

В последние годы наблюдается развитие так называемых периферийных вычислений, в которых первичная обработка потока «сырых» данных выполняется непосредственно в местах их получения, либо наиболее близко к таким местам. В отличие от классической обработки в ЦОД, на периферии такие ресурсы как габариты и энергоснабжение ограничены, вот почему разработчики стараются сделать такие чипы и системы как можно более экономичными и компактными.

Среди них компания IBM, которая раскрыла информацию о новом прототипе ИИ-сопроцессора, предназначенном специально для систем машинного обучения и инференс-систем периферийного типа. Как сообщают источники, главным преимуществом новинки является способность выполнять вычисления с ещё менее высокой точностью, чем принято в машинном обучении, однако достаточной для ряда задач.

Новая разработка IBM интересна тем, что обеспечивает сопоставимую точность обучения при использовании менее точных форматов вычислений

Новая разработка IBM интересна тем, что обеспечивает сопоставимую точность обучения при использовании менее точных форматов вычислений

Изначально в машинном обучении применялись классические вычислительные ядра с точностью вычислений как минимум FP32, однако для ряда случаев такая точность избыточна, а энергопотребление далеко от оптимального. В этом смысле за прошедшие пять лет именно IBM удалось добиться существенных успехов. Ещё в 2019 году компания показала возможность использования 8-битной точности с плавающей запятой для обучения, а для инференса оказалось достаточно даже 4 бит.

На конференции NeurIPS 2020 компания отчиталась о дальнейших успехах в этой области: новый периферийный ИИ-сопроцессор, спроектированный с использованием 7-нм технологических норм, обеспечивает достаточно надёжные результаты при обучении в 4-битном режиме, а для инференс-задач он использует и вовсе двухбитный режим. Точность при этом достаточно высока, хотя в некоторых случаях и понижается на несколько процентов, а вот производительность оказывается почти в четыре раза выше, нежели при использовании 8-битного режима. Естественно, возможны и вычисления смешанной точности.

За счёт сочетания пониженной точности и тонкого техпроцесса обеспечивается высокая энергоэффективность, и IBM не без оснований считает, что такие процессоры займут место классических там, где их возможностей достаточно, например, в машинном зрении и системах распознавания речи. Кроме того, IBM разработала новый алгоритм сжатия ScaleCom, позволяющий очень эффективно сжимать именно данные машинного обучения. Говорится о возможности сжатия в 100, а в некоторых случаях и в 400 раз. Подробности можно узнать на сайте компании.

Постоянный URL: http://servernews.ru/1033524
Система Orphus