Материалы по тегу: машинное обучение

18.06.2019 [12:54], Константин Ходаковский

В тесте ИИ мощнейший суперкомпьютер утроил результат за счёт вычислений смешанной точности

Недавно мы писали большой материал, посвящённый июньскому обновлению публичного рейтинга суперкомпьютеров Top 500. В нём, в частности, упоминались проблемы, связанные с оценкой реальной производительности систем. Дело в том, что в список попадают суперкомпьютеры, которые прошли тест High-Performance Linpack (HPL) вне зависимости от того, используются ли они для реальных нагрузок HPC или ИИ. Но есть и другая сторона дела: Linpack оценивает 64-бит производительность систем в вычислениях с плавающей запятой, но многие современные нагрузки в области ИИ не всегда требуют такой точности, и потому реальная производительность может быть заметно выше.

Именно это недавно продемонстрировала Национальная лаборатории Ок-Риджа, протестировав свой суперкомпьютер Summit (текущий лидер среди участников публичного рейтинга Top500, создан IBM при участии NVIDIA и Mellanox) в особом тесте HPL-AI, призванном оценивать производительность суперкомпьютеров в задачах машинного обучения и искусственного интеллекта. В этом тесте Summit набрал 445 петафлопс — втрое больше стабильных 148,6 петафлопс в тесте HPL.

HPL, представленный три десятка лет назад, остаётся эталоном для измерения производительности систем Top500 в задачах HPC. Более современная альтернатива — HPCG Benchmark — пока так и не достигла заветной цифры в 500 участников рейтинга. 

Однако нынешние суперкомпьютеры теперь используются и в сфере «искусственного интеллекта», а не только для классических «тяжёлых» расчётов. При этом в большинстве ИИ-моделей применяются вычисления половинной или смешанной точности — принципиально иной метод, который позволяет исследователям повысить вычислительную эффективность, получив доступ к неиспользованному потенциалу производительности современных суперкомпьютеров.

Чтобы учесть этот фактор и был предложен тест HPL-AI, представляющий собой развитие HPL для оценки производительности вычислений смешанной точности, широко используемых для обучения моделей искусственного интеллекта. Методология HPL-AI изложена в документе, опубликованном на SC 2018 Аззамом Хайдаром (Azzam Haidar), Джеком Донгаррой и его командой.

«Методы смешанной точности становятся все более важными для повышения вычислительной эффективности суперкомпьютеров, как для традиционного моделирования с методами итеративного уточнения, так и для задач ИИ, — отметил господин Донгарра. — Так же, как HPL позволяет сравнивать потенциал систем в вычислениях двойной точности, этот новый подход, основанный на HPL, позволяет сравнивать возможности суперкомпьютеров в задачах смешанной точности».

NVIDIA удалось осуществить весь массив вычислений в рамках тестового запуска HPL-AI на Summit всего за полчаса — втрое быстрее, чем исполняется оригинальный HPL. В ряде задач, как можно видеть, это может давать кратно ощутимое преимущество. Напомним: в Summit используется 27 000 графических ускорителей NVIDIA Tesla V100.

Учёные используют суперкомпьютеры с поддержкой вычислений смешанной точности для моделирования и задач искусственного интеллекта в области химии, атомной энергетики, нефтегазовой промышленности и так далее.

Постоянный URL: http://servernews.ru/989365
17.06.2019 [11:14], Сергей Карасёв

QNAP Mustang: акселераторы для систем искусственного интеллекта

Компания QNAP Systems анонсировала акселераторы серии Mustang, рассчитанные на применение в системах, использующих алгоритмы искусственного интеллекта и машинного обучения.

В семейство вошли два ускорителя — Mustang V100 и Mustang F100. Изделие Mustang V100 объединяет восемь процессоров Intel Movidius Myriad X MA2485. Решение подходит для систем машинного зрения. Акселератор выполнен в виде карты расширения с интерфейсом PCI Express x4. Габариты составляют 169,54 × 80,05 × 23,16 мм.

Ускоритель Mustang F100, в свою очередь, использует перепрограммируемую вентильную матрицу (FPGA) Intel Arria 10 GX1150. В оснащение входят 8 Гбайт памяти DDR4. Для установки акселератора требуется слот PCI Express x8. Размеры — 169,5 × 68,7 × 33,7 мм.

Акселераторы могут использоваться в серверах, настольных компьютерах, рабочих станциях, а также в сетевых хранилищах данных (NAS), допускающих установку карт расширения.

Говорится о совместимости с программными платформами Ubuntu 16.04.3 LTS, CentOS 7.4, Windows 10 и QTS. Информации об ориентировочной цене на данный момент, к сожалению, нет. 

Постоянный URL: http://servernews.ru/989282
12.06.2019 [12:59], Сергей Тверье

Amazon разработала сервис рекомендаций для бизнеса

Amazon объявила о публичном запуске Amazon Personalize — службы Amazon Web Services (AWS), которая облегчает разработку систем рекомендаций и персонализации контента для веб-сайтов и мобильных приложений, а также поддерживает настройку воронки продаж. Сейчас сервис доступен в некоторых регионах AWS, включая восток США (Огайо и Северная Вирджиния), запад США (Орегон), Азиатско-Тихоокеанский регион (Токио, Сингапур) и ЕС (Ирландия). В ближайшее время Amazon планирует добавить поддержку для других регионов.

«Мы рады поделиться с клиентами AWS нашим опытом, накопленным в течение двух десятилетий использования машинного обучения для предоставления качественного сервиса на Amazon.com, — сказал вице-президент AWS по машинному обучению Свами Сивасубраманян (Swami Sivasubramanian).   Клиенты давно спрашивали нас о Amazon Personalize, и теперь мы с нетерпением хотим увидеть, как они используют этот сервис, чтобы порадовать своих пользователей. Самое впечатляющее то, что использование наших сервисов на базе искусственного интеллекта, таких как Amazon Personalize, не требует никакого опыта в машинном обучении, чтобы немедленно начать обучать, настраивать и развёртывать модель в соответствии с требованиями бизнеса».

Amazon запустила новый сервис AWS — Personalize, данная служба поможет даже при отсутствии опыта работы с ИИ, использовать всю мощь машинного обучения, чтобы на лету формировать рекомендации и персонализированный контент для клиентов

Personalize был анонсирован ещё в прошлом году на конференции Amazon re.Invent. Он представляет собой полностью управляемую службу, которая обучает, настраивает и развёртывает пользовательские модели машинного обучения в облаке, формируя необходимую инфраструктуру и управляя такими вещами, как обработка данных, извлечение функций, обучение алгоритмов и их оптимизация, а также хостинг. Клиенты предоставляют сервису данные об активности пользователей в их приложениях или на веб-сайтах (например, клики, просмотры страниц, регистрации и покупки), в дополнение к инвентаризации элементов, которые они хотят рекомендовать (например, статьи, продукты, видео или музыка) и демографической информации (например, возраст или географическое положение). Получив всю эту информацию, Personalize при помощи специального API формирует необходимые рекомендации по товарами и услугам для каждого из клиентов.

Такие компании, как Domino’s, Yamaha, Subway, видеохостинг Spuul и свадебная компания Zola уже используют Personalize для формирования списка предпочитаемых блюд и рекомендаций по ингредиентам, выбора музыкальных инструментов и разработки индивидуального стиля.

«С тысячами фильмов и телепередач в нашем каталоге предоставить зрителям наиболее интересный для них контент — это непростая задача. Чтобы обеспечить более быстрый и эффективный доступ к контенту, мы хотим предоставить нашим пользователям сервис рекомендаций высочайшего качества, отвечающие их интересам и предпочтениям. Amazon Personalize позволил нам легко и быстро запустить сервис персональных рекомендаций, несмотря на то, что ранее у нашей команды не было опыта работы с искусственным интеллектом и машинным обучением. Нам понадобилось всего 3 дня, чтобы разобраться в этом сервисе Amazon и создать первый набор данных, чтобы сформировать рекомендации. Теперь мы можем предоставить каждому зрителю уникальный опыт видеопросмотра», — поделился Даниэль Мюллер (Daniel Muller), руководитель облачной инфраструктуры Spuul.

Постоянный URL: http://servernews.ru/989037
19.04.2019 [12:38], Геннадий Детинич

Процессоры на MIPS тоже станут умными и обучаемыми

За последние десять лет жизнь изрядно потрепала архитектуру MIPS. Десять лет назад она начала резко терять популярность на волне интереса к архитектуре ARM и в 2012 году была приобретена компанией Imagination Technologies. Но и с Imagination не сложилось. В 2017 году компания Apple заявила об отказе от графических ядер PowerVR и, тем самым, обанкротила Imagination и пустила по миру разработки MIPS. В 2018 году патенты MIPS и наборы команд купила молодая компания Wave Computing, которая специализировалась не на процессорах, а на ускорителях ИИ. Наконец, в конце 2018-го компания Wave Computing объявляет о планах сделать архитектуру MIPS свободной от лицензирования и уже в марте этого года выпускает первый бесплатный релиз MIPS R6. Но и о себе Wave не забыла. На днях компания выпустила лицензированный продукт TritonAI, который поможет сделать процессоры на архитектуре MIPS умными и обучаемыми.

Поскольку архитектура MIPS в основном ориентирована на периферийные платформы, что не исключает её масштабирование до уровня ЦОД, пакет TritonAI ориентирован в первую очередь на периферийные (пограничные) обучаемые системы и системы с функцией принятия решений. Сама архитектура MIPS при этом остаётся свободной от лицензирования в пределах представленных релизов, хотя определённые ядра компания Wave Computing будет также распространять на условиях лицензии.

Благодаря фирменной технологии WaveFlow платформа TritonAI будет поддерживать произвольные ИИ-алгоритмы, что делает её весьма гибким решением. В общем случае разработчик обещает поддержку ускорения вычислений как целочисленных данных 8/16/32/int, так и bfloat16, а также 32 FP. По умолчанию TritonAI поддерживает ускорение работы ИИ фрейморка Google TensorFlow в ОС Linux. Возможно портирование других фреймворков, например, Caffe2. Для 8-битных целочисленных операций производительность достигает одного PetaTOP на одном ядре в комбинациях матриц 4 × 4 или 8 × 8 для запуска ускорения работы алгоритмов популярных свёрточных нейронных сетей (Convolutional Neural Network, CNN). В рамках 7-нм техпроцесса исполнение CNN на платформе TritonAI может масштабироваться до 8 TOPS/Вт и обеспечить свыше 10 TOPS/мм2 на типичном техпроцессе с обычным вольтажом.

Что касается изменения масштабов платформы, то она допускает работу на массиве от 1 до 6 ядер MIPS с аппаратной поддержкой до 4 автономных вычислительных потоков на каждое ядро. Это масштаб изменения от пограничного устройства, например, из разряда вещей с подключением к Интернету до ускорителей в центрах по обработке данных. Архитектура ядер бесплатна, ИИ за деньги. Это формула успеха? Посмотрим.

Постоянный URL: http://servernews.ru/986145
03.04.2019 [12:10], Сергей Карасёв

SAS и NVIDIA займутся технологиями машинного обучения и компьютерного зрения

Компания SAS объявила о заключении соглашения о сотрудничестве с NVIDIA, предусматривающего развитие технологий искусственного интеллекта (ИИ).

В частности, стороны займутся совместными разработками в сфере машинного обучения, компьютерного зрения и обработки естественного языка.

«Графические процессоры и библиотеки CUDA-X AI от NVIDIA усилят решения на основе искусственного интеллекта от SAS, что позволит повысить скорость обработки данных и сделать их анализ ещё более точным», — отмечается в сообщении партнёров.

В настоящее время системы искусственного интеллекта являются одним из наиболее перспективных направлений развития рынка информационных технологий. Такие платформы востребованы в самых разных сферах — в здравоохранении и фармацевтике, в промышленности, финансах и пр.

Компании, работающие в указанных областях, благодаря сотрудничеству SAS и NVIDIA получат ряд новых преимуществ. Например, медицинские специалисты смогут использовать технологию распознавания объектов, чтобы отличить доброкачественные опухоли от злокачественных. Промышленным предприятиям компьютерное зрение поможет увидеть скрытый брак прямо на конвейере, а финансовые организации сэкономят миллиарды долларов благодаря своевременному обнаружению мошеннических операций.

Новые технологии позволят решать задачи по классификации и распознаванию изображений, обнаружению объектов, перевода речи в текст, определению эмоций и др. Всё это будет способствовать развитию рынка Интернета вещей. 

Постоянный URL: http://servernews.ru/985215
11.03.2019 [16:24], Сергей Карасёв

Затраты в области ИИ-систем в 2019 году вырастут почти в полтора раза

Компания International Data Corporation (IDC) обнародовала прогноз по мировому рынку платформ искусственного интеллекта (ИИ) на текущий и последующие годы.

В прошлом году, по оценкам, затраты на ИИ-системы в глобальном масштабе составили приблизительно $24,9 млрд. В текущем году, как ожидается, отрасль вырастет практически в полтора раза — на 44 %. В результате, объём мирового рынка достигнет $35,8 млрд.

В период до 2022 года показатель CAGR (среднегодовой темп роста в сложных процентах) составит примерно 38 %. Таким образом, в 2022-м объём отрасли достигнет $79,2 млрд, то есть увеличится по сравнению с текущим годом более чем в два раза.

Если рассматривать рынок систем искусственного интеллекта по секторам, то крупнейшим сегментом в нынешнем году окажется ретейл — $5,9 млрд. На втором месте расположится банковский сектор с затратами в размере $5,6 млрд.

Отмечается, что на программное обеспечение в области ИИ в текущем году придётся $13,5 млрд. Затраты в области аппаратных решений, прежде всего серверов, составят $12,7 млрд. Кроме того, компании по всему миру продолжат инвестировать в сопутствующие сервисы.

Добавим, что ИИ сегодня является одним из наиболее перспективных направлений рынка информационных технологий. Соответствующие решения приведут к появлению качественно новых сервисов, самоуправляемого транспорта, «умных» аналитических платформ и пр. 

Постоянный URL: http://servernews.ru/984047
14.02.2019 [14:15], Андрей Крупин

Fujitsu прогнозирует рост числа ИИ-сервисов в корпоративной среде

В 2019 году на корпоративном рынке ожидается бурное развитие инновационных проектов и сервисов, использующих технологии машинного обучения и системы искусственного интеллекта (ИИ) на базе нейронных сетей. С таким прогнозом выступила японская компания Fujitsu.

По мнению Fujitsu, в перспективе искусственный интеллект будет лежать в основе всего. «Может сложиться мнение, что ИИ представляет собой изолированную технологию, которая не имеет ничего общего с реальностью. Но это не так. Блокчейн (Blockchain), Интернет вещей, анализ «больших данных», роботизированная автоматизация процессов — все эти технологии будут основываться на искусственном интеллекте. Я считаю, что скорость внедрения ИИ будет достаточно высокой, как и в случае со всеми другими предыдущими технологиями. В результате, все вещи вокруг нас будут интеллектуальными, «умными» и объединёнными в сеть. При совместном использовании с технологией роботизированной автоматизации процессов искусственный интеллект сможет значительно повысить эффективность работы предприятий за счёт автоматизации, высокой скорости, высокого качества услуг и более низкой стоимости», — уверен Марк Филипс (Mark Phillips), руководитель отдела гибридных IT-сервисов компании Fujitsu в регионе EMEIA.

Помимо Fujitsu, в настоящий момент в области искусственного интеллекта активно работают и ведут исследования Google, Facebook, «Яндекс», Baidu, ABBYY, Cognitive Technologies и другие компании. Свои разработки в сфере нейронных сетей и искусственного интеллекта ведут и такие именитые корпорации, как Intel, AMD, NVIDIA, ARM и IBM вместе со своим суперкомпьютером Watson. Сфера применения нейронных сетей весьма разнообразна — это распознавание текста и понимание человеческой речи, семантический поиск, компьютерное зрение, аналитика «больших данных», робототехника, экспертные системы, лингвистика и многое-многое другое.

По прогнозам экспертов, к 2025 году объём мирового рынка программного обеспечения, использующего алгоритмы искусственного интеллекта, вырастет в 28 раз и достигнет 90 млрд долларов США. В перспективе десяти лет ИИ-технологии повлияют практически на каждый бизнес, при этом основными драйверами рынка станут реклама, розничная торговля, финансы и здравоохранение. Наиболее динамичный рост упомянутого рынка ожидается в Северной Америке, поскольку этот регион является центром развития инновационных технологий, производственных процессов, инфраструктуры, располагаемого дохода и т.д. Что касается России, то в нашей стране первоочередными сферами применения ИИ станут транспорт и финансовая сфера, промышленность и телекоммуникации. В более отдалённой перспективе будут затронуты практически все отрасли, включая государственное управление и систему международного обмена товарами и услугами.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/982822
14.11.2018 [15:29], Геннадий Детинич

Micron и Achronix сообщили о разработке первых в мире ПЛИС с поддержкой GDDR6

Относительно небольшой игрок на рынке программируемых матриц FPGA американская компания Achronix сообщила о планах представить первые в индустрии матрицы ПЛИС с поддержкой памяти GDDR6. Поскольку сегодня единственным производителем GDDR6 в коммерческих объёмах является компания Micron, то выбор стратегического партнёра для Achronix был очевиден. Компании выпустили совместный пресс-релиз, в котором объявили о создании доступной по цене альтернативы матрицам ПЛИС с поддержкой памяти HBM.

Матрицы ПЛИС с поддержкой памяти HBM и HBM2 уже выпускают лидеры отрасли компании Altera (Intel) и Xilinx. Интересно, что актуальные матрицы Achronix Speedster22i тоже выпускает компания Intel (с использованием техпроцесса 22 нм). Но уже матрицы Achronix следующего поколения будут выпускаться на линиях компании TSMC с использованием 7-нм техпроцесса, что добавит немного негатива как контрактному производству Intel, так и конкурирующим ПЛИС-разработкам Altera.

Будущие 7-нм матрицы Achronix в зависимости от решаемых задач будут поддерживать от 1 до 8 чипов памяти GDDR6. Тем самым адресуемый объём памяти для каждой из этих матриц составит от 8 Гбит (1 Гбайт) до 128 Гбит (16 Гбайт). С учётом пропускной способности актуальных серийных образцов памяти GDDR6 компании Micron на уровне 16 Гбит/с, совокупная скорость интерфейса памяти у новых матриц Achronix будет достигать 4 Тбит/с. Это всего лишь вполовину меньше, чем в случае работы интерфейса HBM2 в наборе из четырёх 8-Гбайт стеков (чипов).

Тем самым Achronix намерена представить доступную по цене альтернативу памяти HBM в платформах для задач с машинным обучением, искусственным интеллектом, для обработки больших данных и многого другого, включая оснащение бортовых систем автомобилей с автопилотами производительными и менее дорогими решениями. К тому же, матрицы ПЛИС с памятью HBM сами по себе дороже в производстве, поскольку требуют установки на общий мост-подложку с памятью. В такой ситуации предложение Achronix способно найти горячую поддержку среди производителей «когнитивного» оборудования разного уровня сложности. Правда, Achronix не раскрывает, когда её новая продукция будет доступна для заказа.

Постоянный URL: http://servernews.ru/978176
09.11.2018 [13:50], Геннадий Детинич

Xilinx ведёт переговоры о поглощении компании Mellanox

Как сообщает телеканал CNBC со ссылкой на анонимные источники, американский разработчик ПЛИС, компания Xilinx находится в состоянии переговоров о поглощении Mellanox.

Компания Mellanox является производителем сетевого оборудования, включая коммутаторы и адаптеры InfiniBand и Ethernet, и представляется лакомой добычей не только для Xilinx, но также для других тяжеловесов из мира процессоров и ускорителей расчётов. Например, если верить слухам, о покупке Mellanox задумались также компании Intel и Broadcom. Её бы даже скорее купила компания Huawei, но кто же позволит?

Для содействия в переговорах о поглощении Mellanox компания Xilinx якобы наняла команду специалистов из банка Barclays. Впрочем, переговоры могут ничем не закончиться. Стороны пока не пришли к какому-либо согласию. Если сделка всё же будет заключена, то сообщат о ней не раньше декабря. Отметим, капитализация Mellanox сегодня составляет около $5 млрд, так что покупка $22-млрд Xilinx обойдётся в сумму не меньше $6–7 млрд.

Отчасти предполагаемую сделку можно объяснить процессами консолидации на рынке полупроводников. Степень интеграции продуктов растёт, и разработчики вынуждены включать в состав многочиповых (многокристальных) решений элементы партнёров и даже конкурентов (вспомним процессор Intel с GPU AMD и памятью HBM). Безусловно, лучше до такого не доводить, и поглощение партнёра или конкурента представляется взвешенным подходом.

Но в целом, как нам представляется, интерес Xilinx к компании Mellanox и её разработкам и продукции объясняется сменой парадигмы для ПЛИС-ориентированных проектов. От темы ускорения отдельных задач и приложений матрицы FPGA переходят к «дата-центрическим» решениям. Они по-прежнему не готовы решать задачи общего назначения (во всяком случае, с одинаковой с x86-процессорами эффективностью). Но новые сферы — это ИИ и машинное обучение — ПЛИС-ориентированные платформы щёлкают как орешки и делают это намного лучше, чем классические вычислительные платформы. На этом поле союз Xilinx и Mellanox сможет сделать очень много полезного.

Постоянный URL: http://servernews.ru/977943
06.11.2018 [14:10], Геннадий Детинич

Архитектура RISC-V компании Esperanto нашла поддержку у инвесторов

Стартап Дэйва Дитцеля (Dave Ditzel), компания Esperanto Technologies завершила второй раунд сбора инвестиций. Неназванные инвесторы и потенциальные стратегические партнёры Esperanto Technologies вложили в компанию дополнительно $58 млн, увеличив объём инвестиций в неё до $63 млн. Это впечатляющие средства для проекта, о котором пока известно очень мало. Дэйв Дитцель не отрицает, что его новая компания в основном всё ещё находится в режиме «стэлс». Но инвесторы и партнёры в курсе планов Esperanto, поскольку для всех них проводились закрытые презентации.

Дэйв Дитцель на конференции RISC-V Workshop 2017

Дэйв Дитцель на конференции RISC-V Workshop 2017

Авторитет Дитцеля и принадлежащий ему на пару с Дэвидом Паттерсоном (David Patterson) портфель ключевых патентов на архитектуру RISC заставляют верить в успех нового мероприятия. Предыдущий проект Дитцеля — компания Transmeta и разработка центрального процессора с трансляцией x86-совместимых команд — потерпел неудачу. Но сегодня совершенно другая ситуация, и будущий процессор или ускоритель Esperanto Technologies вовсе не обязан и не будет подстраиваться под x86-совместимый код, а значит, Дитцель и его команда могут создать решение, которое окажется ко двору и к месту.

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Напомним, команда Дитцеля, состоящая из сотни с лишним отборных специалистов (куда всё ещё уходят профи из лучших мировых проектов), создаёт ускоритель для искусственного интеллекта и машинного обучения на основе открытого набора команд архитектуры RISC-V. Также решение будет соответствовать требованиям открытой вычислительной платформы (Open Compute Platform, OCP), поддерживать фреймворк Pytorch ML, компилятор Glow ML и Open Neural Network Exchange (ONNX). Первый чип Esperanto должен быть выпущен с использованием 7-нм техпроцесса с более чем тысячью ядер на борту. Только что завершённый успешный сбор второго раунда инвестиций обещает, что чип Esperanto будет выпущен в утверждённые сроки или даже раньше.

Кстати, один из инвесторов Esperanto раскрыл себя ещё в прошлом году. Это компания Western Digital. С помощью разработок Esperanto Technologies производитель жёстких дисков и SSD намерен интегрировать структуры по первичной обработке данных в контроллеры для накопителей. Это породит совершенно новую парадигму в сфере хранения данных, что, впрочем, ложится в общую тенденцию распределённых вычислений.

Постоянный URL: http://servernews.ru/977788
Система Orphus