Материалы по тегу: машинное обучение

14.11.2018 [15:29], Геннадий Детинич

Micron и Achronix сообщили о разработке первых в мире ПЛИС с поддержкой GDDR6

Относительно небольшой игрок на рынке программируемых матриц FPGA американская компания Achronix сообщила о планах представить первые в индустрии матрицы ПЛИС с поддержкой памяти GDDR6. Поскольку сегодня единственным производителем GDDR6 в коммерческих объёмах является компания Micron, то выбор стратегического партнёра для Achronix был очевиден. Компании выпустили совместный пресс-релиз, в котором объявили о создании доступной по цене альтернативы матрицам ПЛИС с поддержкой памяти HBM.

Матрицы ПЛИС с поддержкой памяти HBM и HBM2 уже выпускают лидеры отрасли компании Altera (Intel) и Xilinx. Интересно, что актуальные матрицы Achronix Speedster22i тоже выпускает компания Intel (с использованием техпроцесса 22 нм). Но уже матрицы Achronix следующего поколения будут выпускаться на линиях компании TSMC с использованием 7-нм техпроцесса, что добавит немного негатива как контрактному производству Intel, так и конкурирующим ПЛИС-разработкам Altera.

Будущие 7-нм матрицы Achronix в зависимости от решаемых задач будут поддерживать от 1 до 8 чипов памяти GDDR6. Тем самым адресуемый объём памяти для каждой из этих матриц составит от 8 Гбит (1 Гбайт) до 128 Гбит (16 Гбайт). С учётом пропускной способности актуальных серийных образцов памяти GDDR6 компании Micron на уровне 16 Гбит/с, совокупная скорость интерфейса памяти у новых матриц Achronix будет достигать 4 Тбит/с. Это всего лишь вполовину меньше, чем в случае работы интерфейса HBM2 в наборе из четырёх 8-Гбайт стеков (чипов).

Тем самым Achronix намерена представить доступную по цене альтернативу памяти HBM в платформах для задач с машинным обучением, искусственным интеллектом, для обработки больших данных и многого другого, включая оснащение бортовых систем автомобилей с автопилотами производительными и менее дорогими решениями. К тому же, матрицы ПЛИС с памятью HBM сами по себе дороже в производстве, поскольку требуют установки на общий мост-подложку с памятью. В такой ситуации предложение Achronix способно найти горячую поддержку среди производителей «когнитивного» оборудования разного уровня сложности. Правда, Achronix не раскрывает, когда её новая продукция будет доступна для заказа.

Постоянный URL: http://servernews.ru/978176
09.11.2018 [13:50], Геннадий Детинич

Xilinx ведёт переговоры о поглощении компании Mellanox

Как сообщает телеканал CNBC со ссылкой на анонимные источники, американский разработчик ПЛИС, компания Xilinx находится в состоянии переговоров о поглощении Mellanox.

Компания Mellanox является производителем сетевого оборудования, включая коммутаторы и адаптеры InfiniBand и Ethernet, и представляется лакомой добычей не только для Xilinx, но также для других тяжеловесов из мира процессоров и ускорителей расчётов. Например, если верить слухам, о покупке Mellanox задумались также компании Intel и Broadcom. Её бы даже скорее купила компания Huawei, но кто же позволит?

Для содействия в переговорах о поглощении Mellanox компания Xilinx якобы наняла команду специалистов из банка Barclays. Впрочем, переговоры могут ничем не закончиться. Стороны пока не пришли к какому-либо согласию. Если сделка всё же будет заключена, то сообщат о ней не раньше декабря. Отметим, капитализация Mellanox сегодня составляет около $5 млрд, так что покупка $22-млрд Xilinx обойдётся в сумму не меньше $6–7 млрд.

Отчасти предполагаемую сделку можно объяснить процессами консолидации на рынке полупроводников. Степень интеграции продуктов растёт, и разработчики вынуждены включать в состав многочиповых (многокристальных) решений элементы партнёров и даже конкурентов (вспомним процессор Intel с GPU AMD и памятью HBM). Безусловно, лучше до такого не доводить, и поглощение партнёра или конкурента представляется взвешенным подходом.

Но в целом, как нам представляется, интерес Xilinx к компании Mellanox и её разработкам и продукции объясняется сменой парадигмы для ПЛИС-ориентированных проектов. От темы ускорения отдельных задач и приложений матрицы FPGA переходят к «дата-центрическим» решениям. Они по-прежнему не готовы решать задачи общего назначения (во всяком случае, с одинаковой с x86-процессорами эффективностью). Но новые сферы — это ИИ и машинное обучение — ПЛИС-ориентированные платформы щёлкают как орешки и делают это намного лучше, чем классические вычислительные платформы. На этом поле союз Xilinx и Mellanox сможет сделать очень много полезного.

Постоянный URL: http://servernews.ru/977943
06.11.2018 [14:10], Геннадий Детинич

Архитектура RISC-V компании Esperanto нашла поддержку у инвесторов

Стартап Дэйва Дитцеля (Dave Ditzel), компания Esperanto Technologies завершила второй раунд сбора инвестиций. Неназванные инвесторы и потенциальные стратегические партнёры Esperanto Technologies вложили в компанию дополнительно $58 млн, увеличив объём инвестиций в неё до $63 млн. Это впечатляющие средства для проекта, о котором пока известно очень мало. Дэйв Дитцель не отрицает, что его новая компания в основном всё ещё находится в режиме «стэлс». Но инвесторы и партнёры в курсе планов Esperanto, поскольку для всех них проводились закрытые презентации.

Дэйв Дитцель на конференции RISC-V Workshop 2017

Дэйв Дитцель на конференции RISC-V Workshop 2017

Авторитет Дитцеля и принадлежащий ему на пару с Дэвидом Паттерсоном (David Patterson) портфель ключевых патентов на архитектуру RISC заставляют верить в успех нового мероприятия. Предыдущий проект Дитцеля — компания Transmeta и разработка центрального процессора с трансляцией x86-совместимых команд — потерпел неудачу. Но сегодня совершенно другая ситуация, и будущий процессор или ускоритель Esperanto Technologies вовсе не обязан и не будет подстраиваться под x86-совместимый код, а значит, Дитцель и его команда могут создать решение, которое окажется ко двору и к месту.

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Условное изображение RISC-V процессора компании Esperanto (PC Watch)

Напомним, команда Дитцеля, состоящая из сотни с лишним отборных специалистов (куда всё ещё уходят профи из лучших мировых проектов), создаёт ускоритель для искусственного интеллекта и машинного обучения на основе открытого набора команд архитектуры RISC-V. Также решение будет соответствовать требованиям открытой вычислительной платформы (Open Compute Platform, OCP), поддерживать фреймворк Pytorch ML, компилятор Glow ML и Open Neural Network Exchange (ONNX). Первый чип Esperanto должен быть выпущен с использованием 7-нм техпроцесса с более чем тысячью ядер на борту. Только что завершённый успешный сбор второго раунда инвестиций обещает, что чип Esperanto будет выпущен в утверждённые сроки или даже раньше.

Кстати, один из инвесторов Esperanto раскрыл себя ещё в прошлом году. Это компания Western Digital. С помощью разработок Esperanto Technologies производитель жёстких дисков и SSD намерен интегрировать структуры по первичной обработке данных в контроллеры для накопителей. Это породит совершенно новую парадигму в сфере хранения данных, что, впрочем, ложится в общую тенденцию распределённых вычислений.

Постоянный URL: http://servernews.ru/977788
15.10.2018 [15:54], Сергей Юртайкин

NVIDIA анонсировала платформу для анализа данных при помощи GPU

NVIDIA анонсировала платформу Rapids, при помощи которой крупные компании могут анализировать огромные массивы данных и делать точные прогнозы для бизнеса, используя возможности графических ускорителей.

Rapids включает набор библиотек с открытым исходным кодом для аналитики и машинного обучения, а позже к ним должны добавиться средства визуализации данных.

В NVIDIA сообщили, что первые испытания Rapids с использованием алгоритма машинного обучения XGBoost на системе Nvidia DGX-2 показали 50-кратное ускорение по сравнению с системами только для CPU. Это позволяет сократить время обучения с нескольких дней до нескольких часов и с нескольких часов до нескольких минут в зависимости от объёма набора данных.

«Взяв за основу CUDA с ее глобальной экосистемой, мы создали платформу GPU-ускорения Rapids в тесном сотрудничестве с разработчиками открытого ПО. Она легко интегрируется в самые распространенные библиотеки обработки данных и существующие процессы для ускорения машинного обучения. Мы разгоняем машинное обучение так же, как мы разгоняли глубокое обучение», — заявил глава NVIDIA Дженсен Хуанг (Jensen Huang).

Отмечается, что новая платформа обеспечивает прирост производительности в таких задачах, как предсказание мошенничества в операциях с кредитными картами, прогноз запаса товаров на складе и прогнозирование покупательского поведения потребителей.

Постоянный URL: http://servernews.ru/976792
11.10.2018 [11:01], Андрей Крупин

«Ростех» открыл центр развития технологий искусственного интеллекта

Концерн «Созвездие», входящий в холдинг «Росэлектроника» госкорпорации «Ростех», сообщил об открытии центра развития технологий искусственного интеллекта (ИИ).

Площадка развёрнута на базе Воронежского государственного университета и входит в состав факультета компьютерных наук, математического факультета и факультета прикладной математики, информатики и механики. Сотрудники центра, а также студенты и выпускники вуза будут заниматься исследованиями в сфере новых технологий обработки информации, анализом больших данных и разработкой для российской гражданской и военной промышленности проектов, использующих технологии машинного обучения и системы искусственного интеллекта на базе нейронных сетей.

«Технологии ИИ уже скоро станут основой «умных» городов, развитых цифровых систем, «интеллектуальной» электроники и робототехники будущего. Собственные разработки в этой сфере имеет ограниченное число стран. Наша промышленность — в тренде и входит в числе лидеров по данному направлению. Хорошие результаты даёт в том числе сотрудничество холдингов «Ростеха» с крупнейшими российскими вузами. Наша цель — привлечь магистрантов к решению реальных производственных задач и подготовить талантливых специалистов для работы на наших предприятиях», — подчеркнул генеральный директор концерна «Созвездие» Алексей Бочаров.

По прогнозам экспертов, к 2025 году объём мирового рынка программного обеспечения, использующего алгоритмы искусственного интеллекта, вырастет в 28 раз и достигнет 90 млрд долларов США. В перспективе десяти лет ИИ-технологии повлияют практически на каждый бизнес, при этом основными драйверами рынка станут реклама, розничная торговля, финансы и здравоохранение. Наиболее динамичный рост упомянутого рынка ожидается в Северной Америке, поскольку этот регион является центром развития инновационных технологий, производственных процессов, инфраструктуры, располагаемого дохода и т.д. Что касается России, то в нашей стране первоочередными сферами применения ИИ станут транспорт и финансовая сфера, промышленность и телекоммуникации. В более отдалённой перспективе будут затронуты практически все отрасли, включая государственное управление и систему международного обмена товарами и услугами.

Материалы по теме:

Источник:

Постоянный URL: http://servernews.ru/976706
10.10.2018 [13:39], Геннадий Детинич

Huawei представила ИИ-процессоры для ЦОД и мобильного назначения

На мероприятии в Китае компания Huawei представила ИИ-процессоры собственной разработки. Ранее Huawei отметилась специализированными ускорителями ИИ и машинного обучения Kirin 980, которые, в частности, нашли применение в смартфоне Mate 20. Теперь же компания представила как решения для ЦОД — чип Ascend 910, так и решение для конечных (мобильных) устройств — Ascend 310. Тем самым вырисовывается целая экосистема, которую Huawei будет развивать самостоятельно и предложит независимым разработчикам.

В производительном сегменте компания будет продвигать процессоры Ascend 910. Это решения для ЦОД (и облаков). В настоящий момент, как заявляют в Huawei, чип Ascend 910 является самым производительным ИИ-процессором в мире. Так, пиковая производительность Ascend 910 в задачах машинного обучения достигает 256 терафлопс для вычислений с двойной точностью. Одно из самых мощный на данный момент актуальных решений в виде ускорителя на базе GPU NVIDUA V100 в аналогичных сценариях обеспечивает лишь 125 терафлопс при сравнительном потреблении. Отметим, чип Huawei 910 производится с использованием 7-нм техпроцесса и потребляет в пике до 350 Вт. Массовое производство новинок намечено на второй квартал будущего года.

Добавим, будущий ускоритель тензорных вычислений Google TPU 3.0 также оказался посрамлён в сценариях использования Huawei 910. Ещё не вышедший на оперативный простор Google TPU 3.0 выдаёт всего 90 терафлопс — едва ли не в три раза меньше, чем Ascend 910.

Для мобильных и малопотребляющих устройств Huawei представила ИИ-чип Ascend 310. При потреблении 8 Вт решение выдаёт 8 терафлопс при вычислениях с половинной точностью. На базе Ascend 310 будет выпускаться широкий спектр устройств от мини-серверов с потреблением до 100 Вт до ИИ-помощников в наушниках с потреблением от 1 мВт. Компания Google для конечных устройств готовит своё решение в виде чипа Edge TPU. Сравнить производительность решений Huawei и Google пока не представляется возможным.

Чипы Huawei Ascend 310 выпускаются с использованием техпроцесса 12 нм FFC. Это уникальная разработка Huawei, которая не потребует лицензирования для сторонних разработчиков. Блоки ИИ на базе Ascend 310 обещают массово появиться в смартфонах, умной электронике и в самоуправляемых автомобилях.

Постоянный URL: http://servernews.ru/976617
06.10.2018 [11:40], Геннадий Детинич

За компьютерную безопасность в чипах BrainChip будут отвечать технологии из Греции

Компания BrainChip, которая недавно отметилась разработкой нейроморфной SoC Akida для ускорения работы спайковых нейросетей, сообщила о приобретении лицензии на технологию, отвечающую за компьютерную безопасность. Лицензия предоставлена греческим Университетом Демокрита во Фракии (Democritus University of Thrace). Сумма сделки не раскрывается. По словам руководства BrainChip, сделка растянута на несколько кварталов и будет почти незаметна на фоне других затрат компании.

Учёные из Университета Демокрита специализируются на компьютерной безопасности на основе анализа данных с помощью спайковых сетей. Разработанная в университете под руководством профессора Лазароса Илиадиса (Lazaros Iliadis) технология позволяет определять вредоносное вмешательство в сетевой трафик с помощью преобразования данных в спайки и дальнейшего анализа спайков с помощью спайковых нейронных сетей. Поскольку компания BrainChip создаёт ускоритель Akida для ускорения расчётов в спайковых сетях, греческие технологии представляются идеальным решением для реализации на платформе BrainChip.

Первые коммерческие ускорители BrainChip ожидаются во второй половине 2019 года. Они обещают покрыть широкий спектр продуктов и устройств от простейших одночиповых решений стоимостью от $10 до $15 до многочиповых серверных PCIe-адаптеров с десятками NSoC на одной плате ускорителя.

Постоянный URL: http://servernews.ru/976430
04.10.2018 [13:02], Геннадий Детинич

Xilinx анонсировала гибридные FPGA/SoC-ускорители для любых задач

Представленная в марте работа компании Xilinx над проектом Everest вылилась на днях в анонс новой архитектуры Versal и продуктов на её основе. Разработка решений ведётся в рамках развития новой гетерогенной платформы компании для ускорителей с поддержкой адаптивных вычислений или ACAP (Adaptive Computer Accelerator Platform). В новых ПЛИС программируемым вентилям отводится всё меньше места, тогда как ядрам ARM, DSP и ИИ-ускорителям на кристаллах выделяются всё возрастающие площади. Это уже не просто FPGA, это фактически однокристальные сборки или SoC с элементами FPGA.

Xilinx

Xilinx

Решения поколения Versal разделены в шесть продуктовых серий или семейств, каждое из которых ориентировано на свою сферу применения. Первыми в 2019 году выйдут 7-нм продукты семейств AI Core и Prime. Продукты AI Core будут использоваться в системах машинного обучения с функцией принятия решений. Продукты Prime займут нишу ускорителей расчётов в центрах по обработке данных. В последующие годы появятся серии AI Edge, AI RF, Premium и HBM, с позиционированием которых можно ознакомится по таблице ниже.

Xilinx

Xilinx

По большому счёту, новые решения Xilinx должны и будут конкурировать с гибридными решениями Intel в виде ускорителей на FPGA-матрицах бывшей компании Altera. Разница только в том, что в паре с FPGA Altera компания Intel продвигает процессоры Xeon, а Xilinx — ядра ARM. Другие составные части платформ обеих компаний — это специализированные ИИ-движки, в чём они примерно равны (у Intel — это решения Mobileye, у Xilinx — свой движок, о котором ниже). Тем самым отличия будут лежать в обслуживающих ядрах, где у ARM в заявленной нише ускорителей есть определённое преимущество. Но это не мешает Xilinx открыто противопоставлять Versal как x86-совместимым процессорам, так и актуальным графическим процессорам.

По словам Xilinx, продукты Versal в области распознавания изображений в 43 раза превосходят процессоры Intel Xeon Platinum и от двух до восьми раз опережают ускоритель NVIDIA Tesla V100, а также в пять раз производительнее ускорителя на обычной FPGA. Более того, в задачах финансового анализа, секвенции генома и в поддержке Elasticsearch продукты Versal опережают процессоры в 89, 90 и в 91 раз.

Xilinx

Xilinx

Чуть подробнее о продуктах семейства AI Core. Помимо двух ядер ARM Cortex-A72 и двух ядер ARM Cortex-R5 они будут нести 256 Кбайт встроенной памяти и свыше 1900 DSP для обслуживания вычислений с плавающей запятой. Абсолютным новшеством станет интеграция в решения новых векторных ускорителей или AI Engines. Таковых будет в чипе от 128 штук до 400 штук и все они будут связаны внутричиповой сетью network-on-chip (NoC) с пропускной способностью в несколько терабит в секунду. Внешние интерфейсы решения будут представлены PCIe Gen4 x8 и x16, CCIX, 32G SerDes и от двух до четырёх встроенных контроллеров памяти DDR4. Флагман семейства AI Core обеспечит производительность в 147 TOPs на нагрузке INT8. Для сравнения, NVIDIA Tesla T4 обеспечивает 130 INT8 TOPs.

Продукты Versal Prime будут лишены ИИ-движков и нацелены на нагрузку общего назначения, такую как обработка изображений медицинского назначения, обслуживание сетей и систем хранения данных, систем управления в авиации и тестовое коммуникационное оборудование. Вместо ИИ-ускорителей Versal Prime получат 3080 DSP и несколько большее число программируемых вентилей.

Xilinx

Xilinx

Ещё одной отличительной особенностью поддержки новых ПЛИС станет ориентация на языки программирования верхних уровней — C, C++ и Python. По мнению Xilinx, это упростит работу с новой платформой.

Постоянный URL: http://servernews.ru/976339
03.10.2018 [23:23], Андрей Созинов

AMD и Xilinx создали систему с рекордной производительностью в задачах ИИ

Сегодня Xilinx в рамках проводимого компанией форума для разработчиков рассказала о рекордной производительности системы, построенной на ускорителях вычислений собственной разработки Alveo и центральных процессорах AMD EPYC.

Представленная система использует два 32-ядерных процессора AMD EPYC 7551 и восемь новейших ускорителей вычислений Xilinx Alveo U250, построенных на базе матриц FPGA. Данная система, по словам разработчиков, установила абсолютный рекорд, продемонстрировав производительность в обработке 30 000 изображений в секунду в нейронной сети GoogLeNet. Иначе говоря, искусственный интеллект с помощью этой системы смог распознать 30 000 изображений всего за одну секунду.

Ускорители вычислений Xilinx Alveo U250 построены на матрицах UltraScale+ FPGA. Использование программируемых матриц обеспечивает этим ускорителям гораздо более широкое применение, нежели графическим процессорам и специализированным ASIC. По сути, это универсальное решение для самых разных вычислительных нагрузок. И конечно же, эти чипы способны обеспечить гораздо большую производительность, нежели центральные процессоры.

Также было отмечено, что процессоры AMD EPYC как нельзя лучше подходят для систем искусственного интеллекта. В первую очередь, это обусловлено наличием у каждого из них до 128 линий PCI Express 3.0, что позволяет подключить множество ускорителей вычислений, не ограничивая их в числе линий. Кроме того, эти процессоры предлагают до 32 ядер, 64 потоков, способны принять до 2 Тбайт оперативной памяти и обладают встроенным процессором безопасности.

Xilinx и AMD планируют продолжать технологическое сотрудничество. В планы компаний входит создание систем на базе процессоров EPYC ускорителей вычислений на основе графических процессоров AMD и, собственно, ускорителей вычислений Xilinx, как нынешних Alveo, так и будущих Versal на базе чипов ACAP.

Постоянный URL: http://servernews.ru/976318
29.09.2018 [14:45], Геннадий Детинич

Представлена нейроморфная SoC Akida компании BrainChip

Много мозгов хороших и разных. Новизна рынка ИИ и машинного обучения стала благоприятной почвой для появления массы стартапов и, что самое ценное, интересных решений. Одной из таких новинок обещает стать разработка австралийской компании BrainChip. Собственно, компания BrainChip впервые заявила о себе примерно год назад, но определённую информацию о нейроморфном однокристальном решении Akida компания открыто начала распространять лишь в этом месяце.

BrainChip

BrainChip

Вкратце уточним, что компания BrainChip была образована в 2013 году. Выше на диаграмме можно увидеть процессы, которые привели к созданию BrainChip и продуктов компании — программно-аппаратных ускорителей для работы со спайковыми нейронными сетями. Спайковые нейронные сети впервые были описаны около 20 лет назад, но практическая эксплуатация разработок началась сравнительно недавно, и BrainChip стала одной из первых, кто это сделал и делает.

BrainChip

BrainChip

В настоящий момент ускоритель BrainChip опирается на реализацию проекта на базе ПЛИС компании Xilinx семейства Kintex. Первые решения на базе однокристальных SoC или NSoC Akida (нейроморфных SoC) обещают выйти в виде образцов только через год — в третьем квартале 2019 года. Пока разработчик даже не сделал выбор в пользу 28-нм или 14-нм техпроцесса.

BrainChip

BrainChip

Поскольку NSoC Akida реализует спайковую нейронную сеть (SNN, Akida — это спайк по-гречески), чип содержит блок преобразования сигналов от датчиков и внешних компьютерных интерфейсов (USB, PCIe, Ethernet и прочего) в массив спайков (пиков), которые затем в виде паттернов размещаются в массиве нейронов на чипе. Сборка содержит 1,2 млн аналогов нейронов и 10 млрд аналогов синапсов. Сеть SNN с обратной положительной обратной связью. Полученные в процессе управляемого или неуправляемого обучения сигнатуры дальше используются для распознавания образов от фрагментов зловредного кода до изображений в системах видеонаблюдения.

BrainChip

BrainChip

На модели CIFAR-10 NSoC Akida распознаёт изображения со скоростью 1100 кадров в секунду с точностью 82 %. При этом решение потребляет менее 1 Вт. Тем самым компания планирует охватить как рынок периферийных устройств с одиночными чипами, так и рынок высокопроизводительных серверных платформ с массивами многочиповых адаптеров.

Постоянный URL: http://servernews.ru/976130
Система Orphus