Материалы по тегу: in-memory
15.01.2023 [01:54], Алексей Степин
MemVerge наделила Memory Machine поддержкой Sapphire RapidsПроизводители серверного оборудования и разработчики специализированного программного обеспечения один за другим объявляют о поддержке новых процессоров Xeon Sapphire Rapids. Компания MemVerge, известная своей технологией виртуализации массивов памяти Memory Machine, заявила, что её разработка станет первой в своём роде программной платформой для разработки CXL-решений, поддерживающей новые Xeon. Эти процессоры обладают рядом интересных возможностей, делающих их привлекательными в качестве новой серверной платформы. В частности, это поддержка DDR5, PCI Express 5.0, а также наличие специфических ускорителей, в частности, Data Streaming Accelerator (DSA), ускоряющего процессы перемещения данных между ядрами, кешами, подсистемами хранения данных и сетью. С учётом поддержки CXL выбор MemVerge понятен: компания одной из первых поддержала инициативу, разработав унифицированное средство для виртуализации крупных массивов RAM, включая гибридные. Memory Machine позволяет создавать единое когерентное пространство памяти, включающее в себя как локальные ресурсы каждого процессора, так и CXL-экспандеры. Memory Viewer Demo Напомним, что программно-определяемая платформа MemVerge работает полностью прозрачно для пользовательского ПО, вне зависимости от того, использует ли массив памяти из DRAM или же является гибридным и включает в себя CXL-модули. При этом наиболее востребованные данные автоматически размещаются в самом производительном сегменте пула Memory Machine. Также компания объявила о поддержке новых процессоров инструментарием Memory Viewer, помогающего определять наилучшее сочетание цены и производительности при расширении памяти посредством CXL-памяти. Компания не без оснований полагает, что сочетание её технологий и платформы Sapphire Rapids идеально для сценариев HPC, в частности, в генетических исследованиях при секвенировании геномов.
14.12.2022 [20:39], Алексей Степин
AMD и Samsung создали уникальный экспериментальный ИИ-суперкомпьютер, скрестив «умную» память HBM-PIM и ускорители InstinctКонцепция вычислений в памяти (in-memory computing) имеет ряд преимуществ при построении HPC-систем, и компания Samsung сделала в этой области важный шаг. Впервые на практике южнокорейский гигант совместил в экспериментальном суперкомпьютере свои чипы in-memory с ускорителями AMD Instinct. Согласно заявлениям Samsung, такое сочетание даёт существенный прирост производительности при обучении «тяжёлых» ИИ-моделей. При этом улучшаются и показатели энергоэффективности. Новая система насчитывает 96 ускорителей AMD Instinct MI100, каждый из которых дополнен фирменной памятью HBM-PIM с функциями processing-in-memory. В состав системы входит 12 вычислительных узлов с 8 ускорителями в каждом. Шестёрка узлов связана с другой посредством коммутаторов InfiniBand. Используется 16 линков со скоростью 200 Гбит/с. ![]() Здесь и далее источник изображений: Samsung Кластер Samsung нельзя назвать рекордсменом, но результаты получены весьма обнадёживающие: в задаче обучения языковой модели Text-to-Test Transfer Transformer (T5), разработанной Google, использование вычислительной памяти позволило снизить время обучения в 2,5 раза, а потребление энергии при этом сократилось в 2,7 раза. ![]() Технология весьма дружественна к экологии: по словам Samsung, такой кластер с памятью HBM-PIM способен сэкономить 2100 ГВт·час в год, что в пересчёте на «углеродный след» означает снижение выбросов на 960 тыс. т за тот же период. Для поглощения аналогичных объёмов углекислого газа потребовалось бы 10 лет и 16 млн. деревьев. ![]() Компания уверена в своей технологии вычислений в памяти и посредством SYCL уже подготовила спецификации, позволяющие разработчикам ПО использовать все преимущества HBM-PIM. Также Samsung активно работает над похожей концепцией PNM (processing-near-memory), которая найдёт своё применение в модулях памяти CXL. ![]() Устройство Samsung HBM-PIM Работы по внедрению PIM и PNM Samsung ведёт давно, ещё на конференции Hot Chips 33 в прошлом году она объявила, что намерена оснастить вычислительными ускорителями все типы памяти — не только HBM2/3, но и DDR4/5. Тогда же впервые был продемонстрирован рабочий образец HBM-PIM, где каждый чип был оснащён ускорителем с FP16-производительностью 1,2 Тфлопс. Таким образом, первая HPC-система с технологией PIM полностью доказала работоспособность концепции вычислений в памяти. Samsung намеревается активно продвигать технологии PIM и PNM как в ИТ-индустрии, так и в академической среде, главном потребителе ресурсов суперкомпьютеров и кластерных систем.
27.01.2022 [13:57], Сергей Карасёв
AWS представила инстансы EC2 X2iezn для нагрузок EDA: высокочастотные Intel Xeon и до 1,5 Тбайт RAMОблачная платформа Amazon Web Services (AWS) анонсировала инстансы EC2 X2iezn на основе процессоров Intel для задач, предъявляющих высокие требования к памяти. Утверждается, что по сравнению с инстансами Х1 прирост производительности достигает 50 %. Задействованы чипы Xeon Scalable поколения Cascade Lake, у которых все вычислительные ядра могут функционировать на тактовой частоте 4,5 ГГц в турбо-режиме. Количество vCPU варьируется от 8 до 48, а объём оперативной памяти составляет 32 Гбайт в расчёте на vCPU. Таким образом, максимально доступный размер ОЗУ достигает 1,5 Тбайт. Старшая конфигурация доступна и в виде bare metal инстанса. ![]() При желании можно отключить Hyper-Threading, а у старшего варианта (x2iezn.12xlarge) включить NUMA-домены. Инстансы EC2 X2iezn построены на базе AWS Nitro и обеспечивают пропускную способность сети до 100 Гбит/с. Под нужды EBS выделена полоса до 19 Гбит/с. Новые инстансы предназначены прежде всего для приложений, связанных с автоматизацией проектирования электроники (EDA). ![]() Источник изображения: AWS Новинки уже доступны в регионах us-east-1, us-west-2, ap-northeast-1 и eu-west-1. Цена on-demand начинается с отметки $1,668/час. AWS также отметила некоторые изменения в нотации названий инстансов: i=Intel, e=увеличенный объём оперативной памяти, z=процессоры с высокой частотой, n=сетевое подключение до 100 Гбит/с благодаря AWS Nitro.
06.10.2021 [20:24], Алексей Степин
NeuroBlade представила память XRAM со встроенным ускорителем вычисленийМолодая израильская компания NeuroBlade «вышла из тени», представив свой первый продукт — ускоритель для задач машинной аналитики в памяти (processing in memory, PIM) под названием XRAM. Похожие продукты разрабатывают UPMEM и Samsung, но подход NeuroBlade отличается от их. Мы уже неоднократно отмечали, что в последнее время вновь стала популярна концепция специализированных ускорителей, способных справляться со специфическими нагрузками вроде сетевых операций или обслуживания устройств хранения данных. И, похоже, в дополнение к CPU, GPU, а в последний год и DPU, может добавиться ещё один класс таких сопроцессоров — вычислительная память (computational memory). Именно такое устройство представил израильский стартап NeuroBlade, уже собравший во втором раунде финансирования $83 млн. Идея, стоящая за новой технологией, названной создателями XRAM, довольно проста: сделать «умным» массив DRAM, снабдив его собственными вычислительными ядрами. В классической архитектуре данные только хранятся в памяти, а для обработки процессор или сопроцессор вынуждены к этой памяти обращаться, и не всегда каналы, через которое такое обращение осуществляется, достаточно широки. Но если хотя бы первичная обработка данных будет производиться в месте их хранения, это может существенно ускорить ряд задач, утверждает NeuroBlade. К числу таких задач относится и ряд сценариев машинной аналитики, а с ростом популярности «умной индустрии» требования к скорости реагирования таких систем будут только повышаться. В XRAM массивы DRAM и тысячи вычислительных ядер буквально переплетены. Путь от хранения к вычислениям в этом случае максимально короток. Глава компании отметил, что XRAM позволяет ускорить задачи машинной аналитики более чем на два порядка в бенчмарках TPC и на задачах клиентов компании. NeuroBlade продемонстрировала систему Xiphos на базе новой технологии. В ней установлено четыре ускорителя на базе PIM XRAM и этот квартет способен обрабатывать данные на скорости порядка терабайт в секунду. В качестве интерконнекта Xiphos использует множественные подключения PCIe x16. В сервере может быть установлено до 32 NVMe-накопителей. x86-процессор тут тоже есть, но нужен он только для служебных задач. ПО представлено платформой Insights Data Analytics, но есть и API, что упростит интеграцию нового класса ускорителей в существующую инфраструктуру. Подробности о новой технологии можно узнать на сайте NeuroBlade. Разработчики считают, что XRAM принесёт им существенные доходы, поскольку рынок машинной аналитики оценивается в $65 млрд. NeuroBlade, основанная ещё в 2016 году, отмечает, что её продукция уже закупается клиентами и поставляется в ЦОД по всему миру. В чём-то похожую технологию разрабатывает ещё одна израильская компания, Speedata. Её ускоритель для анализа данных и СУБД называется APU (Analytics Processing Unit) и представляет собой PCIe-карту, которая напрямую общается с локальным и/или удалённым хранилищем и обрабатывает данные. Ускоритель имеет набортный пул DRAM, что позволяет кратно снизить нагрузку на системную память и CPU. Компания была основана всего два года назад и уже получила $70 млн инвестиций.
07.04.2021 [21:01], Андрей Галадей
Memory Machine 1.2 повышает производительность in-memory нагрузок с Intel Xeon Ice Lake-SP и Optane PMem 200Компания MemVerge объявила о выпуске версии 1.2 программного обеспечения Memory Machine, которое используется для систем класса Big Memory. Новая версия адаптирована под процессоры Intel Xeon Scalable 3-го поколения (кодовое название Ice Lake), которые поддерживают до 6 Тбайт памяти (DDR4-3200 + Intel Optane серии 200). Компания также объявила о вступлении в Консорциум CXL и своём участии в лабораториях Big Memory в Arrow, Intel, Penguin Computing и WWT, которые теперь оснащены необходимой техникой и доступны для демонстраций технологий Big Memory, тестирования новых разработок и адаптации программного обеспечения. «Memory Machine v1.2 разработана, чтобы позволить поставщикам приложений и конечным пользователям в полной мере использовать преимущества новейшего процессора Intel Xeon Scalable и технологии памяти Optane. Мы начали с предоставления доступа к новым уровням производительности и ёмкости без необходимости вносить изменения в приложения», — заявил Чарльз Фэн (Charles Fan), генеральный директор MemVerge. Как отмечается, программное обеспечение Big Memory позволяет максимально эффективно использовать доступный объем памяти, обеспечивая новые возможности для рабочих нагрузок in-memory. Memory Machine позволяет не просто задействовать весь объём памяти в системе, но и существенно ускоряет работу с ней за счёт особых алгоритмов.
01.12.2020 [11:54], Юрий Поздеев
GSI Gemini APU опережает Xeon в 100 раз на операциях поиска подобных элементовПоиск сходства (Similarity search) в последние годы стал ключевой концепцией в науке, позволяя исследователям анализировать огромные объемы неструктурированных данных, выявляя связи, которые невозможно выявить другими методами. Метод этот очень ресурсоемкий и затратный: для выявления сходства между элементами необходимо проанализировать миллионы или миллиарды записей базы данных, выполняя побитное сравнение. Примером использования подобных методов может служить распознавание лиц, секвенирование ДНК, разработка новых лекарственных препаратов и многое другое. ![]() На данный момент для реализации подобных алгоритмов используются процессоры или графические ускорители, однако они не являются оптимальным решением из-за того, что возникает узкое место между памятью и ядрами процессора или GPU. На CPU алгоритм поиска сходства запускает по одному процессу для каждого ядра, при этом набор данных или его часть считываются в память, а затем ядро ЦП сравнивает каждую запись набора данных с исходным элементом. При поиске схожих изображений база данных может содержать миллиарды записей и поиск занимает достаточно много времени, также не стоит забывать об энергопотреблении серверных процессоров, которые давно перешагнули за отметку в 200 Вт. ![]() С графическими ускорителями дела обстоят несколько лучше: GPU имеет в своем распоряжении тысячи унифицированных ядер, однако они работают недостаточно быстро и поиск похожих элементов все равно занимает значительное время. По словам GSI Technology, ее специализированное решение для алгоритма поиска сходства значительно опережает Intel Xeon и GPU NVIDIA. По сравнению с Intel Xeon специализированный «блок ассоциативной обработки» (APU) Gemini выполняет поиск схожих элементов в 100 раз быстрее, потребляя при этом на 70% меньше электроэнергии. ![]() Архитектура APU Gemini построена таким образом, что вычислительные блоки размещаются вместе с памятью, что позволяет обрабатывать данные параллельно, избегая перемещения данных из памяти в ядро и обратно. Даже в случае оптимизированного обмена с высокоскоростной памятью в GPU, эти накладные расходы все равно оказывают значительное влияние на скорость работы алгоритма. ![]() APU Gemini выпускается в виде карты расширения с интерфейсом PCIe 4.0: на плате размещаются SRAM (Static Random Access Memory) и два миллиона битовых процессоров для вычислений в памяти. GSI совмещает 1-битные блоки обработки информации с линиями чтений-изменения-записи SRAM в одном массивном чипе, причем все 1-битные ядра могут работать параллельно. ![]() Карта GSI обладает двумя блоками SRAM по 96 Мбайт и 16 Гбайт общей памяти. Для сравнения: GPU NVIDIA A100 может обрабатывать 104х4096 бит за тактовый цикл 1,4 ГГц и имеет пропускную способность памяти 7 Тбайт/с, а APU Gemini выполняет два миллиона 1-битных операций за тактовый цикл 400 МГц с пропускной способностью памяти 26 Тбайт/с, имея при этом в разы меньшее энергопотребление. ![]() Решение получилось интересным, однако не нужно забывать о том, что оно очень узкоспециализированное и создано только для одной, пусть и очень ресурсоемкой задачи. Подобные решения все чаще появляются в последние годы из-за внедрения множества алгоритмов ИИ и анализа больших данных, с которыми универсальные процессоры или GPU справляются хуже специализированных решений.
24.09.2020 [16:35], Владимир Мироненко
MemVerge и Penguin Computing представили решение Big Memory Computing SolutionsMemVerge и Penguin Computing, дочерняя компания SMART Global Holdings, Inc., лидер в области решений для высокопроизводительных вычислений, ИИ и корпоративных ЦОД, объявили о партнёрстве с целью предоставления первого в мире решения Big Memory Computing Solutions. Это решение предназначено для выполнения вычислений класса Big Memory, для которых оперативная и постоянная память объединяются в виртуализированные массивные пулы программно-определяемой памяти. ![]() Такие пулы призваны удовлетворить растущий спрос на обработку данных, получаемых в реальном времени, и способны экономично масштабироваться до многих Тбайт с обеспечением высокой доступности. По данным IDC, к 2024 году почти четверть всех созданных данных будет получено в реальном времени, а две трети корпораций из списка Global 2000 развернут хотя бы одно приложение реального времени, которое считается критически важным. «Переход к вычислениям in-memory вызвало значительный интерес к технологии MemVerge в широком спектре наших технологических дисциплин и вертикальных рынков, — отметил Кевин Таббс (Kevin Tubbs), старший вице-президент группы стратегических решений Penguin Computing. — Мы специализируемся на разработке и компоновке важнейших новых технологий для наших клиентов в области ИИ и высокопроизводительных вычислений в хорошо настроенных эталонных архитектурах с хорошей поддержкой». «[Подход] Big Memory изменит инфраструктуру центров обработки данных, — заявил Чарльз Фан (Charles Fan), соучредитель и генеральный директор MemVerge. — Сочетание опыта Penguin Computing в разработке приложений для высокопроизводительных вычислений, ИИ/машинного обучения и ЦОД, инновационной памяти Intel Optane [PMEM] с нашим ПО Memory Machine позволяет нашим клиентам без компромиссов пользоваться новой услугой программно-определяемой памяти». DRAM без использования Big Memory Solutions работает быстрее, чем PMEM. А с этим решением DRAM и PMEM работают вместе так же быстро или даже быстрее, чем одна только DRAM, обеспечивая при этом высокую доступность инфраструктуры памяти. ПО Memory Machine позволяет организациям осуществлять обновление серверов с помощью постоянной памяти, которая стоит значительно дешевле, без риска потери производительности. После виртуализации DRAM и PMEM Big Memory Computing отображает PMEM как DRAM, позволяя любому приложению подключаться к пулу памяти без дополнительной модификации кода ПО. С помощью единой оболочки виртуализации Memory Machine все приложения ЦОД будут иметь быстрый и легкий доступ к недорогому пулу DRAM и PMEM. Более подробно о технологии MemVerge рассказано в отдельной заметке.
24.09.2020 [16:32], Алексей Степин
MemVerge представила платформу виртуализации памяти Memory MachineНад всеми современными компьютерными архитектурами довлеет одно проклятие — разделение всех ресурсов памяти на быструю (оперативную) и медленную (дисковую). Несмотря на весь прогресс в области микроэлектроники, сам принцип остаётся фундаментальным и по сей день, однако есть и те, кто решается бросить вызов этой системе. Компания MemVerge, летом этого года заявившая о том, что делает ставку на вычисления в памяти (in-memory), официально представила разработанное ей специально для этой цели программное обеспечение под названием Memory Machine. ![]() Модуль Optane DCPMM без радиатора. Виден контроллер и один из чипов Optane Как и все инициативы подобного рода, Memory Machine нуждается в достаточно быстром, но при этом энергонезависимом типе памяти: обычная DRAM не подходит и по цене, и по невозможности надёжно хранить данные. К счастью, сейчас такая «промежуточная» память есть, и это, разумеется, Intel Optane. Успешно доказана возможность Optane дополнять обычную память, и в тех случаях, где объём важнее пропускной способности, такие системы показывают впечатляющие результаты. Архитектурные устои современных серверов и кластерных систем, однако, приходится преодолевать, и именно с этой целью MemVerge разработала специальную программную прослойку, существенно упрощающую построение комбинированных пулов памяти, сочетающих в себе DRAM и Optane DCPMM (PMEM, Persistent Memory). В основе Memory Machine лежит идея прослойки виртуализации между приложениями и различными API доступа к памяти и хранилищам данных. ![]() Концепция in-memory, реализованная MemVerge. Для связи между узлами кластера используется RDMA over Converged Ethernet Благодаря этой прослойке, все имеющиеся сочетания DRAM и Optane DCPMM в пределах сервера или различных узлах кластера представляются, как единое объектное пространство памяти (Distributed Memory Objects), а приложения воспринимают это пространство как обычный объём памяти, с которым можно работать стандартными средствами. Прослойка с точки зрения приложений полностью прозрачна, а значит, приложения не нуждаются в модернизации. Для внедрения вычислений in-memory без модернизации ПО достаточно приобретения Memory Machine Standard Edition. Но существует и расширенная версия, Memory Machine Advanced Edition, ещё более продвинутая и выводящая идею единого быстрого пространства памяти на новый уровень. Ключевым отличием от стандартной версии можно назвать поддержку ZeroIO, технологии моментальных снимков памяти. Если верить MemVerge, ZeroIO позволяет полностью отказаться от операций ввода-вывода с традиционными блочными накопителями (SSD и HDD) и хранить всё в пределах PMEM. Загрузка объемных рабочих сценариев (сотни гигабайт или единицы терабайт) при этом занимает секунды против минут и часов при традиционном подходе. Поддерживается практически мгновенное клонирование объёмных баз данных, что обязательно порадует разработчиков. Также реализована функция Time Travel, позволяющая быстро откатываться к любому из сделанных ранее снимков. ![]() Memory Machine состоит из гипервизора памяти и надстроек, работающих непосредственно с приложениями Разумеется, Memory Machine представляет собой весьма непростое программное обеспечение. При всех своих достоинствах, память Optane DCPMM всё же уступает традиционным модулям DRAM DIMM в производительности. Но Memory Machine дирижирует имеющимися в её распоряжении ресурсами интеллектуально, перемещая наиболее часто используемые, «горячие» данные в область DRAM для максимизации производительности. Общий объём DRAM и Optane при этом всё равно используется на 100%. В основе Memory Machine лежит гипервизор на базе Linux, он-то и занимается виртуализацией всех ресурсов памяти в единый пул. Из этого пула приложения могут забирать необходимые ресурсы, а надстройка Memory Machine следит за тем, чтобы производительность была максимальной и поддерживает качество обслуживания (QoS). А в случае Advanced Edition, эта надстройка отвечает и за функции ZeroIO. ![]() Новое ПО поддерживает зонирование памяти (tiering), снятие снэпшотов и репликацию в реальном времени Обе редакции MemVerge Memory Machine можно заказать уже сейчас. Список поддерживающего режим выполнения in-memory программного обеспечения достаточно широк и включает в себя такие наименования как Autodesk Maya, TensorFlow, PyTorch, MySQL, MongoDB, KVM и ряд других. Список будет постоянно пополняться, также компания принимает отдельные заказы на обеспечение поддержки пользовательского приложения. Аппаратные ограничения проистекают из самой природы Memory Machine: к сожалению, серверы на базе AMD EPYC не подходят, как не поддерживающие Optane DPCMM. Но подойдёт любой сервер с процессорами Intel Xeon Scalable второго поколения, поддерживающими такой тип модулей памяти. Поддерживаются гипервизоры VMware ESXi и QEMU-KVM, операционные системы CentOS и Red Hat Enterprise Linux, а также платформы контейнеризации на базе Kubernetes. Напомним, что на самих платформах Intel память Optane DCPMM тоже может работать в режиме прозрачного расширения объёма DRAM. А на более ранних платформах с Xeon Scalable первого поколения доступна технология IMDT, которая позволяет расширить объём видимой в системе оперативной памяти за счёт NVMe-накопителей (в первую очередь, на базе той же Optane).
20.05.2020 [08:08], Алексей Степин
Стартап MemVerge делает ставку на вычисления in-memoryНаряду с ускорением вычислений (GPU, FPGA) и совершенствованием шин (NVLink, CXL), технологии класса in-memory computing станут частью высокопроизводительных систем нового поколения. Речь идёт о переносе как можно больших объёмов данных в RAM, что должно решить целый спектр проблем, вызываемый достаточно высокой латентностью традиционных накопителей. Молодой стартап MemVerge согласен с этим видением, но полагает, что для достижения наилучшего результата потребуется соответствующая программная прослойка. ![]() Хранить данные в оперативной памяти всегда было заманчивой идеей, поскольку такая память на порядки быстрее традиционных накопителей. Однако до недавних пор реализация этой идеи была достаточно ограниченной. С одной стороны, DRAM является достаточно дорогим удовольствием, а с другой — её объёмы ограничены и в ряде случаев их может оказаться недостаточно. С появлением новых типов энергонезависимой памяти класса SCM, главным из которых пока является Intel Optane, ситуация начинает понемногу меняться. Этого потребует и сам рост объёмов данных, получаемых в реальном времени, считает MemVerge. ![]() Концепция in-memory computing в версии MemVerge Согласно исследованию, проведенному IDC, в следующие пять лет четверть всех данных, обрабатываемых вычислительными системами планеты, будут составлять данные реального времени. Следовательно, от машин нового поколения потребуется не только скорость работы с памятью, но и солидные её объёмы. MemVerge полагает, что для оптимальной реализации вычислений in-memory потребуется сочетание DRAM, энергонезависимой SCM-памяти и специальной программной прослойки. Последнюю компания называет Memory Machine. ![]() Основой, как уже было сказано, считается память Intel Optane DCPMM, поскольку пока только эта технология позволяет создавать массивы памяти нужного для воплощения концепции memory centric объёма. MemVerge надеется занять нишу первопроходца в программной части реализации Memory Machine и стать основополагателем соответствующего стандарта. На сегодняшний день Optane хотя и опробована большинством крупных владельцев ЦОД, но единого стандарта на реализацию in-memory computing нет, что сдерживает широкое распространение концепции. Однако к 2022 году ситуация может измениться и у Optane появится 3 ‒ 4 конкурирующих типа энергонезависимой памяти. Одним из них может стать MRAM — рабочие образцы такой памяти уже существуют, но по объёму пока не могут сравниться с Optane.
25.01.2020 [14:48], Геннадий Детинич
Серверная память UPMEM показывает 10-кратное преимущество над DDR4 в ряде задачОпытная партия памяти UPMEM была представлена летом прошлого года. Разработчик выпустил 8-Гбайт модули DDR4-2400 RDIMM (ECC), каждый из которых опирался на 4-Гбит микросхемы DRAM с 8 встроенными процессорами DPU (data processing unit). То есть каждый модуль такой памяти был вооружён 128 процессорами для первичной обработки данных прямо на кристаллах памяти. ![]() Важно отметить, что память UPMEM полностью совместима с имеющимся оборудованием. Модификации требуют только некоторые программные библиотеки, но они не очень большие, всего несколько сотен строк кода. Зато потом штатные платформы на процессорах Intel Xeon могут получить многократный рост производительности и снижение итогового энергопотребления без увеличения объёма памяти. ![]() Свежим пресс-релизом разработчик поделился бенчмарками работы системы с процессорами Intel Xeon на памяти UPMEM в приложении для анализа генома человека и при индексном поиске. Работа инструмента GATK (Genome Analysis Toolkit) для составления генетической карты и анализа отклонений на массиве памяти UPMEM прошла в 10 раз быстрее, чем на аналогичном по объёму массиве обычной памяти DDR4. Поскольку фрагменты генома обрабатывались прямо в памяти, это привело к росту пропускной способности в 11 раз. Всё вместе сопровождалось снижением потребления в 6 раз в пересчёте на пропускную способность. При этом надо отметить, что модуль UPMEM потребляет в два раза больше энергии, чем обычный модуль памяти без встроенных процессоров. ![]() Запуск индексного поиска также показал преимущество встроенной в память первичной обработки данных. На массиве памяти UPMEM запрос распараллеливался по всем чипам и там обрабатывался встроенными процессорами вместо того, чтобы загружать данные в центральный процессор и только там их обрабатывать. Как результат, задержки в обработке снизились в 35 раз, а пропускная способность выросла в 11 раз. Потребление при выполнении этой задачи оказалось также в 6 раз меньше, чем с использованием обычной памяти. Результаты реальных тестов памяти UPMEM оказались несколько меньше теоретически обоснованных. Ранее разработчик заявлял о 10-кратном снижении потребления, тогда как на деле потребление снизилось в 6 раз. Но даже это выглядит превосходным результатом. При этом скорость работы приложений выросла на порядок, что окажет услугу учёным и человечеству при расшифровке генома и ускорит поиск информации удалёнными клиентами. |
|