Материалы по тегу: amd

03.07.2022 [13:14], Сергей Карасёв

Intel будет терять позиции на серверном рынке: AMD увеличит долю в 1,8 раз, а системы на Arm — более чем в 3 раза

Корпорация Intel в ближайшие годы будет испытывать всё более сильное давление со стороны конкурентов на серверном рынке, говорит исследование, проведённое аналитиками DigiTimes Research. Речь идёт о всё нарастающих поставках систем с процессорами AMD, а также с различными чипами, использующими архитектуру Arm.

В частности, как отмечается, доля AMD-серверов поднимется с 10,1 % в 2020 году до 16,3 % в 2023-м и почти до 18 % в 2024-м. Этому будет способствовать хороший спрос на изделия компании в сегментах облачных платформ и высокопроизводительных вычислений (HPC). Кроме того, благодаря большому количеству вычислительных ядер чипы AMD обеспечивают преимущества перед изделиями конкурентов в системах, ориентированных на виртуализацию.

Источники в каналах поставок также сообщают, что в обозримом будущем увеличить закупки процессоров AMD намерены операторы крупных центров обработки данных, включая Google и Microsoft. Наконец, помочь AMD в укреплении рыночных позиций могут решения Xilinx, которую AMD не так давно поглотила.

Что касается серверов с чипами Arm, то их доля в течение нескольких лет может вырасти в три раза. Если в 2020-м она составляла приблизительно 3 %, то в 2024-м прогнозируется на уровне 10 %. В развитии данного сегмента помогут усилия таких компаний, как Amazon и NVIDIA. Так, Amazon продолжает активно внедрять серверы на базе фирменных Arm-чипов Graviton. Помимо облачных EC2-инстансов, компания теперь предлагает и edge-платформу Outposts.

В свою очередь, NVIDIA развивает семейство собственных Arm-решений Grace для НРС- и ИИ-систем, а также конвергентные DPU. Ожидается также рост спроса на чипы Arm в Китае ввиду сложных торговых отношений с США — у Alibaba Cloud уже есть процессор Yitian 710 собственной разработки.

Постоянный URL: http://servernews.ru/1069357
23.06.2022 [20:31], Алексей Степин

2-Эфлопс cуперкомпьютер El Capitan получит новейшие APU AMD MI300

До ввода в строй нового кластера Лос-Аламосской национальной лаборатории (LLNL) под названием El Capitan ещё остается немало времени. Тестовые мини-кластеры El Capitan уже показывают неплохие результаты; в их основе лежит привычное сочетание процессоров AMD EPYC Milan и ускорителей Instinct MI250X, однако финальная версия суперкомпьютера, как оказалось, будет использовать более прогрессивную новинку — новейшие APU MI300.

Об этом на очередном мероприятии HPC User Forum поведал миру глава центра высокопроизводительных вычислений LLNL. Поскольку полномасштабный запуск El Capitan назначен на конец 2023 года, времени на переход от EPYC 7003 с дискретными модулями ускорителей Instinct к высокоинтегрированному MI300 должно хватить. При этом ожидается, что машина будет активно эксплуатироваться минимум до 2030 года.

 Источник: LLNL

Источник: LLNL

MI300 — амбициозный проект AMD, который должен показать, что компания полностью освоила все преимущества чиплетной технологии: на одной подложке будут установлены чиплеты процессорных ядер Zen 4 (Genoa), блоки ускорителей с архитектурой CDNA3, модули кеша и сборки сверхбыстрой памяти типа HBM3. Таким образом, MI300 с полным основанием претендует на звание первого в мире действительно универсального процессора для HPC-систем, способного работать с любыми видами нагрузок.

 Источник: LLNL (via TheNextPlatform)

Источник: LLNL (via TheNextPlatform)

Общий уровень энергопотребления El Capitan планируется удержать в рамках 40 МВт (а не 35 МВт) при FP64-производительности свыше 2 Эфлопс — удельный показатель составит порядка 50 Гфлопс/Вт. В последнем рейтинге Green500 кластер Frontier TDS показал почти 63 Гфлопс/Вт, тогда как для суперкомпьютера Frontier целиком удалось добиться 52,23 Гфлопс/Вт. В El Capitan лаборатория перейдет от использования проприетарного системного и управляющего ПО к собственному стеку NNSA Tri-Lab Operating System Stack (TOSS).

 Такие узлы HPE Cray EX235a используются в тестовых кластерах El Capitan. Переход на MI300 упростит конструкцию. Источник: HPC Wire

Такие узлы HPE Cray EX235a используются в тестовых кластерах El Capitan. Переход на MI300 упростит конструкцию. Источник: HPC Wire

Также было упомянуто, что у КНР есть уже два экзафлопсных суперкомпьютера, а «глобальные соперники» США за последние годы модернизировали свой ядерный арсенал. Подобная задача теперь стоит и перед самими Соединёнными Штатами. Национальное управление ядерной безопасности (National Nuclear Security Administration, NNSA) возложит эту миссию на El Capitan, начиная со II квартала 2024 года.

Напомним, на очереди среди всех экзафлопсных систем США этот суперкомпьютер третий, вторым же является 2-Эфлопс Aurora, система HPE с изрядно задержавшимися процессорами Intel Sapphire Rapids и ускорителями Ponte Vecchio, которая устанавливается в Аргоннской национальной лаборатории. Но MI300 — не единственный HPC-гибрид. В скором времени появятся несколько машин с чипами NVIDIA Grace Hopper.

Постоянный URL: http://servernews.ru/1068718
23.06.2022 [12:53], Сергей Карасёв

Kontron представила плату D3723-R формата mini-ITX с процессором AMD Ryzen Embedded R2000

Компания Kontron в ходе мероприятия Embedded World 2022 анонсировала компактную плату D3723-R, предназначенную для применения в различных встраиваемых устройствах, медицинском и промышленном оборудовании, а также клиентских и корпоративных компьютерах. В основу новинки легла аппаратная платформа AMD Ryzen Embedded R2000 с графикой Radeon Vega.

Изделие выполнено в форм-факторе mini-ITX с размерами 170 × 170 мм. В зависимости от модификации устанавливается процессор Ryzen Embedded R2544, Ryzen Embedded R2514, Ryzen Embedded R2314 или Ryzen Embedded R2312 (подробнее об этих чипах можно узнать в нашем материале). Для модулей оперативной памяти DDR4-2400/2666/3200 SDRAM доступны два слота SO-DIMM (суммарно до 32 Гбайт).

 Источник изображения: Kontron

Источник изображения: Kontron

Для подключения накопителей есть два порта SATA 3.0. Предусмотрены по одному коннектору M.2 PCIe x4 (Key-M: 2230/2242/2280), Mini PCIe, PCIe 3.0 x4 и M.2 PCIe x2/USB 2.0/SATA (Key B: 2242/3052/2260/2280). В оснащение входят сетевые контроллеры Intel i210 и Realtek RTL8111H стандарта 1GbE, звуковой кодек Realtek ALC256 формата 5.1.

Питание может подаваться через DC-разъём, что позволяет разместить плату в очень компактном корпусе. Интерфейсный блок содержит четыре разъёма DisplayPort 1.4 для подключения мониторов, два гнезда RJ45 для сетевых кабелей, два последовательных порта, по два порта USB 3.1 Gen2 и USB 3.1 Gen1, а также аудиогнёзда.

Постоянный URL: http://servernews.ru/1068664
21.06.2022 [14:32], Алексей Степин

AMD представила индустриальные процессоры Ryzen Embedded R2000: до четырёх ядер Zen+

Семейство процессоров AMD Ryzen Embedded довольно консервативно: серия R1000 была представлена еще в 2019 году и включала в себя лишь двухъядерные модели на базе архитектуры Zen первого поколения, а представленные в 2020 году чипы V2000 предлагали до восьми ядер Zen2.

Сегодня Advanced Micro Devices объявила о выпуске новых процессоров R2000 с теплопакетом от 12 до 54 Вт и чуть более современной (по сравнению с R1000) архитектурой Zen+. Эти максимально экономичные процессоры предназначены для индустриального применения, в том числе в системах машинного зрения, IoT, тонких клиентах, видеостенах, киосках и тому подобном оборудовании. В серию вошли модели R2544, R2514, R2314 и R2312.

 Источник: AMD

Источник: AMD

В сравнении с R1000 производительность новинок выросла на 81%, и неудивительно — количество процессорных ядер возросло с двух до четырёх. Соответственно, с 1 до 2 Мбайт увеличился объём кеша L2, а также появилась поддержка памяти DDR4-3200 (два канала). Нового в Ryzen Embedded R2000 немного, за исключением более совершенной архитектуры ядер, но в количественном отношении новые процессоры во всём лучше старых: больше ядер, вдвое более производительная подсистема памяти, возросшее с 8 до 16 количество линий PCI Express 3.0. Также доступно до двух портов SATA-3 и до шести портов USB (3.2 Gen2 и 2.0).

 Текущий модельный ряд AMD Ryzen Embedded. Источник: AMD

Текущий модельный ряд AMD Ryzen Embedded. Источник: AMD

С трёх до четырёх возросло и количество подключаемых дисплеев с поддержкой разрешения 4К, хотя поддержка HDMI по-прежнему ограничена версией 2.0b. Но есть и DisplayPort 1.4 с eDP 1.3. Можно отметить наличие встроенного сопроцессора безопасности AMD Secure Processor, позволяющего шифровать содержимое оперативной памяти на лету. Поскольку новая серия относится к промышленной, срок сопровождения составляет 10 лет.

В число поддерживаемых ОС вошли Windows 10/11 и Ubuntu LTS. В число партнёров AMD, которые представили или собираются представить свои решения на базе Ryzen Embedded R2000, входят компании Advantech, DFI, IBASE и Sapphire Technology. Среди анонсированных продуктов есть платформы для игровых автоматов, цифровые киоски, промышленные системные платы, платформы SD-WAN и многое другое.

Постоянный URL: http://servernews.ru/1068509
20.06.2022 [23:39], Игорь Осколков

Джим Келлер назвал глупостью отказ AMD от развития серверных Arm-процессоров

Мы уже рассказывали краткую история развития серверных Arm-процессоров в обзоре Ampere Altra. Среди неудачных проектов был и AMD Opteron A1100 (Seattle), выход которого задержался на два года. Но вместе с анонсом этого CPU компания AMD озвучила планы по дальнейшему развитию Arm-решений, которые включали Project SkyBridge (ARM Cortex-A57) и K12 (кастомная реализация ARMv8-A). Над последним параллельно с разработкой x86-ядер Zen трудился Джим Келлер (Jim Keller).

 Изображения: AMD

Изображения: AMD

В своём майском докладе на конференции Future of Compute Келлер сообщил, что во время планирования Zen 3 он и другие инженеры обратили внимание на значительно сходство в реализации архитектур x86 и Arm, поскольку «внутри все современные компьютеры на самом деле являются RISC-машинами». По словам Келлера, отличия по большому счёту кроятся в декодерах инструкций, так что он с командой постарался сделать решение, которое могло бы работать с обоими архитектурами. «Они [AMD] по глупости отменили этот проект» — приводит слова Келлера The Register. Сам Келлер в своё время назвал работу над Zen более приоритетной, но после его ухода из AMD в 2016 году компания полностью забросила K12.

K12 должен был стать процессором, ориентированным на энергоэффективность и способным работать на высоких частотах. Он был предназначен для высокоплотных систем, а также для встраиваемых решений и заказных чипов. В конце концов, AMD добьётся этого с помощью, например, Zen 4c (EPYC Bergamo), но к этому моменту появится очередное поколение Arm-чипов Ampere Computuing, CPU которой уже доступны в облаках Oracle, Microsoft и других крупных игроков. А Amazon с Alibaba и вовсе пошли по пути создания собственных Arm-процессоров. Впрочем, и без подобных чипов сейчас дела на серверном рынке у AMD идут прекрасно.

Постоянный URL: http://servernews.ru/1068462
16.06.2022 [20:46], Игорь Осколков

AMD EPYC опередили Intel Xeon в облачных тестах Cockroach Labs

Компания Cockroach Labs, разработчик распределённой СУБД CockroachDB, подготовила очередной отчёт 2022 Cloud Report, в котором сравнила современных инстансы «большой тройки» облаков: AWS, Google Cloud Platform и Microsoft Azure. В рамках исследования компания попыталась найти ответ на вопрос, часто задаваемый пользователями CockroachDB: лучше использовать много маленьких инстансов или несколько больших?

Для этого исследователи оценили производительность CPU (CoreMark), сетевой подсистемы (nperf), подсистемы хранения данных (FIO), а также исполнение OLTP-нагрузок (модифицированный TPC-C). В тестировании приняли участие инстансы с последними на текущий момент процессорами AMD EPYC Milan и Intel Xeon Ice Lake-SP, а вот Arm-системы пока что были исключены из подборки, так как официальная их поддержка появится только в осеннем релизе CockroachDB.

Авторы исследования отмечают, что если ранее по уровню общей производительности лидировали инстансы на базе процессоров Intel, а AMD-инстансы хоть и отставали от них, но зато выигрывали по соотношению цены и производительности, то теперь ситуация поменялась — решения AMD лидируют в обоих случаях. В OLTP- и CPU-бенчмарках чаще всего обгоняют Intel-системы, а в худшем случае идут с ними вровень.

 Источник: Cockroach Labs

Источник: Cockroach Labs

Впрочем, без нюансов не обошлось. Так, неожиданно выяснилось, что в CoreMark (только мультипоточные тесты) процессоры Intel Xeon Cascade Lake-SP оказались почему-то хуже, чем более новые Ice Lake-SP, чего быть не должно и что противоречит результатам OLTP-бенчмарков. Исследователи не готовы назвать причину такого поведения, поскольку проблема может крыться в аномальной работе бенчмарка, который может не отражать реальный уровень производительности CPU.

 Источник: Cockroach Labs

Источник: Cockroach Labs

Также авторы отчёта подчеркнули важность внимания к сети и хранилищу, поскольку они прямо влияют на производительности работы СУБД в конкретных нагрузках, а неправильный подбор конфигурации может значительно сказаться на стоимости использования. В частности, дорогое, но высокопроизводительное локальное хранилище нужно только в специфичных сценариях, а стоимость передачи трафика внутри облачного региона и между регионами может быть одинаковой.

Ещё одно наблюдение — все облака предоставляют ресурсы с чётко прописанными лимитами именно в рамках этих лимитов. А вот надеяться на то, что ресурсы без таких лимитов (например, без указан верхний порог скорости, но не указан нижний) всегда будут предоставляться по максимуму, ожидать не стоит. Если нужен гарантированный уровень производительности, чаще всего придётся доплатить. Также авторы указывают на важность соотношения vCPU c RAM и рекомендуют не менее 4 Гбайт на каждый vCPU.

Всего в рамках исследования было протестировано 56 разновидностей инстансов в 107 различных конфигурациях. На этот раз явного лидера выявлено не было, все три провайдеры в конечном итоге предлагают примерно равные возможности и конкурентные цены. Что же касается главного вопроса исследования, то ответ на него таков: в случае OLTP-нагрузок использование малых инстансов может быть лучше, чем использование более крупных.

Постоянный URL: http://servernews.ru/1068222
14.06.2022 [18:51], Алексей Степин

AMD запланировала массированное наступление на рынок машинного обучения и ИИ

C момента анонса архитектуры Zen и появления процессоров EPYC можно отсчитывать начало возвращения AMD на серверный рынок и в сферу HPC. Многие владельцы ЦОД и проектировщики суперкомпьютеров всё чаще выбирают AMD, но компания также стремится упрочнить свои позиции и на рынке систем машинного интеллекта, где долгое время доминирует NVIDIA со своей экосистемой CUDA.

Причём речь идёт о завоевании всех сегментов, от сферы периферийных вычислений до крупных облачных систем, для чего в распоряжении компании уже есть «нужный кремний и программное обеспечение». Именно такое заявление «красные» сделали на мероприятии Financial Analyst Day 2022. Глава AMD, Лиза Су (Lisa Su) отметила, что предстоит много работы, но открывающиеся перспективы роста того стоят. Наступление уже началось: отмечается интерес к процессорам EPYC для применения в инференс-системах и ускорителей Instinct для обучения нейросетей.

Охват рынка ИИ-систем и машинного обучения решениями AMD. Источник: AMD

С Instinct всё понятно, на сегодня это один из мощнейших ускорителей в отношении «чистой» производительности, а вот EPYC добились серьёзного прироста скорости исполнения инференс-нагрузок во многом благодаря благодаря библиотеке ZenDNN (Zen Deep Neural Network). Эта библиотека тесно интегрирована с популярными фреймворками TensorFlow, PyTorch и ONNXRT.

Она поддерживается процессорами EPYC, начиная со второго поколения, но компания пойдет и дальше в деле внедрения элементов ИИ в новые поколения процессоров на аппаратном уровне. Речь, в том числе, идёт о поддержке AVX-512 VNNI, которая появится в EPYC Genoa и Ryzen 7000. Ранее поддержкой таких инструкций могли похвастаться только процессоры Intel, которая активно вкладывалась в развитие ПО в течение нескольких лет.

 Адаптивная архитектура XDNA. Источник: AMD

Адаптивная архитектура XDNA. Источник: AMD

Другой путь заключается в использовании чиплетов на базе блоков Xilinx. Эта инициатива получила название адаптивной архитектуры XDNA. Нужны блоки появились ещё в серии Versal в 2018 году, а сейчас AMD намеревается снабдить аналогичным ИИ-движком ноутбучные Ryzen: Phoenix Point (2023 год) и Strix Point (2024 год). Эта же технология появится в EPYC, но точные сроки пока не оговорены, зато сообщается, что чипы с архитектурой Zen 5 c новыми оптимизациями для машинного обучения дебютируют в 2024 году.

На этом планы относительно портфолио Xilinx не заканчиваются. Решения на базе матриц Zynq давно и активно применяются в индустрии, здравоохранении, транспортных системах и «умных» производствах. Это же относится к рынку телекоммуникаций, использующему Xilinx Versal и облачным ЦОД, где довольно широко применяются ускорители Alveo и ПЛИС Kintex. И AMD ни в коем случае не собирается покидать эти секторы рынка.

Сферы и отрасли, потребности которых могут покрываться решениями AMD. Источник: AMD

Компания также активно готовит почву к пришествию своего первого серверного APU Instinct MI300. Так, пакет ROCm получил оптимизации для сценариев обучения и инференса в PyTorch и TensorFlow, и он же теперь может работать на потребительских моделях Radeon с архитектурой RDNA. AMD также разрабатывает SDK с предварительно оптимизированными моделями, что упростит разработку и внедрение ИИ-приложений.

Можно сказать, что охват рынка искусственного интеллекта и машинного обучения у AMD будет держаться на трёх китах: процессорах Ryzen и EPYC для моделей малых и средних объёмов; будущих EPYC с ИИ-блоками и ускорителях на базе Radeon и Versal для средних и больших моделей; ускорителях и APU Instinct вкупе с адаптивными чипами Xilinx для моделей большого и сверхбольшого размера.

Консолидация всех технологий ИИ, имеющихся у AMD, в единый программный стек. Источник: AMD

А для лучшей консолидации AMD активно объединяет в единый массив ранее независимые средства ПО для всех типов вычислителей. В этом она активно сотрудничает с другими компаниями, включая таких гигантов, как Microsoft и Meta*. Концепция Unified AI Stack будет развиваться и в дальнейшем, включая всё новые и новые компоненты, так что в итоге разработчику систем машинного интеллекта можно будет использовать единый набор инструментов, поддерживающий все ИИ-технологии AMD. В том же направлении движется и Intel со своей инициативой oneAPI.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Постоянный URL: http://servernews.ru/1068024
11.06.2022 [14:45], Сергей Карасёв

ASRock Rack представила сервер хранения 4U36L6E-MILAN2/2T на 40 накопителей

Компания ASRock Rack анонсировала сервер хранения данных 4U36L6E-MILAN2/2T, выполненный на аппаратной платформе AMD. Новинка в 4U-шасси имеет габариты 699 × 432 × 176 мм. Задействована системная плата ROME2D16-2T.

Допускается установка двух процессоров AMD EPYC 7003/7002 в исполнении Socket SP3 (LGA 4094) с показателем TDP до 240 Вт. Доступны 16 слотов для модулей оперативной памяти DDR4-3200 ёмкостью до 256 Гбайт каждый. Есть пять разъёмов PCIe 4.0 x16 и один разъём PCIe 4.0 x8 для низкопрофильных карт расширения.

 Источник изображений: ASRock Rack

Источник изображений: ASRock Rack

В общей сложности можно задействовать до 40 накопителей. Во фронтальной части находятся отсеки для 20 устройств LFF с интерфейсом SATA/SAS и ещё для четырёх устройств LFF SATA/SAS или SFF PCIe 3.0 x4. Сзади расположены отсеки для 12 устройств LFF SATA/SAS и двух накопителей SFF PCIe 3.0 x4. Для всех этих изделий предусмотрена возможность «горячей» замены. Наконец, можно установить два внутренних твердотельных модуля М.2 — формата 22110/2280/2242 (PCIe 4.0 x4 или SATA) и 22110/2280/2242 (PCIe 4.0 x4).

Сервер оборудован двумя блоками питания мощностью 1200 Вт с сертификатом 80 PLUS Platinum. Применена система воздушного охлаждения с семью вентиляторами размером 80 × 38 мм. Новинка наделена двумя сетевыми портами 10GbE, выделенным сетевым портом управления, двумя разъёмами USB 3.2 Gen1 Type-A и аналоговым интерфейсом D-Sub.

Постоянный URL: http://servernews.ru/1067788
10.06.2022 [23:31], Алексей Степин

Решения Xilinx и Pensando помогут AMD завоевать рынок ЦОД

О грядущих серверных APU MI300, сочетающих архитектуры Zen 4 и CDNA 3, и сразу нескольких сериях процессоров EPYC мы уже рассказали, но на мероприятии Financial Analyst Day 2022 компания поделилась и другими планами относительно серверного рынка, которые весьма обширны. Они включают в себя использование разработок и технологий Xilinx и Pensando.

Фактически AMD теперь владеет полным портфолио аппаратных решений для ЦОД и рынка HPC: процессорами EPYC, ускорителями Instinct, SmartNIC и DPU на базе чипов Xilinx и Pensando и, наконец, FPGA всё той же Xilinx. Долгосрочные перспективы рынка ЦОД AMD оценивает в $125 млрд, из них на долю ускорителей приходится $64 млрд, а классические процессоры занимают лишь второе место с $42 млрд; остальное приходится на DPU, SmartNIC и FPGA.

 Источник: AMD

Источник: AMD

Теперь у AMD есть полный спектр «умных» сетевых решений практически для любой задачи, включая сценарии, требующие сверхнизкой латентности. Эту роль берут на себя адаптеры Solarflare. Более универсальные ускорители Xilix Alveo обеспечат поддержку кастомных сетевых функций и блоков ускорения, а также высокую производительность обработки пакетов. Ускорители могут быть перепрограммированы, что потенциально позволит существенно оптимизировать затраты на сетевую инфраструктуру крупных ЦОД.

 Источник: AMD

Источник: AMD

Гиперскейлерам они уже поставляются, в текущем виде они имеют до двух 200GbE-портов и совокупную скорость обработки до 400 млн пакетов в секунду. Следующее поколение должно увидеть свет в 2024 году, здесь AMD придерживается двухгодичного цикла. Выпускается и 7-нм DPU Pensando Elba, также предоставляющий пару 200GbE-портов. В отличие от Alveo, это более узкоспециализированное устройство, содержащее 144 P4-программируемых пакетных движка. Помимо них имеются выделенные аппаратные движки ускорения криптографии и сжатия/декомпрессии данных.

Уникальный программно-аппаратный стек Pensando, унаследованный AMD, обеспечивает ряд интересных возможностей, востребованных в крупных системах виртуализации на базе ПО VMware — например, полноценную поддержку виртуализации NVMe, поддержку NVMe-oF/RDMA, в том числе и NVMe/TCP, а также полноценное шифрование и туннели IPSec на полной линейной скорости 100 Гбит/с с временем отклика 3 мкс и джиттером в районе 35 нс.

Источник: AMD

Разработки Pensando уже используются такими крупными поставщиками сетевого оборудования и СХД, как Aruba (коммутаторы с DPU) и NetApp (системы хранения данных). Таким образом, AMD вполне вправе говорить о том, что современный высокопроизводительный ЦОД может быть целиком построен на базе технологий компании, от процессоров и ускорителей до интерконнекта и специфических акселераторов.

Современный безопасный ЦОД может быть целиком построен на базе технологий AMD. Источник: AMD

Поддержка доверенных вычислений, включая полное шифрование содержимого памяти делает такие ЦОД и более безопасными, что немаловажно в современном мире, полном кибер-угроз. В том же направлении движутся NVIDIA BlueField и Intel IPU, а также целый ряд других игроков.

Постоянный URL: http://servernews.ru/1067763
10.06.2022 [20:02], Алексей Степин

Первые серверные APU AMD MI300 объединят архитектуры CDNA 3 и Zen 4

Идея интеграции классического процессора с графическим не нова — очень многие клиентские CPU/APU сегодня построены именно по такой схеме. В мире серверов и HPC эта концепция внедряется не так быстро, но на мероприятии Financial Analyst Day 2022 компания AMD рассказала о планах по созданию своего первого 5-нм гибридного APU MI300. Этот чип, запланированный на 2023 год, должен объединить в себе архитектуры Zen 4 и CDNA 3.

 MI300 Источник: AMD

MI300 Источник: AMD

Как известно, текущее поколение ускорителей Instinct MI200 использует вторую версию архитектуры CDNA, и теперь мы знаем о планах «красных» по внедрению следующей версии. В отличие от других планов AMD, касающихся графических процессоров и завязанных на двухгодичный цикл обновления, серверные варианты ускорителей будут обновляться раз в год. Компания также раскрыла часть деталей, относящихся к CDNA 3.

 Источник: AMD

Источник: AMD

Во-первых, весь «кремний» CDNA 3 будет производиться с использованием 5-нм техпроцесса (TSMC N5/N5P), и, как и CDNA 2, он будет базироваться на чиплетной компоновке с отдельными кристаллами для памяти, кешей и вычислительных ядер. При этом AMD называет свою технологию 3D chiplet, то есть, речь идёт о плотной вертикально-горизонтальной компоновке. Так, чиплеты кеша будут располагаться под процессорными, а на самый верх «стопки» компания вынесет чиплеты логики, как наиболее прожорливые и горячие.

 Источник: AMD

Источник: AMD

Самым важным новшеством в CDNA — четвёртое поколение Infinity Architecture, позволяющее, в числе прочего, сделать подсистему памяти полностью унифицированной и когерентной — в MI200 реализована только когерентность, но не единое адресное пространство. Иными словами, если старшие варианты MI200 всё ещё выглядят как пара ускорителей, то решения на базе CDNA 3 с точки зрения системы будут выглядеть и функционировать как единый чип, несмотря на чиплетную компоновку.

Источник: AMD

Что касается памяти, то это, конечно же, общая для всех HBM. Тип не уточняется, но можно с достаточной степенью уверенности предположить, что это будет HBM3. Об архитектурных улучшениях в сценариях машинного обучения известно пока немного, известно, что в CDNA 3 появится поддержка новых смешанных типов вычислений, зато AMD уверенно обещает более чем в 5 раз поднять производительность на Вт в такого рода задачах. Надо полагать, что достигнуто это будет существенным увеличением качества и количества движков для матричных вычислений.

Источник: AMD

Но самое интересное в свежих планах AMD — проект MI300. Об интеграции классических CPU с ускорителями говорилось давно, однако недостаточно тонкие и энергоэффективные техпроцессы не позволяли создать чип, укладывающийся в разумные рамки энергопотребления и тепловыделения. С 5-нм оптимизированным техпроцессом это, похоже, становится возможным.

Источник: AMD

MI300 должен объединить в себе архитектуры CDNA 3 и Zen 4, причём, благодаря Infinity Architecture они смогут равноправно пользоваться всеми ресурсами памяти (и, возможно, кешей), имеющимися на чипе, что исключает копирование одного и того же набора данных между пулами памяти, лишь снижающего общую эффективность. Не исключено также, что отпадёт нужда во внешней DRAM благодаря наличию на борту этого монстра собственного объёмного пула HBM. Впрочем, новый вариант Infinity получил поддержку CXL 2.0, что упростит работу с внешними пулами DRAM.

 Источник: AMD

Источник: AMD

Пока неизвестно, сколько процессорных ядер и сколько ядер CDNA 3 получит MI300, но AMD заявляет, что новинка более чем в 8 раз превзойдёт MI250X в задачах обучения ИИ-моделей. В целом, планы AMD хорошо укладываются в современную тенденцию гибкой компоновки ресурсов в рамках чипа: этим же путём идут NVIDIA со своим проектом Grace Hopper (процессорные ядра Grace + H100) и Intel, разрабатывающая XPU Falcon Shores (x86 + Xe). Сама AMD также планирует интегрировать CPU и FPGA.

Постоянный URL: http://servernews.ru/1067751
Система Orphus