Материалы по тегу: cpu

10.05.2021 [20:18], Владимир Мироненко

Loft Orbital создаст процессор для периферийных вычислений в космосе

Стартап из Сан-Франциско (США) Loft Orbital сообщил о заключении очередного контракта с Космическими силами США на разработку процессора, который позволит выполнять периферийные вычисления на борту военных спутников. Согласно данным ресурса SpaceNews, на этот раз компания получит финансирование на общую сумму $1,5 млн: $750 тыс. от государства и ещё $750 тыс. от частных фондов.

Процессор будет поддерживать выполнение не слишком «тяжёлых» периферийных вычислений: обработка данных датчиков и телеметрии, обеспечение автономности миссии, самозащита спутников. Компания также занимается разработкой ПО на базе машинного обучения для автономного обнаружения, идентификации и смягчения киберугроз на борту космического аппарата.

«Процессор позволит отдельным спутникам действовать как вычислительные узлы в mesh-сети из других спутников, наземных станций и облачных центров обработки данных, но при этом сможет работать изолированно и автономно в условиях, когда коммуникационные каналы перегружены или недоступны», — сообщили в компании. Бортовые вычисления позволяют спутникам обрабатывать данные, которые они собирают, выполнять задачи и принимать автономные решения быстрее, чем если бы информация отправлялась для обработки на сервер на Земле.

Loft Orbital планирует предложить Космическим силам полный пакет «космической инфраструктуры как услуги». Компания будет отправлять полезные нагрузки правительственных заказчиков в космос на борту своих спутников, а правительство будет использовать периферийную вычислительную среду для запуска приложений и анализа данных о погоде или дистанционного зондирования.

Постоянный URL: http://servernews.ru/1039230
27.04.2021 [22:45], Владимир Фетисов

Arm раскрыла больше деталей о серверных платформах Neoverse V1 и Neoverse N2

Компания Arm опубликовала больше информации касательно производительности своих новых серверных решений семейства Neoverse, анонс которых состоялся осенью прошлого года. Согласно опубликованным данным, чипы Neoverse V1 и Neoverse N2 обеспечивают на 40-50 % более высокую производительность по сравнению с решениями предыдущего поколения.

Требования к рабочим нагрузкам центров обработки данных и потребляемому интернет-трафику растут в геометрической прогрессии, поэтому необходимы новые аппаратные решения, способные удовлетворить растущие потребности при одновременном снижении уровня энергопотребления. По мнению Arm, её новые серверные платформы отвечают современным требованиям в плане производительности и энергопотребления.

Neoverse V1 представляет собой серверную платформу, которая подходит для использования в крупных центрах обработки данных. Решение поддерживает векторные инструкции Scalable Vector Extension (SVE) и обеспечивает до 50 % более высокую производительность по части машинного обучения, по сравнению с решениями предыдущего поколения. Помимо прочего, V1 поддерживает формат bfloat16, который является актуальным для нейронных сетей.

Платформа Neoverse N2 построена на базе архитектуры ARMv9, которая была анонсирована не так давно. Она способна обеспечить до 40 % более высокую производительность для разных типов рабочих нагрузок. «Я думаю, что N2 приятно удивит разработчиков тем, насколько производительными будут проекты с однопоточным дизайном. V1 выглядит хорошим стартом на нишевом рынке высокопроизводительных вычислений. В целом Arm усиливает свои позиции на рынке», — заявил Патрик Мурхед (Patrick Moorhead), аналитик компании Moor Insights & Strategy.

Постоянный URL: http://servernews.ru/1038317
15.04.2021 [23:16], Владимир Мироненко

РосСХД разработает системы хранения данных на базе российских Arm-процессоров «Байкал»

В Консорциуме российских разработчиков систем хранения данных РосСХД появился новый участник — отечественный производитель высокоинтегрированных процессорных систем «Байкал Электроникс». В связи с этим участники РосСХД запланировали разработку новой серии систем хранения данных на базе процессоров «Байкал».

Как ожидается, объединение усилий российских разработчиков производителей программного и аппаратного обеспечения позволит создать продукт высокого уровня — как по производительности и функциональности, так и исходя из конкурентоспособности цены и гарантий.

Среди разработок «Байкал Электроникс» — отечественные системы на кристалле на базе как архитектуры MIPS (процессор BE-T1000), так и ARM v8 (модель BE-M1000). Её продукция используется в коммуникационной инфраструктуре, сетевых накопителях данных, системах безопасности и управления зданиями, а также на офисах. Во второй половине этого года на рынке появится 48-ядерный ARM-процессор серверного класса (модель BE-S1000), что станет следующим этапом эффективного импортозамещения вычислительной техники.

Использование архитектуры ARM позволило «Байкал Электроникс» создать обширную экосистему системного и прикладного программного обеспечения, что значительно облегчает задачу перехода на российские аппаратные платформы. По словам Виталия Богданова, директора по развитию бизнеса «Байкал Электроникс», РосСХД является действенным инструментом реализации импортозамещения в сегменте решений для хранения данных, поэтому совместными усилиями можно будет построить партнёрскую экосистему и максимально быстро представить решения для конечных клиентов.

Постоянный URL: http://servernews.ru/1037469
12.04.2021 [19:26], Игорь Осколков

NVIDIA анонсировала серверные Arm-процессоры Grace и будущие суперкомпьютеры на их базе

В рамках GTC’21 NVIDIA анонсировала Arm-процессоры Grace серверного класса, которые станут компаньонами будущих ускорителей компании. Это не означает полный отказ от x86-64, но это позволит компании предложить клиентам более глубоко оптимизированные, а, значит, и более быстрые решения. NVIDIA говорит, что новый CPU позволит на порядок повысить производительность систем на его основе в ИИ и HPC-задачах в сравнении с современными решениями.

Процессор назван в честь Грейс Хоппер (Grace Hopper), одного из пионеров информатики и создательницы целого ряда основополагающих концепций и инструментов программирования. И это имя нам уже встречалось в контексте NVIDIA — в конце 2019 года компания зарегистрировала торговую марку Hopper для MCM-решений.

Компания не готова раскрыть полные технически характеристики новинки, которая станет доступна в начале 2023 года, но приводит некоторые интересные детали. В частности, процессор будет использовать Arm-ядра Neoverse следующего поколения (надо полагать, уже на базе ARMv9),  которые позволят получить в SPECrate2017_int_base результат выше 300. Для сравнения — система с парой современных AMD EPYC 7763 в том же бенчмарке показывает результат на уровне 800.

Вторая особенность Grace — использование памяти LPDRR5X (с ECC, естественно). В сравнении с DDR4 она будет иметь вдвое большую пропускную способность (ПСП) и в 10 раз меньшее энергопотребление. Число и скорость каналов памяти не уточняются, но говорится о суммарной ПСП в более чем 500 Гбайт/с на процессор. А у того же EPYC 7763 теоретический пик ПСП чуть больше 200 Гбайт/с. Очевидно, что другие процессоры к моменту выхода NVIDIA Grace тоже увеличат и производительность, и пропускную способность памяти. Гораздо более интересный вопрос, сколько линий PCIe 5.0 они смогут предложить. Если допустить, что у них будет 128 линий, то общая скорость для них составит чуть больше 500 Гбайт/с.

И NVIDIA этого мало — процессоры Grace получат прямое, кеш-когерентное подключение к GPU по NVLInk 4.0 (14x) с суммарной пропускной способностью боле 900 Гбайт/с. GPU тоже, как и прежде, будут общаться напрямую друг с другом по NVLink. Скорость связи между двумя CPU превысит 600 Гбайт/с, а в сборке из четырёх модулей CPU+GPU суммарная скорость обмена данными между системной памятью процессоров и GPU в такой mesh-сети составит 2 Тбайт/с. Но самое интересное тут то, что у памяти CPU (LPDDR5X) и GPU (HBM2e) в такой системе будет единое адресное пространство. Собственно говоря, таким образом компания решает давно назревшую проблему дисбаланса между скоростью обмена данными и доступным объёмом памяти в различных частях вычислительного комплекса.

Для сравнения можно посмотреть на архитектуру нынешних DGX A100 или HGX. У каждого ускорителя A100 есть 40 или 80 Гбайт набортной памяти HBM2e (1555 или 2039 Гбайт/с соответственно) и NVLInk-подключение на 600 Гбайт/c, которое идёт к коммутатору NVSwitch, имеющего суммарную пропускную способность 1,8 Тбайт/с. Всего таких коммутаторов шесть, а объединяют они восемь ускорителей. Внутри этой NVLInk-фабрики сохраняется достаточно высокая скорость обмена данными, но как только мы выходим за её пределы, ситуация меняется.

Схема NVIDIA DGX A100. Источник: Microway

Схема NVIDIA DGX A100. Источник: Microway

Каждый ускоритель A100 имеет второй интерфейс — PCIe 4.0 x16 (64 Гбайт/с), который уходит к PCIe-коммутатору, каковых в DGX A100 имеется четыре. Коммутаторы, в свою очередь, объединяют между собой сетевые 200GbE-адаптеры (суммарно в дуплексе до 1,6 Тбайт/с для связи с другими DGX A100), NVMe-накопители и CPU. У каждого CPU может быть довольно много памяти (от 512 Гбайт), но её скорость ограничена упомянутыми выше 200 Гбайт/c.

Узким местом во всей этой схеме является как раз PCIe, поэтому переход исключительно на NVLInk позволит NVIDIA получить большой объём памяти при сохранении приемлемой ПСП, не тратясь лишний раз на дорогую локальную HBM2e у каждого GPU. Впрочем, если компания не переведёт на NVLink и собственные будущие DPU Bluefield-3 (400GbE), которые будут скармливать связке CPU+GPU по, например, GPUDirect Storage данные из внешних NVMe-oF хранилищ и объединять узлы DGX POD, то PCIe 5.0 в составе Grace стоит ждать. Это опять-таки упростит и повысит эффективность масштабирования.

В целом, всё это необходимо из-за быстрого роста объёма ИИ-моделей — в GPT-3 уже 175 млрд параметров, а в течение пары лет можно ожидать модели уже с 0,5-1 трлн параметров. Им потребуются не только новые решения для обучения, но и для инференса. То же касается и физических расчётов — модели становятся всё больше и требовательнее + ИИ здесь тоже активно внедряется. Параллельно с разработкой Grace NVIDIA развивает программную экосистему вокруг Arm и своих решений, готовя почву для будущих систем на их основе.

Одной из такой систем станет суперкомпьютер Alps в Швейцарском национальном компьютерном центре (Swiss National Computing Centre, CSCS), который придёт на смену Piz Daint (12 место в нынешнем рейтинге TOP500). Этот суперкомпьютер серии HPE Cray EX, в частности, сможет в семь раз быстрее обучить модель GPT-3, чем машина NVIDIA Selene (5 место в TOP500). Впрочем, на нём будут выполняться и классические HPC-задачи в области метеорологии, физики, химии, биологии, экономики и так далее. Ввод в эксплуатацию намечен на 2023 год. Тогда же в США появится аналогичная машина от HPE в Лос-Аламосской национальной лаборатории (LANL). Она дополнит систему Crossroads, использующую исключительно процессоры Intel Xeon Sapphire Rapids.

Постоянный URL: http://servernews.ru/1037136
11.04.2021 [14:15], Владимир Мироненко

Lenovo вслед за Dell стала привязывать процессоры AMD к своим продуктам

Ресурс ServeTheHome подтвердил, что компания Lenovo использует AMD Platform Secure Boot (PSB) для привязки процессоров AMD к своему оборудованию. Это означает, что если процессор был единожды запущен в составе платформы с необходимыми настройками PSB, то его нельзя будет использовать в системах других производителей. «Отвязать» такой CPU практически невозможно.

В частности, эта функция эффективно блокирует возможность использования ЦП на другой материнской плате или, по крайней мере, на материнской плате, не принадлежащей оригинальному производителю. AMD PSB использует встроенную в процессоры SoC AMD Secure Processor для аппаратного Root-of-Trust и управления другими функциями безопасности. По умолчанию PSB не включена, но каждый OEM-производитель волен использовать её по своему усмотрению.

Процессоры также по умолчанию разблокированы и могут быть использованы в любой платформе. Если таковой окажется система с активированной PSB, то в CPU будет намертво «зашита» информация о ключе, которым подписываются прошивки, BIOS/UEFI OEM-вендора. Это позволяет создать надёжную цепочку доверенной загрузки, начиная от «железа» и заканчивая ОС, что не только защищает от вмешательства в систему, но и предотвращает, к примеру, возможность кражи процессоров.

Однако в случае обновления системы путём установки другого CPU, старый фактически превращается в электронные отходы, если только он не попадает в руки того, у кого уже есть совместимая система. Если же материнская плата выйдет из строя, то владельцу придётся покупать новую плату у того же производителя. Причём это касается не только серверов — AMD PSB позволяет «привязывать» не только EPYC, но и AMD Ryzen Pro (Renoir и Cezanne) и Threadripper Pro.

Dell первой стала использовать PSB для привязки процессоров к своему оборудованию ещё во времена AMD EPYC 7001. Lenovo последовала её примеру и тоже стала использовать PSB в готовых системах. В свою очередь, HPE заявила, что не использует привязку CPU. Другие крупные вендоры, как правило, по умолчанию также не активируют привязку процессоров, но по желанию заказчика могут её включить.

Постоянный URL: http://servernews.ru/1037064
06.04.2021 [18:00], Сергей Карасёв

Intel представила процессоры Xeon Ice Lake-SP: прирост производительности — до 46 %

Сегодня, 6 апреля 2021 года, корпорация Intel анонсировала свою самую передовую аппаратную платформу для центров обработки данных: речь идёт о процессорах Xeon Scalable 3-го поколения с кодовым именем Ice Lake-SP. Компания уже поставила более 200 тыс. новых процессоров своим клиентам, а 50 различных OEM/ODM партнёров подготовили более 250 базовых платформ для новых CPU.

Об архитектуре чипов Xeon поколения Ice Lake мы уже подробно рассказывали. Процессоры ориентированы на одно-, двух-, четырёх- и восьмисокетные серверы для массового рынка. Чипы располагают поддержкой восьми каналов памяти DDR4-3200 и интерфейса PCI Express 4.0 (до 64 линий на разъём).

Реализованы средства TME (Total Memory Encryption) — полное шифрование ОЗУ по стандарту AES-XTS с длиной ключа 128 бит. А новые возможности SGX, а также инструменты ускорения шифрования и обработки ИИ-операций позволяют использовать процессоры в разных областях, включая облачные платформы, системы высокопроизводительных вычислений, edge-приложения, сетевое оборудование, интеллектуальные аппаратные комплексы и пр.

Отмечается, что вместе с новыми чипами в составе дата-центров могут применяться модули Intel Optane 200-й серии, твердотельные накопители Intel Optane Solid State Drive P5800X и Intel SSD D5-P5316, сетевые адаптеры Intel Ethernet 800-й серии, включая новые E810, и программируемые вентильные матрицы Intel Agilex FPGA.

Чипы Xeon Scalable 3-го поколения производятся по 10-нанометровой технологии, а количество вычислительных ядер достигает 40. Платформа обеспечивает поддержку до 6 Тбайт памяти (DDR4 + Optane PMem 200) в расчёте на один процессорный разъём. Показатель TDP в зависимости от модификации варьируется от 105 до 270 Вт, а число ядер — от 8 до 40. Базовая тактовая частота составляет от 2,0 до 3,6 ГГц, частота в режиме «турбо» для одного ядра — от 3,1 ГГц 3,7 ГГц, а Turbo-частота для всех ядер одновременно — от 2,5 до 3,6 ГГц.

Нажмите для увеличения

Нажмите для увеличения

Intel заявляет, что по сравнению с изделиями предыдущего поколения новые процессоры обеспечивают прирост производительности до 46 % при выполнении широко распространённых в дата-центрах задач. Для сетевого оборудовани Intel предложит специально оптимизированные чипы с индексом N. Они обеспечат примерно на 62 % более высокую производительность при стандартных нагрузках и в сетях 5G по сравнению с предыдущим поколением. 15 производителей телеком-оборудования вкупе с провайдерами уже тестируют новые решения.

В сегменте edge-приложений изделия Xeon Scalable 3-го поколения позволят в 1,56 раза поднять быстродействие по сравнению с предшественниками при решении задач, связанных с использованием искусственного интеллекта для классификации изображений. Intel отмечает, что новые процессоры совместимы с более чем 500 решениями в области Интернета вещей (IoT) и специализированными решениями (Intel Select Solutions), готовыми к развёртыванию.

Нажмите для увеличения

Intel подчёркивает, что сейчас более 800 инстансов облачных сервис-провайдеров используют серверы на базе процессоров Xeon Scalable. В течение нынешнего года крупнейшие из этих операторов намерены оборудовать свои площадки системами с чипами Xeon Scalable 3-го поколения. Кроме того, более 20 HPC-лабораторий и сервисов уже изучают или используют новые CPU.

Более подробно о новинках и их возможностях мы расскажем в отдельном обзоре, где сравним их в ряде задач с недавно вышедшими AMD EPYC 7003 на базе Zen 3.

Постоянный URL: http://servernews.ru/1036657
24.03.2021 [13:14], Сергей Карасёв

Tachyum готовится к началу поставок эмулятора для процессора Prodigy

Словацкая компания Tachyum, разработчик семейства процессоров Prodigy, сообщает о подготовке специального аппаратного эмулятора, позволяющего оценить возможности прототипов готовящихся чипов.

Об изделиях Prodigy мы уже рассказывали. Компания проектирует чипы, которые объединят до 128 ядер. Процессоры, как ожидается, будут использоваться в крупных центрах обработки данных, высокопроизводительных платформах искусственного интеллекта и пр.

Итак, сообщается, что Tachyum завершает внутреннее тестирование аппаратного эмулятора Prodigy, который позволит заинтересованным сторонам произвести замеры производительности и приступить к разработке программного обеспечения.

Эмулятор построен на основе перепрограммируемых вентильных матриц (FPGA), а также плат ввода/вывода. Такое решение рассчитано на установку в стойку.

Отмечается, что эмулятор с четырьмя модулями FPGA имитирует работу восьми вычислительных ядер процессора Prodigy. Соединяя такие изделия при помощи кабелей, можно воспроизводить работу Prodigy в той или иной конфигурации.

В скором времени аппаратные эмуляторы станут доступны первым заказчикам. Собственно процессоры Prodigy компания Tachyum ранее обещала выпустить в течение нынешнего года.

Постоянный URL: http://servernews.ru/1035637
23.03.2021 [15:07], Сергей Карасёв

Google планирует создание собственных SoC для серверов: компания наняла ветерана Intel

Google приступает к разработке собственных «систем на чипе» (Systems on Chip, SoC), которые, как ожидается, в дальнейшем позволят строить масштабные вычислительные платформы с пониженным энергопотреблением. Об инициативе в открытом письме рассказал Амин Вахдат (Amin Vahdat), вице-президент подразделения системных инфраструктур Google. Создание SoC серверного уровня станет следующим шагом Google по совершенствованию аппаратной составляющей своих дата-центров.

Господин Вахдат отмечает, что до недавнего времени улучшение аппаратной базы шло по направлению интеграции компонентов в состав материнских плат. Однако в данном случае элементы по-прежнему отделены друг от друга «дюймами соединений». В случае SoC эта проблема будет устранена: многочисленные функции могут быть интегрированы в состав одного чипа. Или же несколько чипов могут соседствовать в одной упаковке.

Фото: Reuters

Фото: Reuters

Для реализации нового проекта Google наняла на работу Юрия Фрэнка (Uri Frank), ветерана Intel. С 2016 по 2020 год он курировал разработку процессоров Core. Кроме того, господин Фрэнк занимал должность вице-президента подразделения Intel Platform Engineering Group. Пока не ясно, какую архитектуру будут использовать будущие SoC разработки Google и для чего именно они буду использоваться. С учётом того, что речь идёт об энергетически эффективных решениях, можно предположить, что будут использованы ядра ARM.

Пока что Arm SoC собственной разработки массово развёрнуты лишь в Amazon — Graviton двух поколений предлагаются и в составе инстансов, и служат основой для других служб AWS. А сама инфраструктура AWS во многом опирается на Nitro. По слухам, Microsoft тоже занята созданием собственных Arm SoC для серверов и мобильных устройств.

Из прочих анонсов гиперскейлеров можно также вспомнить XuanTie 910 от Alibaba, но этот RISC-V чип всё же ориентирован на IoT и периферийные вычисления. Также у Alibaba есть ИИ-ускоритель Hanguang 800. Но в этом сегменте у Google давно есть решение в виде TPU уже четырёх поколений, а также edge-решения Coral. Наконец, в активе компании имеется крипто-SoC OpenTitan.

Постоянный URL: http://servernews.ru/1035541
20.03.2021 [20:03], Владимир Мироненко

6 апреля Intel поделится подробностями о процессорах Xeon Ice Lake-SP

В Сети появились сообщения о запланированном Intel на 6 апреля мероприятии, на котором подразделение Data Platform Group расскажет о своих дальнейших планах в различных областях: 5G, Интернет вещей, ИИ, облака и HPC. Также обещан некий «первый взгляд» на системы на базе процессоров Intel Xeon Scalable третьего поколения, известных под кодовым именем Ice Lake-SP.

Официальный публичный анонс Ice Lake-SP неоднократно откладывался. В последний раз, по данным источников, его пришлось перенести из-за ошибки в чипах. Но, судя по всему, всё наладилось — представитель компании в марте рассказал, что ключевым клиентам уже поставлено 115 тыс. процессоров нового поколения. А некоторые производители серверного оборудования уже рассказали о новых платформах с Ice Lake-SP. Следовательно, ожидать анонс стоит в ближайшем будущем.

Об архитектуре и некоторых особенностях новинок Intel рассказала ещё в августе прошлого года, и с тех пор изредка сообщала новые подробности. Так, например, при решении некоторых HPC-задач 32-ядерные Ice Lake-SP обещают быть быстрее 64-ядерных AMD EPYC Rome. Процессоры получат 8 каналов памяти DDR4-3200 с функцией полного шифрования оперативной памяти (Total Memory Encryption, TME), поддержку интерфейса PCI Express 4.0, новые возможности SGX и аппаратную защиту платформы.

Новые процессоры станут основой для более широкой экосистемы, которую она планирует развивать в дальнейшем. Эта система включает и другие продукты, на основе которых будут предлагаться комплексные решения, включающие также полный стек ПО: GPU, FPGA, ASIC, Optane DCPMM, SSD, ИИ-ускорители, сетевые решения и так далее. Таким образом компания собирается бороться с недавно представленными AMD EPYC Milan, которые могут предложить до 64 ядер на сокет.

UPD: Intel официально объявила о том, что запуск Intel Xeon Ice Lake-SP состоится 6 апреля 2021 года.

Постоянный URL: http://servernews.ru/1035352
19.03.2021 [15:43], Сергей Карасёв

128-ядерные Arm-процессоры Ampere Altra Max будут в полтора раза быстрее предшественников

Ampere в текущем году собирается выпустить новые процессоры с архитектурой ARM, предназначенные для использования в серверах: изделия, получившие название Altra Max, обеспечат высокую производительность при относительно небольшом потреблении энергии.

Около года назад мы подробно рассказывали о первых чипах Ampere Altra. Напомним, что эти 7-нм изделия содержат 80 вычислительных ядер без поддержки многопоточности. При этом показатель TDP составляет 250 Вт при частоте 3,3 ГГц. Первые тесты показали, что в ряде задач Altra не хуже x86-64.

Число ядер в процессорах Ampere Altra Max увеличится до 128, то есть возрастёт ровно на 60 % по сравнению с предшественниками. При этом чипы будут по-прежнему производиться по 7-нм технологии. Важно отметить, что Ampere Altra Max будут совместимы на уровне сокета с Altra. Они также получат 128 линий PCIe 4.0 и восемь каналов оперативной памяти DDR4-3200.

Судя по обнародованной разработчикам информации, быстродействие по сравнению с Ampere Altra в зависимости от типа выполняемых задач поднимется на 51–57 % (при одинаковых тактовых частотах). Естественно, стоит ожидать, что выбор бенчмарков не является случайным. С другой стороны, Altra на звание HPC-чипов и не претендуют.

В дальнейшем Ampere намерена представить 5-нм процессоры серии Siryn. Однако соревноваться ей фактически не с кем: Marvell отказалась от развития ThunderX, Huawei находится под санкциями, а Qualcomm, поглотившая Nuvia, не намерена развивать серверное направление. Решения же вроде AWS Graviton2 и подобных ему не предназначены для использования вне облаков.

Постоянный URL: http://servernews.ru/1035283
Система Orphus