Материалы по тегу: 1

29.06.2021 [17:49], Алексей Степин

Cornelis Networks подняла упавшее знамя Intel Omni-Path

От собственной технологии интерконнекта Omni-Path (OPA) компания Intel довольно неожиданно отказалась летом 2019 года, хотя на тот момент OPA-решения составляли достойную конкуренцию InfiniBand EDR, Ethernet и проприетарным интерконнектам как по скорости, так и по уровню задержки и поддержки необходимых для высокопроизводительных вычислений (HPC) функций. В конце прошлого года все наработки по OPA перешли к компании Cornelis Networks, образованной выходцами из Intel.

В арсенале Intel были процессоры Xeon и Xeon Phi со встроенным интерфейсом Omni-Path, PCIe-адаптеры, коммутаторы и сопутствующее ПО. Казалось бы, у технологии большое будущее, однако второе поколение шины OPA, поддерживающее скорость 200 Гбит/с, так и не было выпущено, а компания сосредоточилась на Ethernet. При этом NVIDIA уже анонсировала InfiniBand NDR (400 Гбит/c), да и 200GbE-решениями сейчас никого не удивить.

Однако идеи, заложенные в Omni-Path, не умерли, и упавшее знамя нашлось, кому подхватить. Cornelis Networks быстро принялась за дело — через месяц после представления компании уже были представлены новые машины с Omni-Path, причём как на базе Intel, так и на базе AMD. А на ISC 2021 Cornelis Networks анонсировала полный спектр собственных решений под брендом Omni-Path Express, реализующих все основные достоинства технологии.

Конечно, процессоров с разъёмом Omni-Path мы по понятным причинам уже не увидим, но компания предлагает низкопрофильные хост-адаптеры с пропускной способностью до 25 Гбайт/с (100 Гбит/с в каждом направлении). Они поддерживают открытый фреймворк Open Fabrics Interface (OFI) и предлагают коррекцию ошибок с нулевой латентностью. В качестве разъёма используется популярный в индустрии QSFP28.

Также представлен ряд коммутаторов. В серии CN-100SWE есть модели с поддержкой горячей замены, которые имеют 48 портов и общую пропускную способность до 1,2 Тбайт/с при латентности, не превышающей 110 нс. Поддерживается организация виртуальных линий Omni-Path Express и фреймы большого размера, от 2 до 10 Кбайт. При этом коммутаторы компактны и занимают всего 1 слот в стандартной стойке.

Директор CN-100SWE предназначен для крупных кластерных систем. Он является модульным и может занимать от 7U до 20U, реализуя при этом от 288 до 1152 портов Omni-Path Express со скоростью 100 Гбит/с на порт. Латентность при этом не превышает 340 нс. Для сравнения, сети на базе Ethernet, как правило, оперируют значениями в десятки миллисекунд в лучшем случае.

Технологиями Cornelis Networks уже заинтересовался крупный российский поставщик HPC-систем, группа компаний РСК, которая и ранее поставляла кластеры и суперкомпьютеры с Omni-Path, в том числе с коммутаторами, снабжёнными фирменной СЖО. РСК получила наивысший партнёрский статус Elite+ у Cornelis и уже готова интегрировать Omni-Path Express в системы «РСК Торнадо» на базе третьего поколения процессоров Xeon Scalable.

Постоянный URL: http://servernews.ru/1043120
28.06.2021 [19:00], Алексей Степин

Intel на ISC 2021: от Xeon Ice Lake-SP и Sapphire Rapids до Ponte Vecchio и DAOS

Партнёрский материал

В рамках суперкомпьютерной выставки-конференции компания ISC 2021 Intel рассказала о своих последних решениях в области высокопроизводительных вычислений (HPC), а также коротко упомянула о будущих продуктах. Сочетание новых процессорных платформ Xeon Scalable, ускорителей Ponte Vecchio на базе Intel Xe и сетевых адаптеров Ethernet 800/810 Series должно обеспечить компании уверенную позицию в мире HPC.

В последние пару лет в секторе HPC появились решения на базе 64-ядерных EPYC, а затем и разработки на базе архитектуры ARM, показавшие высокие удельную производительность и энергоэффективность. В то же время платформа Intel® Xeon® хоть и была в ряде отношений прогрессивной — достаточно вспомнить уникальную поддержку памяти Optane™ и инструкций AVX-512, — однако количество ядер на процессор до уровня конкурентов нарастить не удавалось, а гибридная платформа Xeon 9200 популярности не снискала по ряду причин.

Но сейчас ситуация начинает меняться в пользу Intel. Хотя третье поколение Xeon Scalable (Ice Lake-SP) и задержалось, но получилось достаточно интересным: у новых процессоров появилась поддержка действительно серьёзных по объёму защищённых вычислительных анклавов, шины PCIe 4.0, дальнейшее развитие AVX-512 и VNNI, восьмиканальный контроллер памяти DDR4-3200, а максимальное количество ядер при этом выросло с 28 до 40, что уже хоть как-то сопоставимо с EPYС второго и третьего поколений.

Несмотря на некоторое отставание по «сырому» количеству ядер, процессоры Xeon Scalable третьего поколения, согласно данным Intel, хорошо показывают себя в ряде HPC-приложений благодаря усовершенствованной микроархитектуре и поддержке расширений и VNNI. Как сообщила Intel, процессор Xeon Platinum 8358 (10 нм, 32C/64T, 2,6 ‒ 3,4 ГГц, 48 Мбайт кеша, 250 Ватт TDP) серьёзно опережает AMD EPYC 7543 (7 нм, 32С/64T, 2,8 ‒ 3,7 ГГц, 256 Мбайт кеша, 225 Ватт TDP) именно в сфере HPC: в тестах NAMD преимущество составило 62%, пакеты LAMMPS и RELION показали превосходство на 57% и 68%, соответственно, а в тесте Binominal Options выигрыш составил 37%.

Кроме того, симуляции с использованием метода Монте-Карло, часто использующегося в финансовых приложениях, работают на Xeon Scalable третьего поколения более чем вдвое быстрее. Отлично выступил и Xeon Platinum 8380 (10 нм, 40C/80T, 2,3 ‒ 3,4 ГГц, 60 Мбайт кеша, 270 Ватт TDP): в 20 наиболее популярных ИИ-тестах он опередил EPYC 7763 (7 нм, 64С/128T, 2,45 ‒ 3,5 ГГц, 256 Мбайт кеша, 280 Ватт TDP) на 50%. Этот пример хорошо доказывает тот факт, что количество ядер и «сырая» вычислительная мощность не гарантируют победы, а наличие аппаратных и программных оптимизаций может быть решающим в ряде задач.

Вычислительные нагрузки в области моделирования и симуляции, такие, как моделирование поведения жидкостей или квантовая хромодинамика, задачи машинного обучения, базы данных класса in-memory весьма зависят от производительности подсистем памяти. И здесь Intel тоже есть, что сказать. Ранее опробовав технологию встроенной высокоскоростной памяти на платформе Xeon Phi™ 7200 (до 16 Гбайт 3D MCDRAM), компания собирается вернуться к этой идее на новом уровне: процессоры под кодовым названием Sapphire Rapids получат не только поддержку DDR5, но и набортную HBM2 (до 64 Гбайт).

В сочетании с поддержкой PCI Express 5.0 и новых инструкций ускорения матричных вычислений (Advanced Matrix Extensions) это делает Xeon (Sapphire Rapids) весьма привлекательной платформой именно для сегмента HPC. И будущей новинкой уже заинтересовались крупные заказчики: эти процессоры планируется использовать в суперкомпьютерах Aurora, Crossroads и SuperMUC-NG. Представители этих и ряда других научно-исследовательских организаций настроены весьма оптимистично в отношении платформы Sapphire Rapids.

В ряде машин компанию им составит ускорители Intel Xe Ponte Vecchio, который уже проходит процесс валидации в составе новых систем. Напомним, каждый узел вышеупомянутого суперкомпьютера Aurora должен получить по два процессора Sapphire Rapids и по шесть ускорителей Ponte Vecchio. Появление нового игрока на рынке откроет дополнительные возможности для производителей систем в HPC-сегменте.

Сами ускорители Ponte Vecchio уникальны: чиплет являет собой довольно замысловатую многокомпонентную структуру, состоящую из 47 элементов и соединённую воедино с помощью технологий Foveros 3D и EMIB. Неудивительно, ведь общее число транзисторов у этого монстра превышает 100 млрд, что позволяет Intel рассчитывать на уровень производительности более 1 Пфлопс. Доступен этот ускоритель будет в формате OCP Accelerator Module (OAM). Известно также, что он получит жидкостное охлаждение.

Наконец, третий важный компонент любой HPC-платформы: хранилище данных. В этой области Intel делает ставку на открытые решения, и на ISC 2021 компания представила коммерческий вариант объектного распределённого хранилища DAOS (Distributed Application Object Storage). Платформа DAOS является программно-определяемой, но это не указание на её невысокую производительность. Напротив, она изначально создавалась с прицелом на масштабируемость и высочайший уровень производительности именно с крупными объёмами данных.

В системах DAOS Intel использует только твердотельную память, отказавшись от гибридных схем с использованием традиционных механических накопителей и SSD, причём, поддерживается и Optane в обеих инкарнациях: как накопители, так и PMem-модули. Intel сделала DAOS доступной в качестве решения уровня L3 для своих партнёров. В их число входят такие гиганты, как HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta, а также российская РСК, которая поддержала инициативу DAOS ещё в конце прошлого года.

Наконец, ещё один важный компонент HPC-систем — интерконнект. Intel, напомним, отказалась от Omni-Path, сосредоточившись на Ethernet. А на ISC 2021 компания объявила о платформе High Performance Networking (HPN), которая включает 100/200GbE-адаптеры серии E800/E810, коммутаторы c контроллерами Tofino™ и ПО Intel Ethernet Fabric. Этого достаточно для построения малых кластеров, причём, как обещает компания, производительность будет на уровне InfiniBand-решений, а стоимость будет ниже, чем у них.

В целом Intel придерживается целостного подхода. Если при построении HPC-системы на базе решений других производителей всё равно придётся воспользоваться аппаратными или программными составляющими «со стороны», то Intel готова предложить всё в комплексе, от процессоров и вычислительных ускорителей до сетевых адаптеров, коммутаторов и программного обеспечения. В рамках развития Intel модели oneAPI особенный интерес представляет последний пункт.

Постоянный URL: http://servernews.ru/1042961
28.06.2021 [18:00], Владимир Мироненко

Atos представила ThinkAI для повышения качества и скорости внедрения индустриальных решений ИИ+HPC

Французская компания Atos анонсировала ThinkAI — безопасное, комплексное, масштабируемое решение, которое позволяет организациям успешно проектировать, разрабатывать и предоставлять высокопроизводительные приложения искусственного интеллекта (ИИ).

ThinkAI предназначено для организаций, использующих традиционные высокопроизводительные вычисления (HPC), которые хотят выполнять более точное и быстрое моделирование благодаря ИИ, а также для тех, кто разрабатывает ИИ-приложения, требующие больше вычислительной мощности. В последнее время ИИ всё чаще дополняет традиционное моделирование в HPC, так как обеспечивает более быстрое и тщательное решение задач, что улучшает экономическую эффективность и снижает совокупную стоимостью владения, уменьшая тем самым углеродный след и предоставляя конкурентные преимущества.

В настоящее время уже разрабатываются некоторые ИИ-приложения, включая те, что связаны с созданием лекарств, решений для умных городов или автономного вождения. Однако по-прежнему существуют такие препятствия, как проблемы с качеством данных, безопасностью и масштабируемостью. Чтобы их преодолеть, необходимы экспертные консультации, которые помогут в успешном определении плана развития, масштабировании и масоовом внедрении.

По словам Atos, ThinkAI — это наиболее полное решение HPC/ИИ на рынке для таких задач и единственное, которое сочетает в себе полный спектр предложений от консалтинга до аппаратных и программных решений, оркестрации и финальной интеграции. ThinkAI обеспечивает быстрое достижение результатов и понимание данных при оптимальных затратах. ThinkAI включает следующие предложения:

  • Консалтинг — отраслевые консультации при поддержке экспертов Atos в области передовых вычислений;
  • Разработка архитектуры с использованием лучших в своём классе оборудования и ПО для ИИ, в том числе от Graphcore и Nvidia, дополненных возможностями цифровой безопасности от Atos;
  • Внедрение с использованием сквозной оркестрации решений, что ускоряет развёртывание и практическое использование в сочетании с оптимизаций затрат.

«Решение Atos ThinkAI объединяет необходимые компоненты для пользователей высокопроизводительных вычислений на всех этапах их пути к ИИ, <…> может помочь пользователям как в научном, так и в промышленном секторах эффективно комбинировать новейшие, наиболее производительные аппаратные и программные решения, чтобы ускорить разработку критически важных решений на основе ИИ и повысить ценность их рабочих нагрузок по моделированию», — заявил Алекс Нортон (Alex Norton), главный технологический аналитик Hyperion Research.

«ThinkAI обеспечивает целостный и индивидуальный подход к решениям при консультировании, разработке и реализации ИИ-решений для любой отрасли, чтобы они могли ускорить внедрение ИИ и индустриализацию», — отметила Аньес Будо (Agnès Boudot), старший вице-президент, вице-президент, руководитель группы высокопроизводительных вычислений компании Atos.

Постоянный URL: http://servernews.ru/1042960
28.06.2021 [16:41], Владимир Мироненко

Более ⅔ суперкомпьютеров в свежем рейтинге TOP500 используют технологии NVIDIA

Согласно свежему рейтингу суперкомпьютеров TOP500, технологии NVIDIA используются в 342 системах (68%), включая 70% всех новых систем списка и в 8 из 10, занимающих первые строчки. Речь, естественно, не только про ускорители, но и про сетевые решения. Новый рейтинг показал, что центры высокопроизводительных вычислений (HPC) всё чаще применяют ИИ, и что потребители продолжают использовать сочетание программно-аппаратных решений NVIDIA для выполнения своих научных и коммерческих рабочих нагрузок.

Так, в TOP500 есть 15 систем на базе фирменных узлов NVIDIA DGX, а количество систем, использующих InfiniBand, выросло по сравнению с прошлым годом на 20 %, что повысило её рейтинг в качестве предпочтительного типа интерконнекта для обработки растущего потока данных ИИ, HPC и моделирования с низкой задержкой и ускорением ряда операций.

Ещё одним признаком растущей важности рабочих нагрузок ИИ является то, что для 10 систем в списке были предоставлены реузультаты HPL-AI, что в 5 раз больше, чем в июне прошлого года (или вдвое больше, чем в ноябре). Более того, часть систем заметно улучшила результаты. Так производительность суперкомпьютера Summit выросла с 415 Пфлопс до 1,15 Эфлопс.

Причина такого резкого скачка — серьёзная оптимизация кода HPL-AI, выпущенного в марте. Это первое обновление бенчмарка с тех пор, как он был выпущен исследователями из Университета Теннесси в конце 2018 года. Одна только оптимизация обмена данными между чипами вкупе с повышением параллелизации позволила получить на некоторых нагрузках почти трёхкратный прирост. Это в очередной раз подчёрквает важность программной экосистемы.

В TOP500 также есть две уникальные системы, так называемые «супероблака» — суперкомпьютеры с новыми возможностями на стыке ИИ, HPC и облачного подхода. Так, публичное облако Microsoft Azure вышло на новый уровень с кластерами, которые заняли четыре места подряд (с 26-го по 29-е) в TOP500. Они являются частями супероблака, глобального ИИ-суперкомпьютера, доступного сегодня по запросу для любого пользователя на планете. Каждая из четырёх систем Azure показала FP64-производительность в 16,59 Пфлопс в тесте HPL (High Performance LINPACK).

NVIDIA также выделила несколько наиболее интересных с её точки зрения HPC-систем в TOP500. Например, Кембриджский университет представил Wilkes-3 — самую быструю академическую систему в Великобритании, занявшую 3-е место в списке самых энергоэффективных систем в мире Green500. Кроме того, это первый в мире суперкомпьютер с облачным подходом. Perlmutter из Национального вычислительного центра энергетических исследований (NERSC) занял 5-е место в TOP500 с 64,59 Пфлопс — это единственная новая и крупная машина в первой десятке TOP500.

HiPerGator AI занял 22-е место в рейтинге с показателем 17,2 Пфлопс и 2-е место в рейтинге Green500, что сделало его самым энергоэффективным академическим ИИ-суперкомпьютером в мире. Наконец, Суперкомпьютер MeluXina из Люксембурга занял 37-е место с 10,5 Пфлопс. Это одна из первых систем, дебютировавших в списке сети европейских национальных суперкомпьютеров, которые будут применять ИИ и аналитику данных в научных и коммерческих приложениях.

Среди новых систем в июньском TOP500 есть и одна российская. Это суперкомпьютер MTS GROM на базе NVIDIA DGX SuperPOD (DGX A100), который ввели в эксплуатацию менее чем за месяц. Система находится на 241-ом месте и имеет FP64-производительность 2,26 Пфлопс. Ресурсы системы будут доступны в облаке #CloudMTS.

Постоянный URL: http://servernews.ru/1043007
28.06.2021 [13:22], Алексей Степин

Обновление NVIDIA HGX: PCIe-вариант A100 с 80 Гбайт HBM2e, InfiniBand NDR и Magnum IO с GPUDirect Storage

На суперкомпьютерной выставке-конференции ISC 2021 компания NVIDIA представила обновление платформы HGX A100 для OEM-поставщиков, которая теперь включает PCIe-ускорители NVIDIA c 80 Гбайт памяти, InfiniBand NDR и поддержку Magnum IO с GPUDirect Storage.

В основе новинки лежат наиболее продвинутые на сегодняшний день технологии, имеющиеся в распоряжении NVIDIA. В первую очередь, это, конечно, ускорители на базе архитектуры Ampere, оснащённые процессорами A100 с производительностью почти 10 Тфлопс в режиме FP64 и 624 Топс в режиме тензорных вычислений INT8.

HGX A100 предлагает 300-Вт версию ускорителей с PCIe 4.0 x16 и удвоенным объёмом памяти HBM2e (80 Гбайт). Увеличена и пропускная способность (ПСП), в новой версии ускорителя она достигла 2 Тбайт/с. И если по объёму и ПСП новинки догнали SXM-версию A100, то в отношении интерконнекта они всё равно отстают, так как позволяют напрямую объединить посредством NVLink только два ускорителя.

В качестве сетевой среды в новой платформе NVIDIA применена технология InfiniBand NDR со скоростью 400 Гбит/с. Можно сказать, что InfiniBand догнала Ethernet, хотя не столь давно её потолком были 200 Гбит/с, а в плане латентности IB по-прежнему нет равных. Сетевые коммутаторы NVIDIA Quantum 2 поддерживают до 64 портов InfiniBand NDR и вдвое больше для скорости 200 Гбит/с, а также имеют модульную архитектуру, позволяющую при необходимости нарастить количество портов NDR до 2048. Пропускная способность при этом может достигать 1,64 Пбит/с.

Технология NVIDIA SHARP In-Network Computing позволяет компании заявлять о 32-крантом превосходстве над системами предыдущего поколения именно в области сложных задач машинного интеллекта для индустрии и науки. Естественно, все преимущества машинной аналитики используются и внутри самого продукта — технология UFM Cyber-AI позволяет новой платформе исправлять большинство проблем с сетью на лету, что минимизирует время простоя.

Отличным дополнением к новым сетевым возможностями является технология GPUDirect Storage, которая позволяет NVMe-накопителям общаться напрямую с GPU, минуя остальные компоненты системы. В качестве программной прослойки для обслуживания СХД новая платформа получила систему Magnum IO с поддержкой вышеупомянутой технологии, обладающую низкой задержкой ввода-вывода и по максимуму способной использовать InfiniBand NDR.

Три новых ключевых технологии NVIDIA помогут супервычислениям стать ещё более «супер», а суперкомпьютерам следующего поколения — ещё более «умными» и производительными. Достигнуты договорённости с такими крупными компаниями, как Atos, Dell Technologies, HPE, Lenovo, Microsoft Azure и NetApp. Решения NVIDIA используются как в индустрии — в качестве примера можно привести промышленный суперкомпьютер Tesla Automotive, так и в ряде других областей.

В частности, фармакологическая компания Recursion использует наработки NVIDIA в области машинного обучения для поиска новых лекарств, а национальный научно-исследовательский центр энергетики (NERSC) применяет ускорители A100 в суперкомпьютере Perlmutter при разработке новых источников энергии. И в дальнейшем NVIDIA продолжит своё наступление на рынок HPC, благо, она может предложить заказчикам как законченные аппаратные решения, так и облачные сервисы, также использующие новейшие технологии компании.

Постоянный URL: http://servernews.ru/1043002
28.06.2021 [11:48], Владимир Агапов

NVIDIA и Google Cloud объединили усилия для развития периферийных ИИ-вычислений в 5G-сетях

Новая совместная лаборатория, о создании которой сегодня объявили NVIDIA и Google, поможет создавать, тестировать, оптимизировать и вводить в эксплуатацию комплексные 5G- и ИИ-решения. Партнёры надеются, что это ускорит создание умных городов, фабрик и других объектов в рамках цифровой трансформации. Достигнутое соглашение стало важной вехой в плане NVIDIA по созданию экосистемы решений для платформы AI-on-5G.

Вклад Google заключается в предоставлении предприятиям доступа к Anthos — единой платформе для развёртывания приложений, с сервисоцентричным подходом. Она поддерживает серверы с ускорителями NVIDIA, снижает накладные расходы, повышает скорость развёртывания контейнеризированных приложений корпоративного уровня на основе Kubernetes.

В NVIDIA убеждены, что переход телекоммуникационных компаний на стандарт 5G, обеспечивающий высокую скорость передачи и низкие задержки, создаёт беспрецедентные возможности для поставщиков вычислительных услуг на периферии. «Наша совместная работа поможет операторам сетей и смежникам создавать новые точки роста прибыли благодаря ИИ и машинному обучению», — сказал вице-президент телекоммуникационного подразделения NVIDIA, Ронни Васишта (Ronnie Vasishta).

«Google Cloud, с нашей платформой Anthos, позволит сервис-провайдерам и предприятиям на многих вертикальных рынках беспрепятственно подключаться посредством 5G к периферии сети», — сказал Шайлех Шукла (Shailesh Shukla), вице-президент и генеральный менеджер по сетям Google Cloud. Важной особенностью для операторов сетей и поставщиков является то, что Anthos не только обеспечивает ориентированный на результат подход к управления политиками в различных средах, но и защищает цепочку поставок приложения и ПО.

Аппаратной основой решения станет комплект разработчика Aerial с конвергентной картой, объединяющей GPU и DPU — NVIDIA BlueField-2 A100. Такая комбинация даёт возможность создавать высокопроизводительные ИИ-приложения с 5G-подключением для управления высокоточными промышленными роботами, автоматизированными транспортными средствами, дронами, беспроводными камерами, кассами самообслуживания и сотнями других конечных решений. В комбинации с фреймворком Metropolis для умных городов, Isaac для автономных машин и Clara для здравоохранения Nvidia Aerial SDK являются интегральными частями экосистемы AI-on-5G и могут быть развёрнуты на сертифицированных системах NVIDIA EGX.

Следующим этапом развития станет внедрение ещё более производительных ускорителей NVIDIA BlueField-3 с 16-ядерными Arm-процессорами на борту, которые появятся во второй половине 2022 года и смогут работать в связке как с x86-процессорами, так и Arm-процессорами Ampere Altra. Это позволит создать высокоинтегрированные, программно определяемые базовые станции 5G с поддержкой полностью облачных vRAN.

Постоянный URL: http://servernews.ru/1042959
24.06.2021 [17:14], Игорь Осколков

РСК представила узлы RSC Tornado AI: 2 × x86-64 CPU и 4 × NVIDIA A100 в 1U-шасси с СЖО

Группа компаний РСК, ведущий российский разработчик суперкомпьютеров и систем для высокопроизводительных вычислений (HPC), дата-центров, облачных платформ и систем хранения данных (СХД) представила свои решения в рамках суперкомпьютерной конференции ISC 2021.

Среди представленных продуктов есть вычислительные узлы «РСК Торнадо» на базе Intel Xeon Ice Lake-SP и памяти Intel Optane PMem 200, СХД RSC Tornado AFS с функцией высокой доступности, СХД-решение RSC Storage on-Demand с поддержкой DAOS и, наконец, новое специализированное решение RSC Tornado AI.

Решение RSC Tornado AI, как видно из названия, предназначено для создания систем искусственного интеллекта и машинного обучения. Фактически оно является дальнейшим развитием архитектуры «РСК Торнадо» и унаследовало высокие плотность размещения в сочетании с высокой же производительностью, а также энергоэффективностью. Всё благодаря 100% жидкостному охлаждению горячей водой (до 65 °C).

Узел RSC Tornado AI включает два x86-процессора и до четырёх ускорителей NVIDIA A100 с интерфейсом PCIe 4.0. Суммарная производительность одного шкафа, состоящего из 42-х узлов RSC Tornado AI, достигает 1,895 Пфлопс и 104,83/209,66 TOPS (INT8/INT4). Данное решение оптимизировано для работы с распределенной системой хранения RSC Storage on-Demand.

Постоянный URL: http://servernews.ru/1042797
22.06.2021 [02:05], Илья Коваль

MWC 2021: Intel анонсировала программные и аппаратные решения для 5G и Edge

В рамках MWC 2021 компания Intel рассказала о пополнении своего портфолио решений для 5G-связи и периферийных вычислений. В частности, были анонсированы обновления платформ — Intel Network Platform и Intel Smart Edge — и два аппаратных решения: FPGA серии Agilex и специализированный сетевой адаптер.

Intel отмечает, что к 2023 году 75% данных будут генерироваться за пределами дата-центров, то есть на периферии. Это меняет требования к структуре и функциям всей инфраструктуры, включая сеть, вычисления и хранилище. Одним из возможных вариантов комплексной реализации такой инфраструктуры является её виртуализация и перевод на облачные «рельсы». Intel похвасталась тем, что практически все развёрнутые коммерческие vRAN используют именно её технологии.

В качестве основы для сетевой инфраструктуры будущего компания предлагает новую платформу, которая так и называется — Intel Network Platform. Это в некоторым смысле формальный анонс, так как под этим «брендом» компания объединила уже имеющиеся у неё программные и аппаратные решения, охватывающие практически весь стек — от ядра до периферии. Платформа призвана упростить разработку и ускорить вывод на рынок готовых продуктов.

Intel Network Platform включает рефереренсные архитектуры системы, драйверы и прочее низкоуровневое ПО, различные программные компоненты, в том числе стандартизированные решения для выполнения определённого класса задач, а также высокоуровневые решения для автоматизации, оркестрации, мониторинга и обеспечения безопасности. Компания также предлагает готовые демо-решения.

Что касается Intel Smart Edge, то этот стек ПО для периферийных вычислений теперь включает два близкородственных программных решения MEC (Multi-Access Edge Computing): собственно Smart Edge и Smart Edge Open (ранее известное как OpenNESS). Оба имеют унифицированную архитектуру и кодовую базу, однако первое является коммерческим и ориентировано на локальные внедрения корпоративными заказчиками, а второе, открытое и бесплатное, адресовано скорее разработчикам, создающим собственные продукты.

«Железных» анонсов, если не считать обещания в скором времени представить новые процессоры Xeon-D на базе Ice Lake, всего два. Первое — ПЛИС серии Agilex, которая получила аппаратные блоки ускорения шифрования с поддержкой MACSec. Это позволяет добавить дополнительный слой безопасности для vRAN. Правда, никаких других подробностей Intel не сообщила.

Вторая новинка — сетевой FHHL-адаптер E810-XXVDA4T на базе контроллера E810-CAM1 с интерфейсом PCIe 4.0 x16 и четырьмя 25GbE-портами SFP28. Он является первым адаптером Intel с поддержкой синхронизации времени не только посредством IEEE 1588 PTP, но и SyncE. Новинка ориентирована на работу в составе периферийных систем и имеет диапазон рабочих температур от 0 до +65 °C.

Intel E810-XXVDA4T

Intel E810-XXVDA4T

Для подключения к внешнему источнику и передачи точного времени есть два SMA-коннектора. Кроме того, «на борту» имеется собственный высокоточный осциллятор, который поможет сохранить правильность отсчёта времени в случае отсутствия внешнего сигнала. Также доступна модификация с мезонином для GNSS-приёмника (GPS, Galileo, ГЛОНАСС, BeiDou, QZSS) и SMB-коннектором для подключения внешней активной антенны.

Постоянный URL: http://servernews.ru/1042523
22.04.2021 [14:58], Владимир Мироненко

Selectel предложила Apple-разработчикам выделенные машины Mac mini M1

Компания Selectel, предоставляющая облачные инфраструктурные сервисы и услуги дата-центров, объявила о об успешном завершении тестирования Mac mini с новейшим Arm-процессором Apple M1 в своей лаборатории Selectel Lab и добавила эти системы в список выделенных серверов, доступных для заказа.

Пользователям больше не потребуется закупать собственные «маки» в офис, заботиться об их размещении, обслуживании и настройке сети для подключения сразу нескольких сотрудников: «Просто арендуйте сервер за 6990 руб./мес. и пользуйтесь всеми преимуществами готовых выделенных серверов от Selectel». В стоимость аренды входит публичный IPv4-адрес, безлимитный трафик на скорости 100 Мбит/с или до 5 Тбайт на скорости 1 Гбайт/с. При аренде на длительный срок предоставляется скидка до 15%.

В настоящее время для заказа доступна лишь одна конфигурация: Apple M1 (8 ядер, 2,99 ГГц), 16 Гбайт RAM, 256 Гбайт SSD. Новинка адресована:

  • DevOps-инженерам и разработчикам, которые смогут улучшить CI/CD-процессы, создавать и отлаживать ПО для macOS и iOS, в том числе для M1.
  • Тестировщикам — чтобы увидеть все баги в приложениях для macOS и iOS.
  • Дата-сайентистам — чтобы ускорить обработку данных благодаря выделенным ядрам Neural Engine в составе M1.

Добавим, что благодаря выделенному серверу Selectel любители софта Apple смогут пользоваться программами, которые доступны только на macOS, но в варианте с хостингом в дата-центре.

Постоянный URL: http://servernews.ru/1037767
02.03.2021 [11:33], Владимир Мироненко

NetApp поможет Aston Martin в разработке для Формулы-1 стратегии, основанной на данных

Компания NetApp, специализирующаяся на разработке ПО для управления данными, и команда Aston Martin Cognizant Formula One объявили о многолетнем партнёрстве, в рамках которого NetApp поможет автопроизводителю в подготовке к возвращению на Формулу-1. Британский бренд намерен с помощью технологий NetApp для управления данными и облачных сервисов добиться высоких результатов в гонках.

Используя решения NetApp, команда будет разрабатывать свои гоночные стратегии, а также более оперативно реагировать на ход состязаний и вносить необходимые исправления в гоночной машине до, во время и после каждой гонки. Анализируемые данные будут доступны в режиме реального времени специалистам по всему миру.

Фабрика данных, созданная на базе технологий NetApp, позволит упростить управление данными, параллельно обеспечивая соответствие нормативам и безопасность, а также защиту интеллектуальной собственности команды Aston Martin. Унифицированный подход в работе с данными на всех платформах NetApp поможет команде оптимально управлять ресурсами, выбирая наиболее эффективные решения и инвестируя в своё развитие и улучшение автомобилей.

«Усиливая нашу прекрасную команду ведущими решениями NetApp в области управления данными, мы открываем новую эпоху в истории гонок. Эпоху непрерывного развития, которая поможет нам стать еще более быстрой, умной и впечатляющей командой», — заявил Отмар Сафнауэр, генеральный директор и капитан команды Aston Martin Cognizant Formula One.

Постоянный URL: http://servernews.ru/1033849
Система Orphus