Материалы по тегу: ice lake-sp

29.09.2021 [19:47], Владимир Мироненко

Анонсированы инстансы Google Cloud N2 с Intel Xeon Ice Lake-SP и 100G-подключением

Google Cloud анонсировала новые инстансы на базе процессоров Intel Xeon Scalable 3-го поколения (Ice Lake-SP) в семействе Compute Engine N2. Новые виртуальные машины предлагают на 30 % лучшее соотношение цены и производительности для самых разных рабочих нагрузок по сравнению с виртуальными машинами N2 на базе Intel Xeon 2-го поколения (Cascade Lake-SP).

Инстансы N2 предлагают гибкий выбор размеров со сбалансированной производительностью и экономией для таких рабочих нагрузок, как обслуживание веб-сайтов и приложений, корпоративные приложения, средние и большие базы данных, кеширование, транскодирование мультимедиа, потоковая передача и игровые серверы. Возможно конфигурации вплоть до 128 vCPU и 864 Гбайт RAM, а все новые инстансы с более чем 80 vCPU в обязательно порядке будут использовать только процессоры Ice Lake-SP (для других конфигураций можно будет вручную указать предпочитаемое поколение CPU).

Кроме того, для N2 теперь доступны быстрое 100GbE-подключение для связи между инстансами и локальные SSD ёмкостью до 9 Тбайт, а также возможность эксклюзивного (sole-tenant) режима работы, в котором физический сервер в облаке доступен только заказчику и не используется для запуска инстансов других клиентов. В этом случае появляется дополнительный уровень контроля и изоляции, а заодно и поддержка BYOL-модели для ПО.

В любом случае для заказчиков будут доступны все возможности новых процессоров, включая Intel Crypto Acceleration, DL Boost, AVX-512 и т.д. Предварительный доступ к новым инстансам будет предоставлен в начале четвёртого квартала 2021 года в регионах us-central1, europe-west4 и asia-southeast1. Впоследствии они станут доступны и для GKE-кластеров.

Постоянный URL: http://servernews.ru/1050204
01.09.2021 [15:42], Сергей Карасёв

Chenbro выпустила серверы RB151 и RB251 на базе Intel Xeon Scalable Ice Lake-SP

Компания Chenbro представила стоечные barebone-серверы серий RB151 и RB251. Новинки будут доступны в вариантах с различной конфигурацией подсистемы хранения данных. При этом все версии допускают установку двух процессоров Intel Xeon Scalable третьего поколения (Ice Lake-SP).

Модель RB151 выполнена в формате 1U и наделена двумя блоками питания на 1600 Вт с сертификатом 80 Plus Platinum. Доступны следующие версии организации подсистемы хранения данных: 8 × 2,5 ", 10 × 2,5 ", 4 × 3,5 " и 4 × 3,5 + 4 × 2,5 ". Во всех случаях возможна «горячая» замена накопителей.

Здесь и ниже изображения Chenbro

Здесь и ниже изображения Chenbro

Модификация RB251 имеет типоразмер 2U и несёт на борту два блока питания мощностью 2000 Вт с сертификатом 80 Plus Platinum. Заказчики смогут выбирать между четырьмя вариантами исполнения: 8 × 2,5 ", 24 × 2,5 ", 8 × 3,5 " и 12 × 3,5 ". Внутри есть место для двух дополнительных 2,5" накопителей.

Все новинки располагают 32 слотами для модулей оперативной памяти DDR4-3200 RDIMM/LRDIMM или 3DS-RDIMM/LRDIMM суммарным объёмом до 12 Тбайт. Поддерживаются накопители SAS/SATA/NVMe (PCIe 4.0). На фронтальную панель выведено по одному порту USB 3.0 и USB 2.0, а сзади находятся три разъёма USB 3.0.

Младшая модель получила два слота расширения PCIe 4.0 x16 и разъём PCIe 4.0 x8 для низкопрофильных карт половинной длины, старшая — шесть слотов PCIe 4.0 x16 для полноразмерных ускорителей и два разъёма PCIe 4.0 x8 для низкопрофильных карт. В обоих случаях имеется поддержка модуля OCP 3.0 (PCIe 4.0 x16).

Постоянный URL: http://servernews.ru/1048071
27.08.2021 [17:21], Сергей Карасёв

Supermicro представила сервер Hyper-E SYS-220HE-FTNRD для edge-приложений и 5G

Компания Supermicro анонсировала сервер SuperServer SYS-220HE-FTNRD серии Hyper-E. Новинка предназначена для использования в системах 5G, сетях телекоммуникационных операторов и корпоративных инфраструктурах. Кроме того, новинка подходит для периферийных вычислений общего назначения, в том числе со средствами ИИ и машинного обучения.

Устройство выполнено в укороченном 2U-шаcии. Допускается установка двух процессоров Intel Xeon Scalable Ice Lake-SP в исполнении Socket P+ (LGA-4189) с TDP до 270 Вт. В общей сложности доступны 32 слота для модулей оперативной памяти ECC DDR4-3200/2933/2666 суммарным объёмом до 8 Тбайт. Сервер поддерживает до шести накопителей NVMe/SATA в форм-факторе 2,5 дюйма с возможностью «горячей» замены, а также два M.2-модуля. Возможно формирование массивов RAID 0/1/5/10.

Здесь и ниже изображения Supermicro

Здесь и ниже изображения Supermicro

Для ускорителей и адаптеров длиной до 26,7 см (10.5") есть восемь слотов (четыре для двухслотовых карт), а также два слота AIOM/OCP 3.0. Архитектура новинки предполагает достаточно гибкие возможности в плане сетевых подключений. К примеру, могут быть задействованы до четырёх портов 25GbE RJ45/SFP28 или до двух портов 100GbE QSFP28.

Устройство наделено выделенным сетевым портом управления, двумя разъёмами USB 3.0 и аналоговым интерфейсом D-Sub. Общие габариты составляют 574 × 436,88 × 88,9 мм. Применены два блока питания мощностью 1300 Вт (48 В DC). За охлаждение отвечают шесть вентиляторов в задней части.

Постоянный URL: http://servernews.ru/1047756
26.08.2021 [16:20], Владимир Мироненко

Yandex.Cloud первой среди публичных облачных платформ в России предложила инстансы с Intel Xeon Ice Lake-SP

Yandex.Cloud первой среди российских публичных облачных платформ предложила инстансы Yandex Compute Cloud на базе CPU Intel Xeon Ice Lake-SP. Новые виртуальные машины доступны в Yandex Managed Service for Kubernetes, а в сентябре они появятся и в сервисах Платформы данных. Используются процессоры Xeon Gold 6338 (32С/64T, от 2,0 ГГц до 3,2 ГГц, 48 Мбайт L3-кеш).

По данным Intel, производительность на распространенных рабочих нагрузках для ЦОД выросла по сравнению с предыдущим поколением в среднем на 46%. А в Yandex.Cloud стоимость в пересчёте на 1 ядро снизилась приблизительно на 10 %. Пользователи могут создавать инстансы на платформе standard-v3, имеющие от 2 до 96 vCPU и от 1 до 640 Гбайт RAM. Правда, есть один нюанс — нельзя одновременно получить и максимум памяти, и максимум ядер.

В документации сказано следующее: «Для платформы Intel Ice Lake недоступна конфигурация с максимальным количеством vCPU (96) и максимальным объемом RAM (640 ГБ) одновременно. Если у ВМ 96 vCPU, максимальный объем RAM — 576 ГБ. Если у ВМ 640 ГБ RAM, максимальное количество vCPU — 80». При этом инстансы, имеющие до 32 vCPU, «живут» в пределах одного NUMA-домена, что положительно сказывается на производительности и работе с памятью и подходит для большинства развёртываний.

Постоянный URL: http://servernews.ru/1047648
17.08.2021 [17:56], Алексей Степин

В AWS появились инстансы M6i на базе Intel Xeon Ice Lake-SP

10-нм архитектура Intel Ice Lake пришла в серверный сегмент довольно поздно. Инстансы на базе новых процессоров анонсировали практически все крупные облачные провайдеры, но доступными для конечных пользователей они становятся не сразу. Вчера были представлены инстансы Amazon EC2 M6i.

Пожалуй, первое, что стоит отметить — обязательное шифрование содержимого оперативной памяти во всех инстансах M6i. Сама компания позиционирует M6i как шестое поколение, по соотношению цена/производительность опережающее пятое поколение инстансов минимум на 15%. Во всех случаях в аппаратной части используются Xeon c турборежимом 3.5 ГГц.

Основные особенности Xeon Ice Lake-SP

Основные особенности Xeon Ice Lake-SP

Заказчикам предлагаются различные варианты, с количеством vCPU от 2 до 128 и пулами оперативной памяти объёмом от 8 до 128 Гбайт (4 Гбайт на vCPU). Производительность сетевой подсистемы и хранилища Amazon Elastic Block Store варьируется в зависимости от размера инстанса, в предельном случае составляя 50 и 40 Гбит/с соответственно. Также отмечается возросшая на 20% производительность подсистемы памяти (напомним, новые Xeon имеют 8 каналов памяти и поддерживают DDR4-3200).

Сочетание характеристик делает M6i подходящими практически для любой задачи — в качестве веб-серверов, серверов приложений, систем контейнеризации и т.д. Компания отдельно отмечает наличие для них сертификации SAP. Подойдут новые инстансы и для некоторых HPC-нагрузок, например, для расчётов в области вычислительной гидродинамики (CFD).

Пока шестое поколение инстансов не имеет bare metal версии с выделенными серверами и гарантированно низкой латентностью сети, но такой вариант запланирован на ближайшее будущее. Стоит отметить, что теперь AWS несколько изменила схему наименований инстансов. После номера поколения теперь идёт литера, обозначающая тип процессора — «i» для решений Intel, «a» для AMD EPYC и «g» для систем на базе процессоров AWS Graviton.

Постоянный URL: http://servernews.ru/1046903
31.07.2021 [14:22], Сергей Карасёв

Сервер ASRock Rack 4U10G-ICX2/2T вмещает до 10 двухслотовых ускорителей PCIe 4.0 x16

Компания ASRock Rack анонсировала сервер 4U10G-ICX2/2T, подходящий для высокопроизводительных вычислений, машинного обучения и решения задач, связанных с искусственным интеллектом. Новинка, выполненная в формате 4U, рассчитана на монтаж в стойку.

В основу положена материнская плата SP2C621D32GM-2T. Возможна установка двух процессоров Intel Xeon Scalable третьего поколения в исполнении Socket P+ (LGA 4189) с показателем TDP до 250 Вт. В общей сложности доступны 32 разъёма для модулей оперативной памяти DDR-3200. Максимально поддерживаемый объём ОЗУ составляет 8 Тбайт.

Здесь и ниже изображения ASRock Rack

Здесь и ниже изображения ASRock Rack

Имеются 12 фронтальных отсеков для установки накопителей типоразмера 3,5 дюйма с возможностью «горячей» замены. Дополнительно можно задействовать два твердотельных модуля М.2 22110/2280 с интерфейсом PCIe 3.0 x4 или SATA 3.0. Также во фронтальной части опционально доступны три слота PCIe 4.0 x16: два для полноразмерных карт расширения и один OCP 3.0.

Сервер поддерживает установку до десяти двухслотовых акселераторов PCIe 4.0 x16 с TDP до 350 Вт — например, NVIDIA A100 — для организации высокопроизводительных вычислений. Также возможно применение 20 однослотовых ускорителей PCIe 4.0 x8. Есть и один дополнительный разъём для карты PCIe 4.0 x16 в однослотовом исполнении. В системе есть два PCIe-коммутатора Broadcom PEX88096.

Новинка оборудована двумя сетевыми портами 10GbE на базе контроллера Intel X710-AT2 и выделенным сетевым портом управления для ASPEED AST2500. Подсистема питания выполнена по схеме 3+1 с блоками мощностью 1600 Вт с сертификатом 80 PLUS Platinum. За охлаждение отвечают два блока по вентиляторов с поддержкой горячей замены: 80×80 мм в середине шасси и 80×38 мм в задней части корпуса.

Постоянный URL: http://servernews.ru/1045649
28.07.2021 [14:03], Сергей Карасёв

Supermicro представила высокопроизводительные СХД на базе Intel Xeon

Компания Supermicro анонсировала новые системы хранения данных (СХД) корпоративного класса на базе процессоров Intel Xeon Scalable третьего поколения (Ice Lake-SP). Решения могут применяться в том числе в составе облачных инфраструктур большого масштаба.

Новые высокопроизводительные системы выполнены в формате 4U и рассчитаны на монтаж в стойку. Они предоставляют 60 или 90 отсеков для накопителей типоразмера 2,5 или 3,5 дюйма с интерфейсом SAS/SATA. Кроме того, эти устройства наделены двумя коннекторами для твердотельных модулей M.2 PCIe 4.0 и двумя внутренними разъёмами для накопителей SATA SSD.

Здесь и ниже изображения Supermicro

Здесь и ниже изображения Supermicro

Обе модели доступны в одно- и двухузловом (в том числе HA) вариантах. Одноузловая система предоставляет два тыльных отсека для устройств на 2,5 дюйма с возможностью «горячей» замены и четыре дополнительных посадочных места для накопителей NVMe U.2, отвечающих за кеширование. СХД поддерживает до 1,6 Пбайт ёмкости.

Кроме того, анонсированы двойные системы хранения Simply Double. Они допускают установку двух процессоров и 16 модулей оперативной памяти DIMM. Предусмотрены 24 отсека для накопителей в форм-факторе 3,5 дюйма с интерфейсом SAS/SATA. Кроме того, есть четыре тыльных посадочных места для твердотельных модулей U.2 NVMe.

Постоянный URL: http://servernews.ru/1045376
02.07.2021 [15:46], Владимир Агапов

Intel и Capgemini оптимизировали 5G-связь с помощью ИИ

По данным глобальной ассоциации поставщиков мобильной связи (GMSA) общая стоимость аукционов по продаже спектра за прошлый год достигла $27 млрд. и операторы беспроводных сетей ищут способы наиболее эффективного использования этих немалых вложений. В техническом плане ключевым является повышение пропускной способности выделенной полосы частот.

Компания Capgemini представила на MWC 2021 инновационное решение этой задачи на основе продуктов Intel и машинного обучения. В качестве «строительных блоков» для своего проекта под кодовым названием Project Marconi компания выбрала ПО Intel AI Software и Intel Xeon Scalable 3-го поколения (Ice Lake-SP). Они используются для управления сетью 5G на MAC-уровне с помощью предикативной аналитики в режиме реального времени.

По заявлению компании, Marconi соответствует принципам O-RAN и даёт операторам сетей 5G значительное преимущество в ускорении монетизации услуг, поскольку повышает спектральную эффективность до 15%. Благодаря этому операторы смогут увеличить объём трафика, обрабатываемого каждой сотой и повысить качество обслуживания абонентов (QoE). Кроме того, появится возможность запуска новых услуг для Индустрии 4.0, таких как широкополосная связь (eMBB) и сверхнадёжная связь (URLLC).

Оптимизации нагрузок крупной сети сотовой связи является сложной задачей, связанной с обработкой больших массивов постоянно меняющихся данных. ИИ-технологии позволяют моделировать в реальном времени её поведение и автоматически принимать решения в зависимости от текущего уровня трафика и состояния радиоканалов.

Для внедрения этих технологий Capgemini развернула платформу NetAticipate5G, на которой было собрано более 1 Тбайт данных и проведено большое количество тестовых прогонов, чтобы настроить предикативную аналитику в соответствии с требованиями операторов. В итоге удалось на 40% повысить точность прогнозирования в системе модуляции и кодирования (MCS), параметрами которой управляет ИИ. Таким образом, можно интеллектуально планировать MAC-ресурсы для более полного использования канала связи.

«Теперь машинное обучение можно развернуть для интеллектуального принятия решений в RAN без каких-либо дополнительных требований к оборудованию. Это делает его экономически эффективным и перспективным, поскольку мы переходим к реализации Cloud Native RAN», — сказал Валид Негм (Walid Negm), директор по исследованиям и инновациям Capgemini.

Постоянный URL: http://servernews.ru/1043352
29.06.2021 [23:43], Алексей Степин

HPE представила серверы Apollo 4200 Gen10 Plus на базе Intel Xeon Ice Lake-SP

Поколение Gen10 Plus в серии Apollo 6500 было представлено ещё в конце прошлого года, а сейчас компания анонсировала новые, улучшенные модели серии Apollo 4000. Новинки позиционируются в качестве универсальных решений с уклоном в популярную нынче тему машинного обучения, аналитики и сбора данных. Оно также подойдёт для модернизации гиперконвергентных инфраструктур (HCI) и сценариев с серьёзными нагрузками кеширования данных.

Новые Apollo 4200 Gen10 Plus не заменят полностью серверы без приставки Plus в названии, модели будут существовать параллельно. Если Apollo 4200 Gen10 строились на базе процессоров Xeon Scalable первого и второго поколений, то в новых моделях им на смену пришло третье поколение Intel Xeon под кодовым именем Ice Lake-SP. Однако при тех же габаритах и высоте 2U новинки во всех отношениях любопытнее.

Серверы поддерживают установку до 56 SFF-накопителей или 28 LFF-накопителей. В последнем случае речь о дисках класса nearline, причём поддерживаются модели объёмом до 18 Тбайт для HDD, до 7,68 Тбайт для SATA SSD и до 3,84 Тбайт для SAS SSD. А в дальних отсеках могут устанавливаться самые различные модели SFF/LFF-накопителей, в том числе NVMe SSD. Есть поддержка Intel Optane PMem, до 8 × 512 Гбайт. Возрос и максимальный объём оперативной памяти, с 2 до 3 Тбайт. Для подключения могут использоваться различные PCIe-адаптеры (в том числе один OCP 3.0): 200GbE, InfiniBand HDR, FC32.

Большую часть шасси HPE Apollo 4200 Gen10 Plus занимают дисковые корзины, из-за чего установка мощных ускорителей на базе GPU или FPGA пока не поддерживается, хотя и планируется в будущем. А вот информации о том, будут ли новые системы поддерживать DPU, пока нет, хотя Apollo 4200 мог работать с решениями Pensando Systems. Впрочем, и без DPU производительность новинки выше благодаря новым процессорам Intel. Серверы HPE Apollo 4200 Gen10 Plus будут доступны в рамках HPE GreenLake и поддерживают фирменные средства предиктивной аналитики InfoSight.

Постоянный URL: http://servernews.ru/1043142
28.06.2021 [19:00], Алексей Степин

Intel на ISC 2021: от Xeon Ice Lake-SP и Sapphire Rapids до Ponte Vecchio и DAOS

Партнёрский материал

В рамках суперкомпьютерной выставки-конференции компания ISC 2021 Intel рассказала о своих последних решениях в области высокопроизводительных вычислений (HPC), а также коротко упомянула о будущих продуктах. Сочетание новых процессорных платформ Xeon Scalable, ускорителей Ponte Vecchio на базе Intel Xe и сетевых адаптеров Ethernet 800/810 Series должно обеспечить компании уверенную позицию в мире HPC.

В последние пару лет в секторе HPC появились решения на базе 64-ядерных EPYC, а затем и разработки на базе архитектуры ARM, показавшие высокие удельную производительность и энергоэффективность. В то же время платформа Intel® Xeon® хоть и была в ряде отношений прогрессивной — достаточно вспомнить уникальную поддержку памяти Optane™ и инструкций AVX-512, — однако количество ядер на процессор до уровня конкурентов нарастить не удавалось, а гибридная платформа Xeon 9200 популярности не снискала по ряду причин.

Но сейчас ситуация начинает меняться в пользу Intel. Хотя третье поколение Xeon Scalable (Ice Lake-SP) и задержалось, но получилось достаточно интересным: у новых процессоров появилась поддержка действительно серьёзных по объёму защищённых вычислительных анклавов, шины PCIe 4.0, дальнейшее развитие AVX-512 и VNNI, восьмиканальный контроллер памяти DDR4-3200, а максимальное количество ядер при этом выросло с 28 до 40, что уже хоть как-то сопоставимо с EPYС второго и третьего поколений.

Несмотря на некоторое отставание по «сырому» количеству ядер, процессоры Xeon Scalable третьего поколения, согласно данным Intel, хорошо показывают себя в ряде HPC-приложений благодаря усовершенствованной микроархитектуре и поддержке расширений и VNNI. Как сообщила Intel, процессор Xeon Platinum 8358 (10 нм, 32C/64T, 2,6 ‒ 3,4 ГГц, 48 Мбайт кеша, 250 Ватт TDP) серьёзно опережает AMD EPYC 7543 (7 нм, 32С/64T, 2,8 ‒ 3,7 ГГц, 256 Мбайт кеша, 225 Ватт TDP) именно в сфере HPC: в тестах NAMD преимущество составило 62%, пакеты LAMMPS и RELION показали превосходство на 57% и 68%, соответственно, а в тесте Binominal Options выигрыш составил 37%.

Кроме того, симуляции с использованием метода Монте-Карло, часто использующегося в финансовых приложениях, работают на Xeon Scalable третьего поколения более чем вдвое быстрее. Отлично выступил и Xeon Platinum 8380 (10 нм, 40C/80T, 2,3 ‒ 3,4 ГГц, 60 Мбайт кеша, 270 Ватт TDP): в 20 наиболее популярных ИИ-тестах он опередил EPYC 7763 (7 нм, 64С/128T, 2,45 ‒ 3,5 ГГц, 256 Мбайт кеша, 280 Ватт TDP) на 50%. Этот пример хорошо доказывает тот факт, что количество ядер и «сырая» вычислительная мощность не гарантируют победы, а наличие аппаратных и программных оптимизаций может быть решающим в ряде задач.

Вычислительные нагрузки в области моделирования и симуляции, такие, как моделирование поведения жидкостей или квантовая хромодинамика, задачи машинного обучения, базы данных класса in-memory весьма зависят от производительности подсистем памяти. И здесь Intel тоже есть, что сказать. Ранее опробовав технологию встроенной высокоскоростной памяти на платформе Xeon Phi™ 7200 (до 16 Гбайт 3D MCDRAM), компания собирается вернуться к этой идее на новом уровне: процессоры под кодовым названием Sapphire Rapids получат не только поддержку DDR5, но и набортную HBM2 (до 64 Гбайт).

В сочетании с поддержкой PCI Express 5.0 и новых инструкций ускорения матричных вычислений (Advanced Matrix Extensions) это делает Xeon (Sapphire Rapids) весьма привлекательной платформой именно для сегмента HPC. И будущей новинкой уже заинтересовались крупные заказчики: эти процессоры планируется использовать в суперкомпьютерах Aurora, Crossroads и SuperMUC-NG. Представители этих и ряда других научно-исследовательских организаций настроены весьма оптимистично в отношении платформы Sapphire Rapids.

В ряде машин компанию им составит ускорители Intel Xe Ponte Vecchio, который уже проходит процесс валидации в составе новых систем. Напомним, каждый узел вышеупомянутого суперкомпьютера Aurora должен получить по два процессора Sapphire Rapids и по шесть ускорителей Ponte Vecchio. Появление нового игрока на рынке откроет дополнительные возможности для производителей систем в HPC-сегменте.

Сами ускорители Ponte Vecchio уникальны: чиплет являет собой довольно замысловатую многокомпонентную структуру, состоящую из 47 элементов и соединённую воедино с помощью технологий Foveros 3D и EMIB. Неудивительно, ведь общее число транзисторов у этого монстра превышает 100 млрд, что позволяет Intel рассчитывать на уровень производительности более 1 Пфлопс. Доступен этот ускоритель будет в формате OCP Accelerator Module (OAM). Известно также, что он получит жидкостное охлаждение.

Наконец, третий важный компонент любой HPC-платформы: хранилище данных. В этой области Intel делает ставку на открытые решения, и на ISC 2021 компания представила коммерческий вариант объектного распределённого хранилища DAOS (Distributed Application Object Storage). Платформа DAOS является программно-определяемой, но это не указание на её невысокую производительность. Напротив, она изначально создавалась с прицелом на масштабируемость и высочайший уровень производительности именно с крупными объёмами данных.

В системах DAOS Intel использует только твердотельную память, отказавшись от гибридных схем с использованием традиционных механических накопителей и SSD, причём, поддерживается и Optane в обеих инкарнациях: как накопители, так и PMem-модули. Intel сделала DAOS доступной в качестве решения уровня L3 для своих партнёров. В их число входят такие гиганты, как HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta, а также российская РСК, которая поддержала инициативу DAOS ещё в конце прошлого года.

Наконец, ещё один важный компонент HPC-систем — интерконнект. Intel, напомним, отказалась от Omni-Path, сосредоточившись на Ethernet. А на ISC 2021 компания объявила о платформе High Performance Networking (HPN), которая включает 100/200GbE-адаптеры серии E800/E810, коммутаторы c контроллерами Tofino™ и ПО Intel Ethernet Fabric. Этого достаточно для построения малых кластеров, причём, как обещает компания, производительность будет на уровне InfiniBand-решений, а стоимость будет ниже, чем у них.

В целом Intel придерживается целостного подхода. Если при построении HPC-системы на базе решений других производителей всё равно придётся воспользоваться аппаратными или программными составляющими «со стороны», то Intel готова предложить всё в комплексе, от процессоров и вычислительных ускорителей до сетевых адаптеров, коммутаторов и программного обеспечения. В рамках развития Intel модели oneAPI особенный интерес представляет последний пункт.

Постоянный URL: http://servernews.ru/1042961
Система Orphus