Материалы по тегу: cooper lake-sp

22.09.2020 [15:58], Сергей Карасёв

Сервер Huawei FusionServer Pro 2488H V6: 4 CPU Intel Xeon Cooper Lake и 18 Тбайт памяти

На днях стало известно, что корпорация Intel получила разрешение от властей США разрешение на поставку продукции Huawei, а сегодня компании представили новый высокопроизводительный стоечный сервер FusionServer Pro 2488H V6 в форм-факторе 2U. Решение походит для использования в составе облачных сред, систем виртуализации, платформ HPC-вычислений и пр.

Новинка допускает установку до четырёх процессоров Intel Xeon Scalable третьего поколения (Cooper Lake) с максимальным значением рассеиваемой тепловой энергии (показатель TDP) до 250 Вт. Для модулей оперативной памяти DDR4-3200 доступны 48 разъёмов. Кроме того, можно задействовать до 24 модулей Intel Optane PMem 200. В сумме можно получить до 18 Тбайт памяти.

Сервер может быть оборудован 25 накопителями в форм-факторе 2,5 дюйма с интерфейсом SAS/SATA. Допускается также установка двух твердотельных накопителей типоразмера М.2. Поддерживаются массивы RAID 0, 1, 1E, 5, 50, 6, 60.

Предусмотрена возможность установки двух полноразмерных двухслотовых GPU-акселераторов. Один слот PCIe выделен для карты OCP 3.0 NIC. Питание обеспечивают два блока мощностью до 3000 Вт с возможностью «горячей» замены.

Говорится о совместимости с программными платформами Microsoft Windows Server, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, CentOS, Citrix XenServer и VMware ESXi. Сервер имеет размеры 86,1 × 447 × 790 мм. Более подробно с техническими характеристиками устройства можно ознакомиться на этой странице

Постоянный URL: http://servernews.ru/1021231
20.06.2020 [21:35], Алексей Степин

GIGABYTE R292: 4-сокетные серверы для Intel Xeon Cooper Lake

Довольно долгое время бесшовная реализация серверов на базе процессоров Intel Xeon с более чем двумя процессорными разъёмами была не лишенной ряда проблем. Даже второе поколение Xeon Scalable на LGA3647 имело лишь 3 линии UPI на процессор, да и то только у серий Gold и Platinum.

Однако анонс третьего поколения Xeon Scalable решил эту проблему: процессоры Cooper Lake имеют по шесть линков UPI в Gold- и Platinum-версиях (других пока и нет), а этого уже вполне достаточно для бесшовной реализации системных плат минимум с четырьмя разъёмами LGA3647.

Первоначальные реализации 4S- и 8S-систем на базе Xeon Scalable

В «доисторические» времена реализация многопроцессорных системных плат на базе процессоров Intel была проще, поскольку общались они между собой через единую системную шину, хотя производительность при этом и была далёкой от идеала. С появлением межпроцессорных интерфейсов QPI, а затем и UPI усложнило задачу.

Для четырёхпроцессорных конфигураций это означало использование всех трёх линков, включая и организацию «перекрестных» связей. Это ограничивало производительность в задачах с интенсивной пересылкой данных от ЦП к ЦП — пропускная способность одного линка UPI составляет всего 10,4 Гт/с (20,8 Гбайт/с). А реализация восьмипроцессорных систем и вовсе не была симметричной, что неизбежно приводило к ещё большим скоростным пенальти.

GIGABYTE R292-4S0

GIGABYTE R292-4S0

Однако в анонсированном на днях третьем поколении Xeon Scalable под кодовым названием Cooper Lake чипы получили по шесть линков UPI, а это позволило организовывать связь между четырьмя процессорами на скорости до 20,8 Гт/с, причём, в любом направлении. И этим тут же воспользовались производители серверного оборудования.

В их числе — и компания GIGABYTE, которая представила новое семейство серверов с поддержкой Cooper Lake под общим названием R292. Отметим, что реализация трёх дополнительных линков UPI потребовала увеличения числа контактов в разъёме: теперь это LGA4189 (Socket P+), обратной совместимости с LGA3647 нет и она невозможна физически по очевидным причинам.

Первоначальные реализации 4S- и 8S-систем на базе Xeon Scalable

Схемотехника и конфигурация подсистем R292-4S0: четыре полноразмерных места для установки PCIe-карт

В серии пока имеется два варианта: R292-4S0, рассчитанный на установку четырёх двухслотовых плат ускорителей и R292-4S1, в который можно установить восемь ускорителей половинной высоты. Нехватки линий PCI Express в новых системах не ощущается: их в распоряжении плат расширения оказывается 192 — столько же обеспечивает двухпроцессорная система на базе AMD Rome при двух каналах Infinity Fabric между процессорами; правда, поддержки PCIe 4.0, как мы знаем, Xeon Scalable третьего поколения не получили.

Дизайн у R292 модульный, что обеспечивает новыми серверам GIGABYTE серьёзную гибкость при конфигурировании. Также они отличаются повышенной ёмкостью подсистем памяти: из-за четырёх процессоров в них можно установить до 12 Тбайт DDR4, что полезно, например, при работе с базами данных класса «всё в памяти». Ядер у новых Xeon Scalable в максимальных вариантах по-прежнему 28, но это даёт уже 112 ядер и 224 треда на систему против 56/112 ранее. По этому показателю R292 могут посоперничать с решениями на базе AMD Rome (2CPU, 128C/256T).

GIGABYTE R292-4S1

GIGABYTE R292-4S1

Обе новых системы используют в качестве основы корпус высотой 2U, «верхний этаж» отдан под 10 дисковых корзин «горячей замены», причём речь идёт о накопителях U.2 с интерфейсом PCI Express. Поддержка SAS заявлена как опциональная и требует установки дополнительной платы расширения. Это одно из свидетельств окончательной победы NVMe над SAS/SATA. Питаются системы от пары блоков питания мощностью 3200 Ватт, горячая замена поддерживается. Допустима установка процессоров с теплопакетом до 250 Ватт включительно.

Схемотехника и конфигурация подсистем R292-4S1: 8 слотов PCI Express x16

Также в комплект поставки компания-производитель включает бесплатное программное обеспечение для удалённого мониторинга и управления системами, GIGABYTE Server Management (GSM). Оно совместимо как с обычным стандартом IPMI, так и с API Redfish. Присутствуют как GUI-компоненты, так и богатый набор консольных команд, поддерживается интеграция с VMware vCenter, а также удалённое управление с мобильных устройств, как на базе Android, так и Apple iOS. Более подробная информация доступна на сайте GIGABYTE: R292-4S0 и R292-4S1.

Постоянный URL: http://servernews.ru/1013857
19.06.2020 [22:55], Юрий Поздеев

Lenovo ThinkSystem SR850/860 V2 — новые серверы для бизнес-критичных задач

Lenovo Data Center Group (DCG) анонсировала два сервера серии ThinkSystem с недавно вышедшими процессорами Intel Xeon  Scalable третьего поколения: SR860 V2 и SR850 V2. Обе новинки уже доступны для заказа.

ThinkSystem SR860 V2 это 4-сокетный сервер типоразмера 4U, разработанный для бизнес-критичных задач (SAP HANA, Oracle, SQL, in-memory аналитика). Дисковая подсистема имеет 48 отсеков для 2,5" дисков на лицевой панели, половина из них может быть использована для NVMe-накопителей.

Максимальный размер оперативной памяти достигает 12 Тбайт, что позволяет размещать в ней базы данных для быстрой аналитики. Вместо половины модулей памяти можно установить Intel Optane PMem емкостью по 512 Гбайт каждый, что в сумме даст 12 Тбайт энергонезависимой памяти в дополнение к 6 Тбайтам оперативной памяти. 

Для машинного обучения и задач ИИ есть возможность дополнительно установить до 4 ускорителей NVIDIA двойной ширины (например, Tesla V100S). Дополнительный слот для карт расширения OCP 3.0 имеет простой механизм замены адаптера без использования инструментов. ThinkSystem SR860 V2 поддерживает зеркалирование памяти, аппаратную коррекцию ошибок (SDDC, так же известную как Chipkill и ADDDC). За питание сервера отвечают четыре блока питания с резервированием по схеме N+1.

SR850 V2 отличается от своего старшего собрата меньшим размером (2U), однако при этом он поддерживает до 4 процессоров Intel Xeon Cooper Lake и 48 модулей оперативной памяти DDR4-3200. На лицевой панели размещены 24 отсека для NVMe/SAS/SATA SFF-накопителей.

Вместе с новыми сервервами Lenovo также анонсировала обновление программного обеспечения для СХД ThinkSystem DM7100, которое кроме оптимизации быстродействия включает в себя интегрированное многоуровневое облачное управление данными с возможностью создавать резервную копию данных и обеспечения высокой доступности для аналитических рабочих нагрузок.

Постоянный URL: http://servernews.ru/1013804
19.06.2020 [18:09], Юрий Поздеев

HPE анонсировала Superdome Flex 280: 224 ядра Cooper Lake и 24 Тбайт RAM

HPE анонсировала Superdome Flex 280 с поддержкой процессоров Intel Xeon третьего поколения, которые вышли недавно. Данная модель дополняет портфель HPE Superdome Flex и ориентирована на средние предприятия, для которых избыточна масштабируемость до 32 сокетов. Оптимально данная модель подойдет для больших баз Oracle, SAP HANA или SQL-сервера.

Новинка выпускается в форм-факторе 5U и поддерживает установку 2 или 4 процессоров Intel Xeon Gold или Intel Xeon Platinum. Это выгодно отличает Superdome Flex от других подобных систем, в которых можно использовать только Intel Xeon Platinum, который стоит значительно дороже.

Недавно анонсировали новые процессоры Intel Xeon третьего поколения, в которых не только добавили функции ускорения ИИ, но и поддержку более быстрой памяти DDR4-3200, что должно положительным образом сказаться на производительности. Максимально в одну платформу можно установить до 24 Тбайт оперативной памяти, а если и этого недостаточно, то можно использовать Intel Optane PMem 200.

Слотов расширения PCIe тоже достаточно для большинства задач — до 32 на одну платформу, при этом можно установить до 16 графических ускорителей NVIDIA. Для локального хранилища можно использовать до 20 накопителей SAS/SATA/NVMe. Масштабируется платформа Superdome Flex 280 до 8 процессоров с шагом в 2 CPU, что позволяет работать с большими базами данных и моделями для ИИ, для которых требуется большой объем оперативной памяти. Суммарно можно получить до 224 ядер и до 24 Тбайт общей памяти.

HPE Superdome Flex 280 будет доступен в 4 квартале 2020 года.

Постоянный URL: http://servernews.ru/1013796
19.06.2020 [14:48], Илья Коваль

Hyve Catalina: 8-сокетная OCP-платформа c Intel Xeon Cooper Lake и СЖО

Вслед за выходом третьего поколения Intel Xeon Scalable под кодовым именем Cooper Lake ожидаемо появились анонсы и новых решений на их основе. Впрочем, некоторые пришлось сделать это дважды: платформа Hyve Catalina формально была анонсирована месяц назад на OCP Virtual Summit, но, похоже, тогда почти никто не проникся.

Так что вендор решил напомнить о ней ещё раз, но в своём привычном стиле — без детального описания. И дело не только в том, что новые процессоры предназначены для 4- и 8-сокетных систем, которые заведомо интересны относительно небольшому кругу клиентов, но и в том, сама Hyve создаёт OCP-платформы для сверхкрупных заказчиков. Тем интереснее непосвящённым взглянуть одним глазком на машины, которые используют гиганты вроде Facebook и Microsoft.

Как уже было отмечено в материале про Cooper Lake, важное отличие этих процессоров от прошлых Xeon Scalable, в том, что у них теперь есть сразу шесть линий UPI. Это позволяет создавать «бесшовные» массивы из четырёх или восьми процессоров. Причём в случае четвёрки каждый CPU будет соединён с остальными двумя линиями UPI.

Впрочем, как и большинство других вендоров, Hyve оставляет опцию лёгкого «даунгрейда» до четырёх сокетов — в шасси HS9419 высотой 2OU (OpenRack Unit) помещаются две четырёхпроцессорные платы. Так как у каждого процессора есть 48 линий PCIe 3.0, можно ни в чём себе не отказывать. Поэтому каждому CPU полагается 100GbE-адаптер Intel Ethernet 800 и два NVMe SSD. Дополнительно есть пара общих для всей системы слотов OCPv3 для сетевых карт и четыре обычных слота PCIe 3.0 под райзеры.

При этом использование GPU в системе не предполагается. Во-первых, с появлением поддержки bfloat16 для DL Boost позволяет использовать процессоры для обучения нейронных сетей, а не только для исполнения. Во-вторых, размещение выходит и так достаточно плотным — для CPU используется СЖО. Причём завяленный уровень TDP составляет 270 Вт, хотя в публичном списке моделей с таким тепловыделением нет.

Небольшой запас может пригодиться для увеличения времени работы в Turbo Boost и с «тяжёлыми» инструкциями. Возможные сценарии включают не только работу с «нейронками», но и классические для таких систем задачи по обработке и анализу больших объёмов данных в реальном времени. Благо появление поддержки памяти Intel Optane PMem 200 (именно она замазана на слайде) должно сделать этот процесс более быстрым и выгодным с экономической точки зрения — DCPMM банально дешевле DRAM.

Постоянный URL: http://servernews.ru/1013792
18.06.2020 [16:00], Алексей Степин

Intel: новая память Optane DCPMM на четверть быстрее старой

В понятие «платформа» как таковое входят три компонента: процессор, память и устройства хранения данных, хотя с появлением Optane DCPMM грань между последними двумя понятиями и стала размываться. Вместе с анонсом Xeon Scalable Cooper Lake Intel представила второе поколение памяти Optane DCPMM, которе и предназначено для новых CPU.

Рост популярности систем машинного интеллекта и периферийной обработки данных приводит и к тому, что от подсистем памяти требуются большие, нежели ранее, объёмы. DRAM, однако, всё ещё очень дорогое удовольствие, когда речь заходит о терабайтах и десятках терабайт, а обычная флеш-память NAND не может похвастаться высокой производительностью на мелкоблочных и случайных операциях в силу своей структуры.

Intel не первый год продвигает концепцию Optane DCPMM: сам тип микросхем Optane (3D XPoint) хорошо подходит в качестве «продолжения» системной памяти, порой не критически уступая DRAM в производительности. При этом модули DCPMM энергонезависимы и могут быть весьма солидных объёмов, заведомо превышающих объёмы, достигаемые «чистой» DRAM.

DCPMM позволяет снизить стоимость владения при увеличении объёмов памяти и лучшей производительности

DCPMM позволяет снизить стоимость владения при увеличении объёмов памяти и лучшей производительности

В прошлом году мы опубликовали заметку, рассказывающую о том, насколько хорошо смешанные системы на базе Optane DCPMM + DRAM показывают себя в научно-технических расчётах. И они доказали свою полезность, хотя речь шла о первом поколении модулей DCPMM. А сейчас компания Intel представила модули на базе Optane второго поколения, обладающие улучшенными техническими характеристиками.

Они носят название Optane 200 и, по замыслу разработчика, эти модули должны составить компанию платформе Cooper Lake-SP, третьему поколению Xeon Scalable. Максимальная ёмкость модуля по-прежнему составляет 512 Гбайт.

Эффективность новой DCPMM в сравнении с серверами трёхлетней давности

Эффективность новой DCPMM в сравнении с серверами трёхлетней давности

Общий объём смешанной памяти у систем на базе Cooper Lake может достигать внушительной цифры 4,5 Тбайт на процессорный разъём, хотя для этого и требуется процессор Xeon с суффиксом HL в названии. Отличный выбор для нагрузок вроде баз данных in-memory, аналитики в реальном времени, да и системы виртуализации от такого только выиграют — один сервер сможет вместить больше инстансов.

Новые модули имеют невысокий теплопакет, остающийся в рамках 12 ‒ 15 Ватт, но при этом они могут быть на четверть производительнее Optane DCPMM предыдущего поколения. По разным оценкам надёжность новинок варьируется в пределах 75 — 363 Пбайт, записанных в течение пятилетнего гарантийного срока. Поддерживаются частоты DDR4 1866, 2133, 2400 и 2666 МГц, тогда как сами процессоры Cooper Lake-SP получили поддержку и более быстрой DDR4-3200.

Вместе с новой памятью и процессорами компания также анонсировала накопители Intel D7-P5500 и D7-5600 с интерфейсом PCIe 4.0 и новую FPGA Intel Stratix 10 NX.

Постоянный URL: http://servernews.ru/1013599
18.06.2020 [16:00], Алексей Степин

Intel представила Xeon Cooper Lake, третье поколение Scalable-процессоров

Крупнейший в мире производитель процессоров с архитектурой x86, компания Intel, представила новую платформу, нацеленную на быстро растущий рынок машинного обучения, аналитики и периферийных вычислений. Хотя платформа состоит из нескольких компонентов, главным из них являются новые процессоры Intel Xeon Scalable — это уже третье поколение серии Scalable.

Первое поколение Xeon Scalable (Skylake) отличалось наличием поддержки векторных расширений с длиной 512 бит, хотя эта поддержка была наиболее полной в других процессорах с разъёмом LGA 3647, ныне почивших Xeon Phi 72xx. Во втором поколении Xeon Scalable, известном под кодовым именем Cascade Lake, появились расширения AVX-512 VNNI (Vector Neural Network Instructions, они же DL Boost), и это был первый реверанс в сторону машинного обучения со стороны Intel — расширения позволялил работать с INT8 и подходили для инференса.

Третье поколение, получившее имя Cooper Lake, ещё больше продвинулось в сторону поддержки нетипичных для традиционной архитектуры x86 форматов вычислений. Главным нововведением здесь является поддержка формата bfloat16, который часто используется в комплексах машинного обучения и системах принятия решений (инференс). Он требует меньше вычислительных мощностей, нежели традиционные форматы FP32/64, но при этом в большинстве случаев обеспечивает достаточную точность вычислений, а итоговый выигрыш в производительности может быть почти двухкратным.

Популярные фреймворки, такие как TensorFlow и Pytorch, уже давно поддерживают bfloat16, а Intel-оптимизированные версии доступны в комплекте Intel AI Analytics Toolkit. Компания также оптимизировала среды OpenVINO и ONNX с учётом возможностей новых процессоров Xeon Scalable. Собственно говоря, самое главное в Cooper Lake то, что их теперь можно использовать и для обучения нейронных сетей, а не только для инференса. Intel отдельно подчёркивает универсальность новых CPU.

Что касается самих процессоров, то максимальное количество ядер сохранилось, их в серии Xeon Gold 53xx/63xx и Xeon Platinum 83xx по-прежнему 28 при поддержке SMT2. Однако улучшения есть, и достаточно серьёзные. Серия Xeon Platinum поддерживает память до DDR4-3200 (1DPC) и DDR4-2933 (2DPC), хотя младшие пяти- и шеститысячники так же ограничены 2666 и 2933 MT/с. Зато все они поддерживают память Intel Optane DCPMM 2-го поколения. Число каналов память осталось прежним, их шесть.

Существенное отличие от Cascade Lake в том, что теперь у всех CPU есть 6 линий UPI — они могут может «бесшовно» устанавливаться в системы с четырьмя или восемью процессорными разъёмами. Другое важное отличие — серия 53xx теперь имеет два FMA-порта для AVX-512, а не один как раньше. Часть новинок поддерживает Intel Speed Select.

У «ёмких» моделей с суффиксом HL максимальный объём оперативной памяти достиг 4,5 Тбайт, а у базовых H — до 1,12 Тбайт. Несколько подросли тактовые частоты, в серии есть модели с частотной формулой 2,9 ‒ 4,3 ГГц, причём большая часть новинок имеет частоту в турборежиме более 4 ГГц. Исключение — модели с пониженным энергопотреблением.

Всё это делает новые процессоры привлекательными для крупных предприятий, облачных провайдеров и гиперскейлеров вообще. Если даже на секунду забыть все новововведения для ИИ, Cooper Lake всё равно останется многосокетной платформой, а это значит, что он подходит для работы с большими СУБД, анализа больших объёмов данных в реальном времени, OLTP и виртуализации. В области 4S/8S-платформ у Intel давно крепкие позиции, так что новинки наверняка приглянутся определённому кругу заказчиков. Но массовыми Cooper Lake в текущем виде не станут.

Основной системный чипсет — Intel C620A, то есть обновлённый Lewisburg. В серию пока входит всего три модели, две из которых поддерживают технологию Intel QAT, ускоряющую работы по компресии и шифрованию. Так это обновление уже имеющихся чипсетов, поддержки PCI Express 4.0 нет. Сами процессоры Xeon Scalable третьего поколения по-прежнему могут предоставить в распоряжение системы до 48 линий PCIe 3.0. С учётом того, что ориентированы они на 4-сокетные системы, этого может быть вполне достаточно.

Однако другие процессоры Xeon Scalable «Ice Lake», для одно-двухсокетных платформ Whitley, которые Intel планирует представить позднее в этом году, уже получат поддержку PCI Express 4.0. Также известно, что четвёртое поколение Xeon Scalable под именем Sapphire Rapids получит набор новых матричных расширений (Advanced Matrix Extensions, AMX), которые, вероятно, буду напоминать тензорные ядра. Она увидит свет уже в 2021 году. Для массовых одно- и двухсокетных платформ пока предлагается использовать Cascade Lake Refresh

Вместе с Intel Xeon Cooper Lake компания также анонсировала второе поколение памяти Intel Optane DCPMM 200, накопители  Intel D7-P5500 и D7-5600 с интерфейсом PCIe 4.0 и новую FPGA Intel Stratix 10 NX.

Постоянный URL: http://servernews.ru/1013585
26.05.2020 [21:06], Алексей Степин

Facebook Yosemite и Delta Lake: OCP-платформы с Intel Xeon Cooper Lake

На прошлой неделе мы писали о решении ITRenew Sesame, которое позволит небольшим компаниями получить недорогое, но производительное б/у «железо» от Facebook и других гигантов. Особенность такого оборудования в том, что оно имеет OCP-исполнение.

И самый простой способ познакомиться с миром OCP — посмотреть на новые решения самой Facebook. Среди них есть одноюнитовое шасси Sonora Pass, но это не единственная новинка, использующая самые свежие CPU Intel Xeon Cooper Lake. Есть и специфичные для OCP платформы Yosemite v3 и Delta Lake.

Привычные нам стоечные форм-факторы серверов создавались в те времена, когда вопрос упаковки вычислительных мощностей не стоял столь остро, как сейчас. В лучшем случае, стандартный 19-дюймовый корпус может содержать системную плату с четырьмя процессорами, но чаще ограничен двухсокетными конфигурациями.

Facebook использует стандарт стоек Open Rack, главное в которых — возможность более плотного размещения серверов (21"), увеличение воздушного потока и единая шина питания (12 В DC). Yosemite v3 являет собой уже третье поколение серверных систем в этом стандарте.

В третьей версии 4 юнита вертикального пространства стойки вмещает в себя три модуля Yosemite v3. Каждый из этих модулей может включать в себя до четырёх сверхкомпактных серверов Delta Lake на базе новых процессоров Intel Cooper Lake-SP. Предусматриваются разные варианты модулей: классический «вычислительный» с четырьмя системными платами, вариант с собственным флеш-хранилищем, версия с акселераторами и модель с интегрированным сетевым коммутатором. В зависимости от решаемой задачи, стойка может включать различные сочетания Yosemite v3.

Два последних варианта предусматривают два процессорных гнезда вместо четырёх, но в них предусмотрено пространство для размещения ГП-ускорителей или собственной сетевой подсистемы, включающей в себя выделенные сетевые адаптеры и коммутатор. Все четыре варианта базируются на шасси высотой 4U и шириной в треть стойки, в верхней части которого размещается базовая плата с общим сетевым адаптером, а в задней — платы питания Medusa Board.

«Лезвия» с системными платами быстросъёмные. Основная модель «лезвия» носит название Delta Lake. Она представляет собой компактную системную плату с процессором Intel Xeon Scalable третьего поколения (Cooper Lake). Эти платы изначально создавались с прицелом на повышенный уровень производительности в системах машинного интеллекта и принятия решений.

За отвод тепла отвечает компактная, но мощная система охлаждения с четырьмя тепловыми трубками и дополнительными секциями радиаторов. Поддерживаются расширенные возможности удалённого управления и администрирования, имеется пара набортных разъёмов для накопителей типа M.2. Также платы Delta Lake поддерживают новый стандарт модулей Intel Optane DCPMM под кодовым названием Barlow Pass.

Помимо Yosemite v3, Facebook представила также новую платформу для запуска нейронных сетей (инеференс). Каждый модуль этой платформы состоит из системного модуля Yosemite v2.50 и модуля расширения Glacier Point v2, общающегося с ЦП посредством 16 линий PCI Express 3.0; особенный интерес представляет именно последний.

В этом модуле реализована возможность установки как стандартных одинарных модулей M.2 (теплопакет до 14 Ватт), так и двойных, с теплопакетом 25 Ватт. Всего модуль расширения может содержать до шести двойных или двенадцати одинарных плат с интерфейсом M.2. Два таких блока с модулями GPv2 устанавливаются в шасси Yosemite v2.50.

В сравнении с Yosemite v2 с 600 до 720 Ватт увеличена мощность подсистем питания, реализована поддержка 100GbE, сетевой контроллер подключён к процессору, а не к мосту PCH, как ранее.

Новая платформа для инференс-систем

Новая платформа для инференс-систем

В данном решении особый интерес вызывает поддержка M.2 двойной ширины. Сам по себе стандарт M.2 достаточно компактен, но ширина одинарной платы означает и ограничение по габаритам чипа ускорителя. Двойная ширина позволяет это ограничение преодолеть и оснащать ускорители более мощными и крупными ASIC, но не терять при этом электрической и механической совместимости.

Такой модульный дизайн обеспечивает сочетанию Yv2.50 и GPv2 непревзойдённую гибкость, ведь в единой системе могут уживаться различные ускорители на базе разных чипов. А благодаря единой системе BMC и поддержке стандартных протоколов SMBUS, UART, JTag и I2C, обеспечивается полный спектр средств удаленного управления и мониторинга. Ограничение по ширине интерфейса к основному ЦП нивелируется тем, что GPv2 имеет собственный коммутатор PCIe, так что ускорители, в нём установленные, могут общаться и в режиме «точка-точка».

Платформа Yv2.50 + GPv2 имеет свои недостатки, но компания-разработчик их осознаёт. В частности, в будущих версиях, возможно, каждый сервер будет иметь собственный контроллер BMC и сетевой процессор, а модуль расширения получит поддержку PCI Express 4.0, что снимет возможные проблемы с нехваткой пропускной способности.

При этом необходимо отметить, что Facebook является участником проекта OCP и платформа Yv2.50 + GPv2 имеет открытые спецификации. Подробнее о них можно узнать на wiki-странице проекта. Отдельно опубликованы спецификации на ускорительные модули M.2 обычной и двойной ширины.

Постоянный URL: http://servernews.ru/1011904
15.05.2020 [15:07], Юрий Поздеев

Facebook представила серверы Sonora Pass с Intel Xeon Cooper Lake

На мероприятии OCP Virtual Summit 2020 Facebook поделилась некоторыми подробностями о своем новой платформе Sonora Pass. Информации по новому шасси не очень много — известно лишь то, что данная модель продолжает развивает концепцию серверов Facebook Tioga Pass, но делает больший акцент на безопасность и улучшение интеграции с текущей инфраструктурой. 

Основные конструктивные изменения в Sonora Pass направлены на еще большую модульность платформы. Новый сервер спроектирован таким образом, чтобы быть еще более удобным в обслуживании, что должно снизить стоимость владения инфраструктурой при массовом развертывании данной модели.

В частности, увеличилось количество USB-портов, поддерживается размещение в стойках по стандарту OCP V.2. Не осталось без внимания и ПО управления сервером, в котором были значительно усилены функции безопасности — есть система обнаружения вторжений и дополнительная аутентификация до загрузки сервера.

Для удобства управления сервером на передней панели размещен светодиодный дисплей, на который могут выводиться информационные сообщения и ошибки. Дополнительные опции сервера включают в себя карты расширения с четырьмя E1.S 25 мм, два слота OCP NIC 3.0, дополнительный порт отладки OCP USB и два слота PCIe FHHL.

Sonora Pass поддерживает установку двух процессоров Intel Xeon Cooper Lake, в отличие от Tioga Pass, где использовались процессоры Intel Xeon Skylake-SP с TDP до 165 Вт. Для оперативной памяти используется 12 слотов (по 6 на каждый процессор). 

Не смотря на сообщения о дефиците процессоров Intel Xeon Cooper Lake, Facebook удалось заключить контракт на поставку необходимого количества чипов для собственных нужд, что позволит производить новую модель сервера без задержек.

Постоянный URL: http://servernews.ru/1010992
13.05.2020 [16:47], Юрий Поздеев

Wiwynn анонсировала серверы с Intel Xeon Cooper Lake

В рамках OCP Virtual Summit 2020 широко известная в узких кругах компания Wiwynn, сотрудничающая на ниве OCP с Facebook и Microsoft, представила свои новые модульные серверные платформы, ориентированные на облачных провайдеров и крупные дата-центры.

1U-система SV5100G4 разработана на основе спецификаций OCP Project Olympus, поддерживает до двух процессоров Intel Xeon Cooper Lake и оптимизирована для работы с приложениями *aaS.

SV7100G4 представляет собой 4U-шасси на 12 однопроцессорных серверов-лезвий. Каждое лезвие имеет слоты расширения PCIe для подключения дополнительных карт и встроенную систему управления OCP 3.0 Unified Server Management. Серверы-лезвия можно менять «на горячую», без остановки работы всей системы.

В серии также имеется специализированный сервер SV7100G3. В шасси высотой 4U можно разместить до 48 ускорителей в форм-факторе M.2, что позволяет создать высокоплотное решение для транскодирования видео или ИИ-задач. 

Для эпохи 5G и вычислений на границе сети Wiwynn представила два компактных сервера (уменьшенной глубины) для размещения в шкафах вместе с телекоммуникационным оборудованием.

EP100 3U разработан с учетом спецификаций OCP openEDGE и позволяет разместить в неглубоком (ШхГхВ 440х430х130 мм) корпусе 3U до пяти серверов-лезвий, каждый из которых имеет один процессор Intel Xeon, 8 слотов под оперативную память DDR4 и два отсека для SSD дисков форм-фактора U.2 с возможностью горячей замены.

ES200 представляет собой платформу 2U с глубиной всего 450 мм, поддерживает установку до двух процессоров Intel Xeon Cooper Lake, имеет 16 слотов под оперативную память DDR4, позволяет установить до 6 SSD дисков форм-фактора U.2. Основная сфера применения данного сервера — IoT и небольшие периферийные нагрузки.

Постоянный URL: http://servernews.ru/1010830
Система Orphus