Hyve Catalina: 8-сокетная OCP-платформа c Intel Xeon Cooper Lake и СЖО

 

Вслед за выходом третьего поколения Intel Xeon Scalable под кодовым именем Cooper Lake ожидаемо появились анонсы и новых решений на их основе. Впрочем, некоторые пришлось сделать это дважды: платформа Hyve Catalina формально была анонсирована месяц назад на OCP Virtual Summit, но, похоже, тогда почти никто не проникся.

Так что вендор решил напомнить о ней ещё раз, но в своём привычном стиле — без детального описания. И дело не только в том, что новые процессоры предназначены для 4- и 8-сокетных систем, которые заведомо интересны относительно небольшому кругу клиентов, но и в том, сама Hyve создаёт OCP-платформы для сверхкрупных заказчиков. Тем интереснее непосвящённым взглянуть одним глазком на машины, которые используют гиганты вроде Facebook и Microsoft.

Как уже было отмечено в материале про Cooper Lake, важное отличие этих процессоров от прошлых Xeon Scalable, в том, что у них теперь есть сразу шесть линий UPI. Это позволяет создавать «бесшовные» массивы из четырёх или восьми процессоров. Причём в случае четвёрки каждый CPU будет соединён с остальными двумя линиями UPI.

Впрочем, как и большинство других вендоров, Hyve оставляет опцию лёгкого «даунгрейда» до четырёх сокетов — в шасси HS9419 высотой 2OU (OpenRack Unit) помещаются две четырёхпроцессорные платы. Так как у каждого процессора есть 48 линий PCIe 3.0, можно ни в чём себе не отказывать. Поэтому каждому CPU полагается 100GbE-адаптер Intel Ethernet 800 и два NVMe SSD. Дополнительно есть пара общих для всей системы слотов OCPv3 для сетевых карт и четыре обычных слота PCIe 3.0 под райзеры.

При этом использование GPU в системе не предполагается. Во-первых, с появлением поддержки bfloat16 для DL Boost позволяет использовать процессоры для обучения нейронных сетей, а не только для исполнения. Во-вторых, размещение выходит и так достаточно плотным — для CPU используется СЖО. Причём завяленный уровень TDP составляет 270 Вт, хотя в публичном списке моделей с таким тепловыделением нет.

Небольшой запас может пригодиться для увеличения времени работы в Turbo Boost и с «тяжёлыми» инструкциями. Возможные сценарии включают не только работу с «нейронками», но и классические для таких систем задачи по обработке и анализу больших объёмов данных в реальном времени. Благо появление поддержки памяти Intel Optane PMem 200 (именно она замазана на слайде) должно сделать этот процесс более быстрым и выгодным с экономической точки зрения — DCPMM банально дешевле DRAM.

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER. | Можете написать лучше? Мы всегда рады новым авторам.

Источник:

Постоянный URL: https://servernews.ru/1013792
Поделиться:  

Комментарии

Система Orphus