Материалы по тегу: intel
03.07.2023 [17:05], Сергей Карасёв
AAEON представила плату MIX-Q670D1 формата Thin Mini-ITX для процессоров Raptor Lake-S и Alder Lake-SКомпания AAEON, принадлежащая ASUS, анонсировала материнскую плату MIX-Q670D1, предназначенную для построения компактных индустриальных систем и устройств бизнес-класса. Новинка выполнена в форм-факторе Thin Mini-ITX с габаритами 170 × 170 мм. Применён набор логики Intel Q670E. Допускается установка процессоров Intel Core 12-го и 13-го поколений семейств Raptor Lake-S и Alder Lake-S. Есть два слота SO-DIMM для модулей оперативной памяти DDR5-4800 суммарным объёмом до 64 Гбайт. Плата располагает двумя портами SATA-3 и коннектором M.2 2280 M-Key для твердотельного накопителя с интерфейсом PCIe x4 (NVMe). Есть также разъёмы M.2 3042/3052 B-Key (PCIe x1, USB 3.2 Gen1, USB 2.0) и M.2 2230 E-Key (PCIe x1, USB 2.0), что позволяет подключать различные дополнительные модули, включая модемы 5G. В оснащение входят сетевые адаптеры Intel I219-LM GbE LAN и Intel I210-AT GbE LAN, звуковой кодек Realtek ALC897. Интерфейсный блок содержит по два разъёма HDMI 2.0 и DP 1.2, два гнезда RJ-45 для сетевых кабелей и четыре порта USB 3.2 Gen2. Через коннекторы на самой плате можно задействовать два последовательных порта. Диапазон рабочих температур простирается от 0 до +60 °C. Питание может подаваться через разъём DC (12 В).
30.06.2023 [21:39], Владимир Мироненко
Глава Oracle считает, что архитектура Intel x86 теряет актуальность для серверовВ 2023 году Oracle планирует потратить значительные средства на приобретение чипов AMD и Ampere Computing для новой инфраструктуры, отметив, что «старая архитектура Intel x86 достигает своего предела». «В этом году Oracle купит GPU и CPU у трёх компаний, — сообщил на прошедшем в среду мероприятии глава Oracle Ларри Эллисон (Larry Ellison). — Мы будем покупать GPU у NVIDIA, мы покупаем у неё на миллиарды долларов США. И потратим в три раза больше на центральные процессоры от Ampere и AMD. Мы по-прежнему тратим больше денег на традиционные чипы». Oracle сообщила, что впервые за 14 лет существования специализированных ПАК Exadata для СУБД она полностью отказалась от процессоров Intel в пользу чипов AMD. В платформе 12-го поколения Exadata X10M в рамках двух предложений Oracle Exadata Machine и управляемого решения Oracle Exadata Cloud@Customer будут использоваться AMD EPYC Genoa. Одной из причин такого перехода, пусть и далеко не самой важной, считается отказ Intel от Optane. С момента запуска Exadata в 2008 году Oracle полагалась на процессоры Intel Xeon. Но ситуация начала меняться c выходом X9M в 2021 году. Для Oracle Exadata Machine и Oracle Exadata Cloud@Customer компания выбрала чипы Intel Xeon Ice Lake-SP, а в начале 2022 года для облачного решения Oracle Exadata Cloud Infrastructure решила использовать чипы AMD. При этом EPYC Milan использовались в серверах для обеспечения работы баз данных, а Ice Lake-SP — для СХД. Кроме того, на днях Oracle сделала важный шаг — перенесла свою флагманскую СУБД Oracle Database на архитектуру Arm, т.е. на процессоры компании Ampere Computing, в которую в своё время инвестировала. Эллисон отметил, что чипы Ampere Altra намного энергоэффективнее решений AMD и NVIDIA, что поможет ЦОД Oracle соответствовать будущим регуляциям. «Мы перешли на новую архитектуру и к новому поставщику, — сообщил Эллисон. — Мы думаем, что это будущее. Старая архитектура Intel x86 после многих десятилетий на рынке подошла к своему пределу». Тем не менее, эксперты полагают, что ставка Oracle на архитектуру Arm не помешает её отношениям с AMD в ближайшее время, тем более что Intel и AMD планируют бороться с Arm-процессорами с помощью оптимизированных для облачных платформ чипов с высокой плотностью ядер и улучшенной энергоэффективностью: EPYC Bergamo и Xeon Sierra Forest. Кроме того, разработка, перенос и рефакторинг ПО для Arm требует времени и средств. В свою очередь, представитель Intel сообщил ресурсу CRN в четверг, что компания поставляет Oracle процессоры Xeon Sapphire Rapids «в течение многих месяцев и планирует продолжать поставки Xeon текущего и следующего поколения в будущем». Компании связывают долгие годы совместной работы над аппаратными и программными решениями для клиентов, а сейчас Intel поставляет чипы для облачной инфраструктуры Oracle OCI.
29.06.2023 [22:54], Алексей Степин
Intel похвасталась результатами Habana Gaudi2 и Xeon Sapphire Rapids в ИИ-бенчмарке MLPerf Training 3.0Группа MLCommons, разработчик набора тестов для ИИ-систем MLPerf, опубликовала результаты MLPerf Training v3.0. Среди протестированных устройств есть и ускорители Habana Gaudi2, и процессоры Intel Xeon Sapphire Rapids. В индустрии распространено мнение о том, что генеративный ИИ и большие языковые модели (LLM) создаются практически исключительно на аппаратном обеспечении NVIDIA. Но как показывают опубликованные результаты, в этом секторе Intel готова конкурировать с NVIDIA. Программная экосистема Habana, по словам Intel, достигла необходимой степени зрелости, а решения компании позволяют говорить о конкурентоспособности даже с NVIDIA H100. Производительность и масштабируемость Gaudi2 была протестирована с помощью GPT-3 (целиком LLM обучать в рамках бенчмарка не требуется) — покорить этот рубеж в MLPerf смогли только NVIDIA и Intel. Кластер из 384 ускорителей Gaudi2 смог завершить обучение за 311 минут, а при росте количества ускорителей с 256 до 384 показал 95 % эффективность масштабирования. Также заслуживает упоминания тот факт, что по сравнению с ноябрьскими результатами Gaudi2 демонстрируют 10-% и 4-% прирост производительности в BERT и ResNet соответственно, причём обошлось без специальной отладки и оптимизации. Кластер из 32 процессоров Intel Xeon Sapphire Rapids тоже заработал «из коробки», показав неплохие в своём классе результаты. Так, в «закрытом» дивизионе он смог «справиться» BERT и ResNet-50 за 48 и 88 минут соответственно. Поддержка матричных расширений Intel Advanced Matrix Extensions (AMX) обеспечила солидный прирост производительности.
29.06.2023 [18:46], Алексей Степин
Опубликованы результаты тестов Intel Xeon Max: набортная HBM-память даёт заметное преимущество в ИИ- и HPC-нагрузкахПроцессоры Intel серии Xeon Max отличаются от своих обычных, «не максимальных» собратьев наличием интегрированной памяти HBM2e объёмом 64 Гбайт. Что же это даёт им на практике? Этот вопрос исследовал ресурс Phoronix — им в руки новейшие двухсокетные системы Supermicro Hyper SuperServer SYS-221H-TNR с чипами Xeon Max 9468 и 9480. Напомним, Intel Xeon Max отличается от своих обычных собратьев серии Sapphire Rapids наличием 64 Гбайт HBM2e на борту, причём объём одинаков для всех моделей, хотя количество ядер может варьироваться от 32 до 56. Процессоры Xeon Max были протестированы в трёх режимах: только с памятью HBM (без DDR5), с HBM в качестве кеша для 512 Гбайт DDR5, а также в «плоском» режиме, но без отдачи HBM какому-либо процессу, то есть фактически только с DDR5. Тесты показали, что два первых режима действительно могут обеспечить преимущество в некоторых сценариях нагрузки. Результаты получились вполне закономерными: там, где сравнительно небольшого объёма HBM2e достаточно, режим HBM Only оказывается самым быстрым из-за высокой пропускной способности и отсутствия необходимости как-то синхронизировать работу с DDR5. Однако режим кеширования тоже обеспечивает выигрыш, хотя в ряде нагрузок, таких как OpenFOAM, он не такой большой. В ИИ-сценариях, в частности, в тестах OpenVINO, разница меньше, а иногда отключение HBM2e и вовсе позволяет добиться чуть лучшей производительности, особенно на системе с Xeon Max 9480, где на каждое ядро приходится меньше памяти. Но в других тестах, таких как PETSc и Stress-NG, использование HBM2e может дать огромный прирост производительности, который глупо было бы игнорировать. В целом, можно уверенно заявлять, что в среднем, прирост производительности при HBM-кешировании составляет 10–11 %, а при отказе от DDR5 к этому значению можно добавить ещё около 8 %. Также очевидно, что потребление системы в таком режиме заметно ниже, поскольку не требуется питание для модулей DDR5. В целом можно говорить о 18–20 % превосходства на широком спектре нагрузок, сообщает Phoronix.
29.06.2023 [17:37], Сергей Карасёв
Intel пришлось приостановить поставки некоторых чипов Xeon Sapphire Rapids из-за багаКорпорация Intel, по сообщению ресурса Tom's Hardware, вынуждена приостановить поставки определённых процессоров Xeon Sapphire Rapids из-за обнаружившейся ошибки. Баг может провоцировать внезапную остановку работы системы. Специалисты Intel уже занимаются решением проблемы. Чипы Xeon Sapphire Rapids существуют в двух конструктивных исполнениях — XCC и MCC. В первом случае применяется сборка из четырёх кристаллов, а количество вычислительных ядер варьируется от 36 до 60. Второй вариант имеет монолитную конструкцию с числом ядер до 32. Известно, что ошибка проявляется в отдельных MCC-моделях Sapphire Rapids. Отгрузки этих продуктов, как отмечается, были приостановлены в середине июня. По всей видимости, Intel работает над новой версией прошивки, которая позволит исправить баг. Если решить проблему удастся таким способом, компании не придётся инициировать программу отзыва и тратить значительные средства на обмен дефектных изделий. «Нам стало известно о проблеме с частью процессоров Xeon Sapphire Rapids (MCC) со средним числом ядер, которая может прерывать работу системы при определённых условиях, и мы активно изучаем её. Из соображений предосторожности мы временно приостановили поставки этих чипов», — сообщил представитель Intel. Нужно отметить, что ошибки в процессорах — не редкость. Так, чипы Intel Skylake вышли с 53 известными багами, а шесть месяцев спустя Intel сообщила ещё о 40 ошибках. А недавно стало известно, что процессоры EPYC Rome перестают функционировать через 1044 дня непрерывной работы, но устранять ошибку AMD не планирует.
28.06.2023 [17:22], Алексей Степин
Появились первые фото Intel Xeon Granite Rapids для огромного сокета LGA 7529В 2024 году на смену платформам Sapphire Rapids и Emerald Rapids корпорация Intel планирует выпустить чипы Granite Rapids на базе производительных Р-ядер. Эти процессоры будут производиться с использованием техпроцесса Intel 3 и будут поистине огромными в смысле физических размеров — на днях энтузиасту с ником YuuKi_AnS удалось получить первые фотографии Granite Rapids. Тенденция к укрупнению процессорных разъёмов не нова: эта гонка стартовала аккурат в момент переезда контроллера памяти, а затем и шины PCI Express из чипсета в сам процессор, и постепенно наращивание возможностей обеих интерфейсов сделало своё дело. Но снимки, опубликованные YuuKi_AnS, впечатляют даже на фоне AMD SP5 для платформы Genoa. Неудивительно, новый разъём превосходит SP5 даже по количеству контактов — 7529 против 6096. Процессоры Granite Rapids получат 12 каналов DDR5-5600, 96 линий PCIe 5.0 и поддержку CXL 2.0. По размерам новые процессоры приблизительно в 1,7 раза больше Sapphire Rapids, ожидается, что размеры LGA-7529 составят 105 × 70 мм, что действительно больше, чем у AMD SP5, где аналогичные размеры составляют 75 × 72 мм; для сравнения, LGA-4189 (Ice Lake-SP) имеет габариты 77,6 × 56,6 мм. Технически процессоры будут состоять из двух кристаллов с архитектурой Redwood Cove, включающей в себя только Р-ядра. Компания Intel планирует минимум три варианты охлаждения, рассчитанных на 400–500 Вт. Более подробно о Granite Rapids «синие» расскажут на мероприятии Intel Innovation, запланированном на сентябрь этого года.
26.06.2023 [18:37], Сергей Карасёв
Установил и забыл: Iceotope, HPE и Intel представили edge-сервер KUL RAN с жидкостным охлаждениемКомпании Iceotope, HPE и Intel анонсировали платформу KUL RAN — специализированный edge-сервер для телекоммуникационной отрасли. На базе новинки могут развёртываться vRAN-платформы, сети 5G и другие сервисы связи. Отмечается, что KUL RAN представляет собой сверхнадёжное и энергоэффективное устройство. В основу положен сервер HPE ProLiant DL110 с процессорами Xeon Sapphire Rapids. Новинка предназначена для монтажа в 19" стойку уменьшенной глубины. Платформа включает полностью автономную СЖО Precision Liquid Cooling, разработанной специалистами Iceotope. Утверждается, что благодаря Precision Liquid Cooling платформа KUL RAN обеспечивает экономию энергии до 40 % по сравнению с другими edge-серверами аналогичного класса. Разработчики отмечают, что платформа KUL RAN создавалась по концепции «установил и забыл». Устройство заключено в корпус со степенью защиты IP67, а модульная конструкция KUL RAN позволяет быстро изменять конфигурацию для различных сценариев развёртывания. Отмечается также, что, в отличие от традиционного оборудования для дата-центров, система KUL RAN разработана таким образом, чтобы превосходить стандарты NEBS, соблюдение которых необходимо в рамках телекоммуникационных инфраструктур.
26.06.2023 [15:32], Сергей Карасёв
QNAP анонсировала гибридный NAS TS-855X на базе Intel Atom с поддержкой 2.5/10GbEКомпания QNAP Systems расширила ассортимент «настольных» NAS, представив модель TS-855X на аппаратной платформе Intel. Новинка позволяет сформировать высокопроизводительное гибридное хранилище на базе HDD и SSD и с поддержкой 10GbE. Применён процессор Atom C5125 поколения Parker Ridge (8C/8T; 2,8 ГГц; 50 Вт; 9 Мбайт кеша). Объём оперативной памяти DDR4 составляет 8 Гбайт в стандартной конфигурации и 128 Гбайт в максимальной. В оснащение входят 5 Гбайт флеш-памяти для хранения ОС. Хранилище оборудовано шестью отсеками для накопителей LFF/SFF и двумя SFF-отсеками. Во всех случаях задействован интерфейс подключения SATA-3; допускается горячая замена. Кроме того, есть два коннектора для SSD-модулей M.2 2280 с интерфейсом PCIe 3.0 x4. Новинка располагает одним сетевым портом 10GbE и двумя портами 2.5GbE. Дополнительно в слот расширения PCIe 3.0 x4 может быть установлен адаптер 25GbE. Предусмотрены три порта USB 3.2 Gen1 (один располагается на фронтальной панели) и один разъём USB 2.0. Модель TS-855X выполнена в корпусе с габаритами 231,9 × 292,9 × 319,8 мм, а вес составляет 8,5 кг (без установленных накопителей). Диапазон рабочих температур — от 0 до +40 °C. Применена система воздушного охлаждения с двумя вентиляторами диаметром 80 мм. Питание обеспечивает блок мощностью 250 Вт. В качестве программной платформы используется QTS 5.0.1.
23.06.2023 [01:42], Владимир Мироненко
Завершён монтаж суперкомпьютера Aurora на базе Intel Max: 2 Эфлопс, более 20 Тбайт HBM2e и 220-Пбайт хранилищеАргоннская национальная лаборатория (ANL) Министерства энергетики США и Intel объявили о завершении установки всех 10 624 блейд-серверов суперкомпьютера Aurora. Система, как сообщается, обеспечит пиковую теоретическую FP64-производительность более 2 Эфлопс, используя массив из десятков тысяч процессоров Intel Xeon Max, а также ускорителей Data Center GPU Max (Ponte Vecchio). Система будет использоваться для самых разных рабочих нагрузок, от моделирования ядерного синтеза до расчётов по аэродинамике и медицинских исследований. Для Intel (в отличие от AMD) это будет первая в истории машина экзафлопсного класса. Ожидается, что Aurora может возглавить ноябрьский рейтинг TOP500. Впрочем, её может опередить El Capitan или неожиданно появившаяся китайская система. Суперкомпьютер Aurora оснащён 21 248 CPU с более чем 1,1 млн ядер и 63 744 ускорителями, которые будут обслуживать рабочие нагрузки в области ИИ и высокопроизводительных вычислений (HPC). Процессоры Aurora имеют 1,36 Пбайт встроенной памяти HBM2E и дополнены 19,9 Пбайт DDR5, ещё 8,16 Пбайт памяти HBM2E входят в состав ускорителей Ponte Vecchio. Машина состоит из 166 стоек (66 «лезвий» в каждой) в восьми рядах. DAOS-хранилище Aurora содержит 1024 All-Flash узла общей ёмкостью 220 Пбайт и пропускной способностью 31 Тбайт/с. На данный момент ANL не сообщила официальные данные об энергопотреблении Aurora и её подсистемы хранения. Aurora создана на базе платформы HPE Cray Shasta с интерконнектом HPE Slingshot. Хотя блейд-серверы Aurora уже установлены, суперкомпьютеру предстоит пройти ряд приёмочных испытаний, что является обычной процедурой для таких систем. А пока он будет использоваться для обучения крупномасштабных научных моделей для генеративного ИИ.
17.06.2023 [15:11], Владимир Мироненко
Lenovo представила новые ИИ-серверы для периферии и ЦОДLenovo планирует инвестировать $1 млрд в течение трёх лет в разработку оборудования и программного обеспечения для ИИ-сектора. Речь идёт не только о решениях для ЦОД, но и для периферии. Сейчас Lenovo занимается сертификацией большей части своего существующего оборудования для обработки ИИ-нагрузок. По словам Роберта Дейгла (Robert Daigle), старшего менеджера подразделения Lenovo ISG Global AI, компания работала с 45 партнёрами над созданием 150 систем и ИИ-решений «под ключ». На днях компания анонсировала два новых ИИ-сервера для периферийных вычислений. ThinkEdge SE360 V2 предназначен ускорених таких нагрузок, как компьютерное зрение, голосовой ИИ и генеративный ИИ. ThinkEdge SE360 V2 построен на базе процессоров Intel Xeon D-2700 и ускорителей NVIDIA A2/L4 (с поддержкой NVIDIA AI Enterprise) или Qualcomm Cloud AI 100. Устройство имеет компактные размеры (2U, ½ ширины) и прочный корпус, что позволяет его использовать в условиях неблагоприятной окружающей среды. 1U-сервер Lenovo ThinkEdge SE350 V2 разработан для гибридного облака и использования в гиперконвергентной инфраструктуре. У этого сервера увеличенная ёмкость дисковой подсистемы в сочетании с процессором Intel Xeon D-2700 и 100G-подключением. Сервер главным образом предназначен для консолидации рабочих нагрузок, резервного копирования данных при совместной работе и доставке контента. Также Lenovo представила ИИ-сервер ThinkSystem SR675 V3 на базе AMD EPYC Genoa. В шасси высотой 3U можно разместить HGX-плату с четырьмя SXM-ускорителями H100 или четыре или восемь ускорителей двойной ширины NVIDIA или AMD. В зависимости от конфигурации доступны различные варианты дисковой подсистемы, но упор сделан на NVMe SSD. Также для платформы есть опция установки фирменной СЖО Neptune. ThinkSystem SR675 V3 оптимизирован для работы с цифровыми двойникам в сочетании с ИИ с целью улучшения бизнес-процессов и результатов проектирования. Lenovo также работала с NVIDIA над повышением производительности рабочих нагрузок Omniverse Enterprise. Ещё один новый проект Lenovo — Центр передового опыта Lenovo AI Discover, который проводит семинары для клиентов, желающих начать работу с такими технологиями, как генеративный ИИ и компьютерное зрение. |
|