Материалы по тегу: intel
16.09.2025 [11:53], Сергей Карасёв
Silver Lake закрыла сделку по покупке контролирующей доли в бизнесе AlteraЧастная инвестиционная компания Silver Lake завершила сделку по приобретению контролирующей 51 % доли в структуре Altera — разработчика FPGA. Продавцом выступила корпорация Intel, которая сохранила за собой оставшиеся 49 %. Стоимость реализованного актива оценивается в $3,3 млрд. Intel купила Altera в 2015 году за $16,7 млрд, создав на её основе подразделение Programmable Solutions Group (PSG) по разработке FPGA и сопутствующего ПО. О договоре с Silver Lake по продаже контролирующей доли в бизнесе Altera было объявлено в апреле нынешнего года. Как отмечается, завершение сделки с Silver Lake превращает Altera в крупнейшего в мире независимого поставщика решений на базе FPGA. Ожидается, что благодаря операционной независимости и поддержке Silver Lake компания Altera сможет повысить гибкость деятельности, а также получит дополнительные ресурсы для ускорения разработки передовых FPGA-решений и предоставления расширенной поддержки клиентам и партнёрам по всему миру. Altera при участии Silver Lake рассчитывает укрепить позиции в ключевых секторах, включая промышленную автоматизацию, робототехнику, аэрокосмическую отрасль, оборонный сегмент, дата-центры, телекоммуникационное оборудование и периферийные ИИ-системы. ![]() Источник изображения: Altera В 2024 финансовом году Altera получила $1,54 млрд выручки, тогда как в I половине 2025-го этот показатель составил $816 млн. В период с января по июнь включительно компания понесла операционные расходы в размере $356 млн. Продажа активов Altera происходит на фоне значительных структурных изменений в Intel и растущего финансового давления. Корпорация оказалась в сложном положении, уступив NVIDIA на рынке ИИ-ускорителей. В конце августа Intel объявила о достижении «исторического соглашения» с администрацией президента США Дональда Трампа (Donald Trump): американские власти приобретут 9,9 % долю в корпорации, а стоимость сделки составит $8,9 млрд. Это поможет Intel в расширении производства микросхем на территории США.
12.09.2025 [23:07], Владимир Мироненко
Intel Arc Pro впервые поучаствовали в бенчмарках MLPerf Inference, но в лидерах предсказуемо осталась NVIDIAMLCommons объявил результаты набора бенчмарков MLPerf Inference v5.1. Последний раунд демонстрирует, насколько быстро развивается инференс и соответствующие бенчмарки, пишет ресурс HPCwire. В этом раунде было рекордное количество заявок — 27. Представлены результаты сразу пяти новых ускорителей: AMD Instinct MI355X, Intel Arc Pro B60 48GB Turbo, NVIDIA GB300, NVIDIA RTX 4000 Ada 20GB, NVIDIA RTX Pro 6000 Blackwell Server Edition. Всего же количество результатов MLPerf перевалило за 90 тыс. результатов. В текущем раунде были представлены три новых бенчмарка: тест рассуждений на основе модели DeepSeek-R1, тест преобразования речи в текст на основе Whisper Large v3 и небольшой тест LLM на основе Llama 3.1 8B. Как отметил ресурс IEEE Spectrum, бенчмарк на основе модели Deepseek R1 671B (671 млрд параметров), более чем в 1,5 раза превышает самый крупный бенчмарк предыдущего раунда на основе Llama 3.1 405B. В модели Deepseek R1, ориентированной на рассуждения, большая часть вычислений выполняется во время инференса, что делает этот бенчмарк ещё более сложным. Что касается самого маленького бенчмарка, основанного на Llama 3.1 8B, то, как поясняют в MLCommons, в отрасли растёт спрос на рассуждения с малой задержкой и высокой точностью. SLM отвечают этим требованиям и являются отличным выбором для таких задач, как реферирование текста или периферийные приложения. В свою очередь бенчмарк преобразования голоса в текст, основанный на Whisper Large v3, был разработан в ответ на растущее количество голосовых приложений, будь то смарт-устройства или голосовые ИИ-интерфейсы. NVIDIA вновь возглавила рейтинг MLPerf Inference, на этот раз с архитектурой Blackwell Ultra, представленной платформой NVIDIA GB300 NVL72, которая установила рекорд, увеличив пропускную способность DeepSeek-R1 на 45 % по сравнению с предыдущими системами GB200 NVL72 (Blackwell). NVIDIA также продемонстрировала высокие результаты в бенчмарке Llama 3.1 405B, который имеет более жёсткие ограничения по задержке. NVIDIA применила дезагрегацию, разделив фазы работы с контекстом и собственно генерацию между разными ускорителями. Этот подход, поддерживаемый фреймворком Dynamo, обеспечил увеличение в 1,5 раза пропускной способности на один ускоритель по сравнению с традиционным обслуживанием на системах Blackwell и более чем в 5 раз по сравнению с системами на базе Hopper. NVIDIA назвала «дезагрегированное обслуживание» одним из ключевых факторов успеха, помимо аппаратных улучшений при переходе к Blackwell Ultra. Также свою роль сыграло использованием фирменного 4-бит формата NVFP4. «Мы можем обеспечить точность, сопоставимую с BF16», — сообщила компания, добавив, что при этом потребляется значительно меньше вычислительной мощности. Для работы с контекстом NVIDIA готовит соускоритель Rubin CPX. В более компактных бенчмарках решения NVIDIA также продемонстрировали рекордную пропускную способность. Компания сообщила о более чем 18 тыс. токенов/с на один ускоритель в бенчмарке Llama 3.1 8B в автономном режиме и 5667 токенов/с на один ускоритель в Whisper. Результаты были представлены в офлайн-, серверных и интерактивных сценариях, при этом NVIDIA сохранила лидерство в расчете на GPU во всех категориях. AMD представила результаты AMD Instinct MI355X только в «открытой» категории, где разрешены программные модификации модели. Ускоритель MI355X превзошёл в бенчмарке Llama 2 70B ускоритель MI325X в 2,7 раза по количеству токенов/с. В этом раунде AMD также впервые обнародовала результаты нескольких новых рабочих нагрузок, включая Llama 2 70B Interactive, MoE-модель Mixtral-8x7B и генератор изображений Stable Diffusion XL. В число «закрытых» заявок AMD входили системы на базе ускорителей AMD MI300X и MI325X. Более продвинутый MI325X показал результаты, схожие с показателями систем на базе NVIDIA H200 на Llama 2 70b, в комбинированном тесте MoE и тестах генерации изображений. Кроме того, компанией была представлена первая гибридная заявка, в которой ускорители AMD MI300X и MI325X использовались для одной и той же задачи инференса — бенчмарка на базе Llama 2 70b. Возможность распределения нагрузки между различными типами ускорителей — важный шаг, отметил IEEE Spectrum. В этом раунде впервые был представлен и ускоритель Intel Arc Pro. Для бенчмарков использовалась видеокарта MaxSun Intel Arc Pro B60 Dual 48G Turbo, состоящая из двух GPU с 48 Гбайт памяти, в составе платформы Project Battlematrix, которая может включать до восьми таких ускорителей. Система показала результаты на уровне NVIDIA L40S в небольшом тесте LLM и уступила ему в тесте Llama 2 70b. Следует также отметить, что в этом раунде, как и в предыдущем, участвовала Nebius (ранее Yandex N.V.). Компания отметила, что результаты, полученные на односерверных инсталляциях, подтверждают, что Nebius AI Cloud обеспечивает «высочайшие» показатели производительности для инференса базовых моделей, таких как Llama 2 70B и Llama 3.1 405B. В частности, Nebius AI Cloud установила новый рекорд производительности для NVIDIA GB200 NVL72. По сравнению с лучшими результатами предыдущего раунда, её однохостовая инсталляция показала прирост производительности на 6,7 % и 14,2 % при работе с Llama 3.1 405B в автономном и серверном режимах соответственно. «Эти два показателя также обеспечивают Nebius первое место среди других разработчиков MLPerf Inference v5.1 для этой модели в системах GB200», — сообщила компания.
12.09.2025 [16:30], Сергей Карасёв
«Аквариус» представил российские серверы Aquarius AQserv AS на базе Intel Xeon Ice Lake-SPРоссийская компания «Аквариус» анонсировала двухсокетные серверы семейства Aquarius AQserv AS на аппаратной платформе Intel Xeon Ice Lake-SP. Устройства подходят для широкого спектра задач, включая виртуализацию и развёртывание программно-определяемых хранилищ (SDS), а также построение систем резервного копирования, видеонаблюдения и потокового видео. В серию вошли модели Aquarius AQserv T50 D108AS, Aquarius AQserv T50 D212AS и Aquarius AQserv T50 D436AS в форм-факторе 1U, 2U и 4U соответственно. Младшая допускает установку процессоров с TDP до 185 Вт, две другие — до 235 Вт. Все серверы располагают 16 слотами для модулей DDR4-3200 суммарным объёмом до 4 Тбайт. У версии Aquarius AQserv T50 D108AS во фронтальной части расположены по четыре отсека для накопителей SFF (SAS/SATA) и LFF/SFF (SAS/SATA/NVMe) с возможностью горячей замены. Есть два внутренних коннектора для SSD типоразмера M.2 2280 с интерфейсом PCIe 4.0 x4, а также по одному слоту PCIe 4.0 x16 (x8) и PCIe 4.0 x16 для низкопрофильных карт расширения. Применены два блока питания мощностью 750 Вт с сертификатом 80 PLUS Platinum / Titanium. Модель Aquarius AQserv T50 D212AS, в свою очередь, получила четыре отсека для накопителей LFF/SFF (SAS/SATA/NVMe) и восемь отсеков для устройств LFF/SFF (SAS/SATA) во фронтальной части, два тыльных посадочных места для накопителей SFF (SAS/SATA/NVMe) c горячей заменой и два внутренних коннектора M.2 2280 (PCIe 4.0 x4). Доступны четыре слота PCIe 4.0 x16 и два разъёма PCIe 4.0 x8 для низкопрофильных карт расширения. За питание отвечают два блока мощностью до 2000 Вт с сертификатом 80 PLUS Platinum / Titanium. Старшая версия, Aquarius AQserv T50 D436AS, может нести на борту до 40 накопителей в следующей конфигурации: 24 × LFF/SFF (SAS/SATA) спереди, 2 × SFF SAS/SATA/NVMe) и 12 × LFF/SFF (SAS/SATA) сзади, 2 × M.2 2280 (PCIe 4.0 x4) во внутренней части. Предусмотрены четыре слота PCIe 4.0 x16 и два слота PCIe 4.0 x8. Установлены два блока питания мощностью до 2000 Вт (80 PLUS Platinum / Titanium). Все новинки оборудованы контроллером Aspeed AST2500, двумя портами 2.5GbE (Intel I225/I226) и двумя портами 10GbE (Intel x710), интерфейсами D-Sub и USB 3.2 Gen1 Type-A, последовательным портом. Применена система воздушного охлаждения с быстрозаменяемыми вентиляторами с ШИМ-управлением. Серверы снабжены системой удалённого управления «Аквариус Командир» с выделенным портом, который предоставляет полный контроль через WebUI, а также IPMI 2.0 и Redfish. Кроме того, устройства имеют расширенные возможности администрирования из любой точки мира (KVMoIP и Remote Media Redirection) и поддержку централизованного мониторинга. Заявлена совместимость с Astra Linux 1.7.5 и выше, «Альт Сервер» 10, «РЕД ОС» 7.3 и выше, Windows Server 2016/2019, Red Hat Enterprise Linux Server 8.x и Ubuntu 22.04.
12.09.2025 [00:44], Владимир Мироненко
Intel покидает уже второй по счёту главный архитектор Xeon в этом годуРесурсу CRN стало известно о предстоящем уходе из Intel в конце этого месяца Ронака Сингхала (Ronak Singhal), который стал уже вторым главным архитектором процессоров Xeon, покинувшим компанию за последние восемь месяцев после ухода в январе Сайлеша Коттапалли (Sailesh Kottapalli) в Qualcomm. Intel подтвердила CRN, что Сингхал покидает компанию. Уход Сингхала ресурс связывает с назначением Кеворка Кечичяна (Kevork Kechichian) главой Группы ЦОД (DCG) в рамках реорганизации компании, проводимой гендиректором Лип-Бу Таном (Lip-Bu Tan). В последнее время Сингхал руководил реализацией технологической стратегии и управлением продуктами в разрезе серверных процессоров Xeon. Ответственность Сингхалпа также распространялась на разработку платформ и множества сопутствующих технологий, касающихся памяти, безопасности и ИИ в Xeon. Ранее Сингхал руководил разработкой серверной архитектуры Haswell и Broadwell, последний из которых, по его словам, стал первым 14-нм серверным чипом компании. Он также возглавлял разработку IP-блоков для процессоров Xeon, Core и Atom. ![]() Источник изображения: Intel В конце июля Тан сообщил сотрудникам, что компания «сосредоточена на восстановлении» доли рынка серверных процессоров, наращивая выпуск чипов Granite Rapids, а также «расширяя возможности для нагрузок гиперскейлеров». Как отметил финансовый директор Дэвид Цинснер (David Zinsner), линейка серверных продуктов Diamond Rapids, запуск которой запланирован на следующий год, «не даёт желаемого результата». По его словам, следующее поколение — Coral Rapids — является «реальной возможностью», которая позволит Intel «сделать действительно большой шаг вперёд».
11.09.2025 [17:14], Владимир Мироненко
Перезагрузка кадров в высшем эшелоне должна помочь Intel в укреплении бизнесаIntel объявила о кадровых изменениях в руководящем составе, «которые поддерживают стратегию компании по укреплению своего основного продуктового бизнеса, созданию надёжного производственного предприятия и развитию инженерной культуры во всем бизнесе». Новые назначения являются дальнейшей реализацией объявленного Лип-Бу Таном на апрельском мероприятии Intel Vision курса на реорганизацию компании, включающую перестройку производства и структуры управления, а также устранение факторов, препятствующий её развитию, таких как излишняя бюрократия. Кеворк Кечичян (Kevork Kechichian) возглавил группу ЦОД (DCG), Джим Джонсон (Jim Johnson) был назначен старшим вице-президентом и генеральным директором группы клиентских вычислений Intel (CCG). А Шринивасана «Шрини» Айенгар (Srinivasan «Srini» Iyengar), старший вице-президент и научный сотрудник, будет руководить вновь созданной Центральной инженерной группой (Central Engineering Group, CEG). Кечичян, Джонсон и Айенгар будут подчиняться непосредственно гендиректору Лип-Бу Тану (Lip-Bu Tan). ![]() Источник изображения: Intel Intel расширила полномочия Наги Чандрасекарана (Naga Chandrasekaran), исполнительного вице-президента и главного директора по технологиям и операциям Intel Foundry, включив в них услуги литографического производства. Ранее в этом году Intel консолидировала разработку технологий и производство под руководством Чандрасекарана. Также было объявлено об уходе Мишель Джонстон Холтхаус (Michelle Johnston Holthaus), бывшего временного со-генерального директора, которая долгое время занимала пост исполнительного директора. До этого она была гендиректором по продуктам Intel. В связи с неудовлетворительной работой Intel в апреле разделила свою группу ЦОД и ИИ (DCAI), отделив направление ЦОД (DCG), которое сосредоточится на выпуске высокопроизводительных процессоров и сопутствующего оборудования. Кеворк Кечичян, имеющий 30-летний опыт работы в сфере технологий, до этого был исполнительным вице-президентом Arm по инжинирингу, а также занимал руководящие инженерные должности в NXP Semiconductors и Qualcomm. На новом месте он будет руководить бизнесом Intel в области ЦОД в облачных и корпоративных средах, включая процессоры Intel Xeon. «Кеворк обладает мощным сочетанием стратегического видения, технической глубины и операционной строгости, что поможет нам воспользоваться возможностями роста на рынке ЦОД», — отметил Тан в своём заявлении. Рон Уэстфолл (Ron Westfall), аналитик HyperFrame Research, сообщил ресурсу Data Center Knowledge, что назначение Кечичяна соответствует стратегии Тана в отношении группы ЦОД, назвав его «самым значительным» шагом в перестановках в руководстве. «Его обширный опыт работы в Arm, где он руководил серьёзным переходом от лицензирования интеллектуальной собственности к комплексным решениям, позволяет предположить, что Intel ищет руководителя, способного не только управлять текущим бизнесом, но и внедрять более комплексный подход, ориентированный на решения, чтобы конкурировать на высококонкурентном рынке ЦОД», — считает аналитик. В свою очередь, аналитик Moor Insights & Strategy Мэтт Кимбалл (Matt Kimball) считает, что Кечичяна назначили руководителем основного подразделения Intel по ЦОД из-за планов по воплощению концепции кастомизации. «Возможно, здесь есть что-то большее… им нужен человек, более гибкий в плане операционализации и встраивания в организацию, ведь кастомизация — это совсем не то же самое, что простое объединение нескольких ядер или увеличение тактовой частоты, — заявил Кимбалл ресурсу Data Center Knowledge. — Они говорили о чём-то более похожем на то, что делает Arm». Комментируя новость об уходе Холтхаус, Уэстфолл заявил, что это событие «знаменует собой конец целой эпохи». «Но с этими новыми назначениями Intel, несомненно, реорганизует высшее руководство, чтобы сделать его более гибким и сконцентрированным на заявленных стратегических целях: инновациях, реализации проектов и клиентоориентированности», — добавил он.
10.09.2025 [12:25], Сергей Карасёв
QNAP представила сетевые хранилища серии QuNAS на базе Intel Twin LakeКомпания QNAP Systems анонсировала сетевые хранилища семейства QuNAS, ориентированные на применение в сфере малого и среднего бизнеса. В серию вошли модели Qu805, Qu605 и Qu405, рассчитанные соответственно на восемь, шесть и четыре накопителя формата LFF или SFF с интерфейсом SATA-3. В основу новинок, выполненных в «настольном» форм-факторе, положена аппаратная платформа Intel Twin Lake. В зависимости от модификации задействован чип Intel Processor N150 (четыре ядра; до 3,6 ГГц; 6 Вт) или Core i3-N355 (восемь ядер; до 3,9 ГГц; 15 Вт). В состав этих изделий входит ускоритель Intel UHD Graphics. Объём оперативной памяти LPDDR5 составляет 8 или 16 Гбайт (один слот для модуля SO-DIMM). В оснащение NAS также входит флеш-модуль eMMC вместимостью 8 Гбайт. Отсеки для накопителей у устройств располагаются во фронтальной части; допускается горячая замена. Кроме того, предусмотрены два внутренних коннектора M.2 2280 для NVMe SSD с интерфейсом PCIe 3.0 x1. Хранилища наделены двумя сетевыми портами 2.5GbE с гнёздами RJ45, двумя портами USB 3.2 Gen2 Type-A и одним портом USB 3.2 Gen2 Type-C (на лицевой панели), а также интерфейсом HDMI 2.1 с поддержкой видео с разрешением до 4096 × 2160 пикселей (60 Гц). Габариты модели Qu805 составляют 165 × 217 × 285 мм, масса — 3,1 кг (без установленных накопителей). Версии Qu605 и Qu405 имеют размеры соответственно 165 × 217 × 226 и 165 × 217 × 168 мм и весят 2,52 и 2,15 кг. Диапазон рабочих температур — от 0 до +40 °C. Питание обеспечивает внешний адаптер мощностью 96–150 Вт.
08.09.2025 [16:34], Сергей Карасёв
Hyper-Threading наоборот: Intel разрабатывает технологию программно-определяемых суперъядерКорпорация Intel подала патентную заявку на технологию так называемых программно-определяемых суперъядер Software Defined Super Cores (SDC). Решение призвано устранить неэффективность традиционных высокопроизводительных ядер в составе современных CPU. Отмечается, что в мощных процессорах высокопроизводительные ядра зачастую жертвуют энергоэффективностью ради увеличения быстродействия путём динамического повышения тактовой частоты. Кроме того, существуют проблемы аппаратного масштабирования. При использовании более крупных ядер уменьшается их общее количество, что ограничивает многопоточную производительность. В случае гибридных архитектур, сочетающих производительные и энергэффективные ядра, возникают дополнительные сложности при проектировании и тестировании. Новый подход Intel сводится к тому, что несколько соседних физических ядер объединяются в одно виртуальное суперъядро. Специальный программный инструмент разбивает программу на сегменты инструкций, которые затем обрабатываются параллельно физическими ядрами: например, одно ядро может обслуживать нечётные сегменты, другое — чётные. При этом для операционной системы и собственно приложения эти ядра создают иллюзию одного производительного ядра. Благодаря синхронизации достигается упорядоченная обработка кода. В одно суперъядро предлагается объединять прежде всего ядра, принадлежащие одному и тому же классу — например, только энергоэффективные или только производительные. Ядра могут совместно использовать свои кеши или работать независимо. В любом случае система гарантирует упорядочение памяти и архитектурную целостность. Перевод физических ядер в режим SDC может осуществляться динамически с учётом текущей нагрузки и особенностей работы конкретной программы. Ключевыми преимуществами предложенной архитектуры являются повышение энергетической эффективности и возможность масштабирования ресурсов. Кроме того, SDC открывает путь к созданию более адаптивных вычислительных платформ.
03.09.2025 [17:22], Сергей Карасёв
«К2 НейроТех» представил ПАК-AI 2.0 с увеличенной на 30 % производительностью
emerald rapids
gpu
hardware
intel
sapphire rapids
xeon
yadro
ии
к2тех
россия
сделано в россии
сервер
Компания «К2 НейроТех», подразделение компании «К2Тех», анонсировала программно-аппаратный комплекс ПАК-AI 2.0, предназначенный для построения локальной ИИ-инфраструктуры. Утверждается, что по сравнению с оригинальной версией платформы, дебютировавшей в июне нынешнего года, производительность поднялась на 30 %. ПАК объединяют аппаратный слой, платформу управления, преднастроенное ПО и инструменты для работы с ИИ. Решение может быть кастомизировано под конкретные задачи заказчика. Количество серверных стоек масштабируется для обеспечения необходимой производительности. Реализован встроенный маркетплейс приложений, через который в числе прочего доступна платформа Yandex Cloud AI Studio для создания приложений на базе ИИ. Обновленная аппаратная платформа ПАК-AI 2.0 включает шесть серверов YADRO, в том числе серверы для глубокого обучения, инференса и работы с большими данными, а также новый GPU-сервер G4208P G3. Последний специально разработан для обучения нейросетей, обработки больших объемов данных и построения распределённых ИИ-кластеров. Этот сервер несёт на борту два процессора Intel Xeon Sapphire Rapids или Emerald Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт DDR5. Возможна установка до восьми GPU двойной ширины (PCIe 5.0 x16) с энергопотреблением до 450 Вт каждый. Помимо улучшенной аппаратной части, ПАК-AI 2.0 получил доработанную сборку Kubernetes, которая предоставляет в режиме самообслуживания работу с различными ускорителями (в том числе PCIe, SXM) в формате GPU, vGPU MIG и увеличивает производительность GPU до 30 %. Благодаря этому, как утверждается, повышается эффективность запуска моделей машинного обучения и снижаются эксплуатационные расходы. «К2 НейроТех» заявляет, что ПАК позволяет в короткие сроки развернуть IT-инфраструктуру, которая максимально раскрывает потенциал ИИ, обеспечивает высокий уровень безопасности и соответствие регламентам ИБ, а также прозрачное управление данными. Благодаря наличию LLM-моделей и агентов, предварительно настроенных для выполнения бизнес-задач, ускоряется вывод продуктов на рынок.
02.09.2025 [12:15], Сергей Карасёв
MSI выпустила серверы на платформе NVIDIA MGX с ускорителями RTX Pro 6000 Blackwell Server EditionКомпания MSI анонсировала серверы CG480-S5063 и CG290-S3063 на модульной архитектуре NVIDIA MGX. Новинки, ориентированные на задачи ИИ, оснащаются ускорителями NVIDIA RTX Pro 6000 Blackwell Server Edition с 96 Гбайт GDDR7. Модель CG480-S5063 выполнена в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6700E (Sierra Forest-SP) или Xeon 6500P/6700P (Granite Rapids-SP) с показателем TDP до 350 Вт. Доступны 32 слота для модулей оперативной памяти DDR5 (RDIMM 6400/5200 или MRDIMM 8000). Во фронтальной части могут быть размещены 20 накопителей E1.S с интерфейсом PCIe 5.0 x4 (NVMe). Кроме того, есть два внутренних коннектора М.2 2280/22110 (PCIe 5.0 x2; NVMe). Система предлагает восемь слотов PCIe 5.0 x16 для карт FHFL двойной ширины и пять слотов PCIe 5.0 x16 для карт FHFL одинарной ширины. Таким образом, могут быть задействованы до восьми ИИ-ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. В оснащение входят контроллер ASPEED AST2600, два сетевых порта 10GbE на основе Intel X710-AT2, выделенный сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Питание обеспечивают четыре блока мощностью 3200 Вт с сертификатом 80 PLUS Titanium. Задействовано воздушное охлаждение с вентиляторами, допускающими горячую замену. Диапазон рабочих температур — от 0 до +35 °C. В свою очередь, сервер CG290-S3063 типоразмера 2U рассчитан на один процессор Xeon 6500P/6700P с TDP до 350 Вт. Предусмотрены 16 слотов для модулей DDR5 (RDIMM 6400/5200 или MRDIMM 8000). В тыльной части расположены отсеки для четырёх SFF-накопителей U.2 с интерфейсом PCIe 5.0 x4 (NVMe). Внутри есть два коннектора М.2 2280/22110 для SSD (PCIe 5.0 x2; NVMe). Данная система предоставляет четыре слота PCIe 5.0 x16 для карт FHFL двойной ширины и три слота PCIe 5.0 x16 для карт FHFL одинарной ширины. Могут быть использованы до четырёх ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition. Прочие характеристики включают контроллер ASPEED AST2600, сетевой порт управления 1GbE, интерфейсы USB 3.0/2.0 Type-A и Mini-DisplayPort. Применены четыре блока питания мощностью 2400 Вт с сертификатом 80 PLUS Titanium и воздушное охлаждение.
02.09.2025 [10:14], Владимир Мироненко
Intel анонсировала IPU E2200 — 400GbE DPU семейства Mount MorganIntel анонсировала DPU Intel IPU E2200 под кодовым названием Mount Morgan, представляющий собой обновление 200GbE IPU E2100 (Mount Evans), разработанного при участии Google для использования в ЦОД последней, причём не слишком удачного, как отмечают некоторые аналитики. Как сообщает ресурс ServeTheHome, Intel E2200 производится по 5-нм техпроцессу TSMC. Он базируется на той же архитектуре, что и предшественник, но предлагает более высокую производительность. Вычислительный блок включает до 24 ядер Arm Neoverse N2 с 32 Мбайт кеша, четырьмя каналами LPDDR5-6400 и выделенным сопроцессором безопасности. Сетевая часть представлена 400GbE-интерфейсом с RDMA, а хост-подключение — подсистемой PCIe 5.0 x32 со встроенным коммутатором PCIe. Для обработки пакетов используется P4-программируемый процессор FXP — модуль обработки трафика с алгоритмом синхронизации и настраиваемыми параметрами разгрузки, что позволяет распределять задачи между сетевыми ускорителями и Arm-ядрами. Также имеется встроенный криптографический модуль для шифрования на лету (inline) с поддержкой протоколов IPsec и PSP, настраиваемый для каждого потока. Для управления потоками данных используется модуль Traffic Shaper с поддержкой алгоритма Timing Wheel. Кроме того, есть и Look-Aside-блок для компрессии и шифрования. Как и в IPU E2100, у IPU E2200 имеется выделенный модуль для независимого внешнего управления. Также поддерживаются программируемые параметры разгрузки с использованием различных ускорителей и IP-блоков. |
|