Материалы по тегу: сервер
|
23.11.2025 [12:50], Владимир Мироненко
Спустя 11 лет после приобретения бизнеса IBM по выпуску x86-серверов Lenovo так и не добилась его прибыльностиLenovo Group опубликовала рекордные финансовые результаты за II квартал 2025/26 финансового года (III квартал 2025 календарного года): выручка увеличилась на 9 % по сравнению с предыдущим кварталом и на 15 % в годовом исчислении, достигнув $20,45 млрд, что немного выше консенсус-прогноза аналитиков, опрошенных LSEG, в размере $20,3 млрд (по данным Reuters). Lenovo продемонстрировала двузначный рост выручки в процентах в годовом исчислении во всех основных бизнес-группах и регионах продаж. Структура выручки, связанной с ИИ, увеличилась на 13 п.п. в годовом исчислении, составив 30 % от общей выручки компании. По словам руководства Lenovo, рост был обусловлен двузначным ростом выручки в процентах от поставок ИИ-серверов и трёхзначным ростом выручки в процентах от продаж от AI PC, смартфонов с поддержкой ИИ и ИИ-сервисов. Этот квартал знаменует собой восьмой квартал подряд роста выручки Lenovo в годовом исчислении после пяти кварталов спада, что является продолжением восстановления компании, начавшегося в конце 2024 года. Чистая прибыль (HKFRS) достигла $380 млн, снизившись на 25 % в квартальном исчислении и на 1% в годовом исчислении, что отражает рост операционных расходов, связанных с инвестициями в ИИ и сезонностью. Чистая прибыль, причитающаяся акционерам, упала на 5 % год к году до $340 млн. Скорректированная чистая прибыль (Non-HKFRS) увеличилась на 25 % до $512 млн. Подразделение инфраструктурных решений (Infrastructure Solutions Group, ISG), которое специализируется на поставках оборудования для ЦОД, периферийных систем и облачных вычислениях, увеличило выручку год к году на 24 % до $4,1 млрд (последовательное снижение на 5 %), вместе с тем снова зафиксировав убыток в размере $32 млн. Впервые после покупки в 2014 году у IBM бизнеса по выпуску x86-серверов подразделение ISG получило квартальную прибыль только в конце 2021 года, но затем снова сработало с убытком. С тех пор ISG демонстрировало то небольшую прибыль, то умеренные убытки, отметил The Register. Компания сообщила, что на рынке поставщиков облачных услуг (CSP) была получена рекордная выручка, а доход от услуг ИИ-инфраструктуры достиг высоких двузначных показателей роста в процентах в годовом исчислении благодаря большому количеству заказов. Рост выручки от решений жидкостного охлаждения Neptune составил 154 % в годовом исчислении. По данным The Register, руководство компании считает, что наконец-то сможет привести ISG к росту прибыльности, «оптимизировав бизнес-модели для лучшего удовлетворения различных потребностей предприятий и SMB», и полагает, что растущий спрос на вычислительные мощности для инференса будет способствовать росту спроса на её продукцию. Председатель совета директоров и генеральный директор Юаньцин Ян (Yuanqing Yang) поддержал мнение гендиректора NVIDIA Дженсена Хуанга (Jensen Huang), считающего безосновательными опасения по поводу формирования пузыря в ИИ-секторе. «Значительные инвестиции в инфраструктуру ИИ закладывают основу для следующей крупной технологической волны, подобной ранней эпохе интернета», — сказал он, отметив, как эта волна привела к «взрывному росту рынка ПК» и началу развития индустрии смартфонов. «Сейчас происходит следующая волна демократизации ИИ, охватывающая как персональное, так и корпоративное использование, что идеально соответствует стратегии Lenovo», — считает Ян. Подразделение решений и услуг Lenovo (Solutions and Services Group, SSG) увеличило выручку год к году на 18 % до $2,6 млрд, что стало 18 кварталом подряд роста выручки в годовом исчислении. Бизнес-подразделение SSG, созданное во II квартале 2021 года, ориентировано на разработку ПО и проектов для четырёх масштабируемых вертикалей: «Умный город», «Умное образование», «Умная розничная торговля» и «Умное производство» (Smart City, Smart Education, Smart Retail, Smart Manufacturing). Выручка подразделения Intelligent Devices Group (IDG) составила $15,1 млрд, что на 12 % больше, чем в предыдущем квартале, и на 12 % больше в годичном исчислении. Во время телефонной конференции, посвящённой финансовым результатам, Lenovo подтвердила рост цен на компоненты, особенно на память и СХД, выразив уверенность в возможности использования масштабов своей цепочки поставок и ресурсов закупок для снижения давления издержек. Компания предупредила о возможном дефиците поставок по мере роста спроса, хотя ожидается, что дисциплинированное управление запасами поможет поддерживать стабильную маржу. Сообщается, что в III квартале 2026 финансового года (IV квартал 2025 календарного года) Lenovo продолжит развивать свою платформу «Гибридный ИИ для всех», объединяя интеллект на уровне устройств, оркестрацию периферийных устройств и ИИ корпоративного масштаба в единую архитектуру. Компания отмечает, что приоритеты пользователей смещаются в сторону персонализации, безопасности, конфиденциальности, устойчивого развития и эффективности — всё это ускоряет внедрение ИИ в её портфолио оборудования, ПО и сервисов. Lenovo отметила, что продолжит развитие свою стратегии корпоративного ИИ, чтобы помочь клиентам превратить данные и знания в практическую аналитику и ценные идеи, подчеркнув, что имеет все возможности для стимулирования трансформации корпоративного ИИ и разработки ИИ-двойников для клиентов. Ожидается, что переход от облачного обучения ИИ-моделей к периферийному инференсу будет способствовать более активному росту рынка устройств и приложений ИИ, что ещё больше расширит общий целевой рынок компании. Также Lenovo реализует свою концепцию «Один персональный ИИ, несколько устройств», чтобы обеспечить персонализированный опыт использования ИИ для всех форм-факторов. На корпоративном уровне компания углубляет внедрение гибридного ИИ, повышает эффективность использования данных и расширяет сервисы на базе ИИ, используя цифровое рабочее место, гибридное облако и решения для устойчивого развития.
21.11.2025 [11:14], Сергей Карасёв
Supermicro представила ИИ-сервер 10U на базе AMD Instinct MI355X с воздушным охлаждениемКомпания Supermicro анонсировала высокопроизводительный GPU-сервер AS-A126GS-TNMR, построенный на аппаратной платформе AMD. Система, выполненная в форм-факторе 10U, ориентирована на НРС-нагрузки и решение ресурсоёмких задач в сфере ИИ. Сервер может нести на борту два процессора AMD EPYC 9005 Turin или EPYC 9004 Genoa со 192 ядрами каждый (показатель TDP до 500 Вт). Доступны 24 слота для модулей оперативной памяти DDR5-6400 суммарным объёмом до 6 Тбайт. Во фронтальной части расположены десять отсеков для SFF-накопителей в конфигурации 8 × NVMe (PCIe 5.0 x4) и 2 × SATA с возможностью горячей замены. Кроме того, есть два лицевых слота для SSD формата M.2 (NVMe). В оснащение входят восемь ускорителей AMD Instinct MI355X, оборудованных 288 Гбайт памяти HBM3E с пропускной способностью до 8 Тбайт/с. Применяется интерконнект AMD Infinity Fabric. Реализовано воздушное охлаждение: спереди размещены пять вентиляторных блоков, сзади — десять (все они допускают горячую замену). Диапазон рабочих температур простирается от +10 до +35 °C.
Источник изображения: Supermicro Сервер располагает двумя сетевыми портами 10GbE RJ45 на базе контроллера Intel X710, выделенным сетевым портом управления 1GbE, двумя портами USB 3.0 Type-A, аналоговым разъёмом D-Sub, модулем TPM 2.0, восемью слотами PCIe 5.0 x16 для низкопрофильных (LP) карт расширения и двумя слотами PCIe 5.0 x16 для карт FHHL. Габариты составляют 438,8 × 449 × 843,28 мм, масса — 133 кг. Питание обеспечивают шесть блоков мощностью 5250 Вт с резервированием (3 + 3), которые имеют сертификацию 80 Plus Titanium. Поставки системы AS-A126GS-TNMR уже начались.
18.11.2025 [13:36], Сергей Карасёв
ИИ-сервер с турбонаддувом: Giga Computing G494-SB4 вмещает восемь двухслотовых ускорителей и предлагает дополнительный модуль охлажденияКомпания Giga Computing, подразделение Gigabyte, пополнила ассортимент ИИ-серверов моделью G494-SB4-AAP2, построенной на аппаратной платформе Intel. Система может нести на борту до восьми PCIe-ускорителей — например, NVIDIA RTX Pro 6000 Blackwell Server Edition, Intel Gaudi3 или NVIDIA H200 NVL. Сервер выполнен в форм-факторе 4U. Допускается установка двух процессоров Intel Xeon 6500P и 6700P поколения Granite Rapids-SP с показателем TDP до 350 Вт. Доступны 32 слота для модулей DDR5 (RDIMM-6400 или MRDIMM-8000). Во фронтальной части расположены 12 отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe), SATA-3 или SAS-4; допускается горячая замена. Сервер располагает восемью слотами для ИИ-ускорителей FHFL PCIe 5.0 x16, четырьмя разъёмами для карт расширения типоразмера FHHL с интерфейсом PCIe 5.0 x16 (по два спереди и сзади) и тремя слотами для низкопрофильных (LP) карт, также оснащённых интерфейсом PCIe 5.0 x16. Присутствуют сетевой адаптер Intel X710-AT2 с двумя портами 10GbE (разъёмы RJ45 на лицевой панели), выделенный сетевой порт управления 1GbE (RJ45) и контроллер ASPEED AST2600. Предусмотрены два порта USB 3.2 Gen1 Type-A и аналоговый коннектор D-Sub. За питание отвечают четыре блока мощностью 3000 Вт с сертификатом 80 PLUS Titanium. Реализовано воздушное охлаждение с двумя системными вентиляторами диаметром 40 мм и 12 вентиляторами диаметром 60 мм. Дополнительно доступен блок из четырёх 80-мм вентиляторов. Он добавляет около 120 мм к глубине сервера, но зато позволяет использовать восемь 600-Вт ускорителей. Диапазон рабочих температур — от +10 до +35 °C (до +25 °C при использовании H200 NVL). Габариты составляют 448 × 176 × 880 мм, масса — 66,8 кг. Гарантирована совместимость с Red Hat Enterprise Linux 10.0 и выше, а также с Windows Server 2025.
14.11.2025 [09:38], Сергей Карасёв
ИТ-холдинг Т1 представил первый ПАК для работы с ИИ-платформой «Сайбокс»Многопрофильный ИТ-холдинг Т1 анонсировал первый отечественный программно-аппаратный комплекс (ПАК), предназначенный для работы с ИИ-платформой «Сайбокс». Решение под названием «ИИ-Фабрика Сайбокс» представляет собой готовую серверную стойку, оснащённую всеми необходимыми компонентами для решения различных ресурсоёмких задач — от подготовки данных до обучения моделей и запуска ИИ-агентов. В основу новинки положен сервер МЛТ-С пятого поколения, созданный российской IT-компании «Мультиллект» (совместное предприятие компании «Азимут» госкорпорации «Ростех» и ИТ-холдинга Т1). Это двухпроцессорная система в форм-факторе 2U, обладающая поддержкой DDR5, PCIe 5.0 и CXL. Сервер совместим с основными системами виртуализации и широким спектром ПО. Он включён в Единый реестр российской радиоэлектронной продукции (Реестр РЭП), утверждённый Минпромторгом России. Машина сертифицирована для обработки и хранения данных, управления ИИ-приложениями и поддержки критической инфраструктуры.
Источник изображения: «Ростех» В состав ПАК входит отечественная MLOps-платформа «Сайбокс» для полного цикла работы с моделями машинного обучения. Она позволяет внедрять в текущие бизнес-процессы компании различные ИИ-сервисы (документооборот, видеоаналитика, промышленная диагностика, планирование ремонтов). Через встроенный маркетплейс можно выбрать готовое решение либо быстро создать ИИ-агента с помощью инструментария no-code/low-code. Упомянуты такие возможности, как запуск, дообучение и объединение больших языковых моделей, реализация RAG-сценариев, интеграция с Hugging Face без внешних зависимостей. «Наше решение — это не набор разрозненных компонентов, а протестированный и готовый к работе комплекс, который позволяет бизнесу получать современный функционал искусственного интеллекта "из коробки". Серверная часть уже хорошо зарекомендовала себя в пилотных проектах в компаниях различных отраслей. Формат полностью российского решения повышает устойчивость бизнеса к внешним и внутренним рискам и ускоряет внедрение инновационных сервисов», — говорит глава Т1. Отмечается, что «ИИ-Фабрика Сайбокс» может применяться в том числе на объектах критической информационной инфраструктуры. Среди потенциальных заказчиков названы предприятия энергетического сектора, транспортной отрасли и пр.
13.11.2025 [11:00], Сергей Карасёв
«Группа Астра» представила семейство ПАК XPlatform для построения ИТ-инфраструктуры «под ключ»
astra linux
hardware
ии
облако
резервное копирование
сделано в россии
сервер
субд
схд
частное облако
«Группа Астра» анонсировала серию отечественных программно-аппаратных комплексов (ПАК) XPlatform, которые, как утверждается, предназначены для быстрого развертывания устойчивой, высокопроизводительной и безопасной ИТ-инфраструктуры «под ключ». В семейство вошли устройства разного класса — XTime, XCloud, XConnect, XGenAI и XData для решения определённых задач. Все компоненты систем XPlatform спроектированы для бесшовной интеграции, имеют необходимые сертификаты регуляторов, внесены в реестры Минцифры и Минпромторга. Каждый продукт поставляется как полностью подготовленный комплекс, прошедший заводское тестирование и проверку совместимости. Использование ПАК позволяет сократить издержки на интеграцию и отладку, а также ускорить развёртывание: на ввод в эксплуатацию требуются считаные дни или даже часы вместо недель или месяцев как в случае разрозненных решений. Система XTime предназначена для резервного копирования и централизованного хранения бэкапов виртуальных машин, баз данных и файловых хранилищ. Возможно архивирование регламентированных данных с длительным сроком хранения (соблюдение политики аудита). Поддерживаются распределённые филиальные контуры. В состав XTime входят сервер с RAID-контроллерами и дисковые полки. Программная составляющая включает софт Termidesk Connect и BRO Software. В свою очередь, XCloud служит для построения частного, гибридного или публичного облака, в котором можно гибко объединять IT-ресурсы, управлять доступом большого числа пользователей и масштабировать инфраструктуру под растущие нагрузки. Обеспечиваются быстрое развёртывание сложных информационных и геоинформационных систем, контроль и учёт потребления вычислительных ресурсов. Платформа объединяет серверы, СХД (SDS-архитектура) и коммутаторы, а также стек различного ПО. ПАК XConnect обеспечивает доставку приложений. Этот аппаратно-программный контроллер балансирует трафик, распределяет запросы между серверами и гарантирует устойчивость пользовательских сервисов. Обеспечивается возможность построения распределённой инфраструктуры для организаций с разветвлённой филиальной сетью. Разработчик говорит о высокой доступности системы даже при значительном росте количества пользователей. Аппаратная часть включает высокопроизводительные системы карт, SSL-ускорение и резервирование критичных компонентов. Применяется ПО Termidesk Connect. Решение XGenAI предназначено для создания и развёртывания классических и генеративных ИИ-моделей, включая обработку естественного языка, предиктивную аналитику и компьютерное зрение в локальных контурах. Используются сервер с ускорителями на основе GPU и софт «Тессеракт». Наконец, XData — это машина баз данных, которая, по заявлениям производителя, обеспечивает высокую доступность, масштабируемость и балансировку нагрузки для критически важных корпоративных СУБД. Задействована программная платформа Tantor. В числе потенциальных заказчиков ПАК XPlatform названы государственные и регулируемые организации, банки и прочие финансовые учреждения, промышленные предприятия и корпорации с филиальной структурой, а также любые другие компании, работающие с высоконагруженными приложениями и «чувствительными» данными. «С XPlatform мы предлагаем клиентам не просто набор технологий, а законченные программно-аппаратные комплексы, которые сокращают путь от идеи до промышленной эксплуатации. Единый стек, предсказуемая производительность, соответствие регуляторным требованиям и единое окно поддержки — это та комбинация, что позволяет бизнесу быстро и безопасно решать самые разнообразные задачи», — говорит Антон Шмаков, технический директор «Группы Астра».
12.11.2025 [10:28], Владимир Мироненко
YADRO выводит на рынок высокопроизводительный ИИ-сервер для компаний, внедряющих искусственный интеллектYADRO (входит в «ИКС Холдинг») объявляет о коммерческом запуске ИИ-сервера YADRO G4208P G3 — решения для компаний, которые рассматривают искусственный интеллект как стратегический драйвер роста. В условиях перехода рынка от отдельных пилотных проектов к широкому внедрению прикладных сценариев использования искусственного интеллекта новый сервер призван удовлетворить растущий спрос бизнеса на масштабируемую инфраструктуру с предсказуемой эффективностью. Многолетний опыт YADRO в построении ИИ-систем для российских заказчиков лёг в основу архитектуры нового сервера G4208P G3. Платформа спроектирована под реальные задачи бизнеса: дообучение корпоративных моделей и обучение компактных моделей, высокопроизводительный инференс в промышленной среде, а также задачи, где требуется GPU-ускорители, включая видеоаналитику и обработку изображений. YADRO G4208P G3 поддерживает установку до восьми GPU-ускорителей и конфигурации на основе двух процессоров Intel Xeon Scalable 4-го/5-го поколений с интерфейсами PCIe 5.0 и памятью DDR5-5600. Сочетание производительности и масштабируемости такого уровня выводит сервер в число самых сильных предложений на российском рынке. Сервер прошел серию испытаний и сравнений с публичными бенчмарками, включая MLCommons и прикладные тесты для генеративных моделей (LLM). Результаты подтвердили уровень производительности и эффективности, сопоставимый с решениями ведущих мировых вендоров. Для российских компаний это означает, что инфраструктура на базе YADRO G4208P G3 позволит запускать крупные современные ИИ- модели, включая DeepSeek-R1 685B, и обеспечить их стабильную работу в продуктивной среде с соблюдением целевых SLO/SLA, снижением времени отклика сервисов и контролируемыми затратами на развитие инфраструктуры. Параллельно идёт широкая программа испытаний совместно с технологическими партнёрами — разработчиками отечественных программных решений. Ряд сценариев уже успешно протестирован, подтверждены совместимость и ключевые показатели производительности. ИИ-стеки, валидированные на базе серверов YADRO, формируют инфраструктурную основу для развития отечественных технологий искусственного интеллекта. YADRO сопровождает заказчиков на всем пути внедрения своих продуктов. Команда помогает определить оптимальную конфигурацию под конкретные задачи — от картирования рабочих нагрузок и выбора архитектуры до пилотирования и настройки производительности. Полный цикл сервиса включает консультирование, инсталляцию, сопровождение и поддержку на всём жизненном цикле решения. В результате заказчики получают устойчивую ИИ-инфраструктуру, которая работает надёжно и развивается вместе с бизнесом. «Компании переходят к практической интеграции ИИ в ключевые процессы, и мы уверены, что сейчас самый подходящий момент для выхода сервера YADRO G4208P G3. Платформа создана на основе нашего опыта реальных внедрений и ориентирована на быстрый путь от идеи к промышленной эксплуатации. Мы предлагаем оборудование и экспертную поддержку — от выбора конфигурации и внедрения до последующего обслуживания — чтобы заказчики могли эффективно управлять развитием своих ИИ- инициатив», — резюмирует Павел Егоров, директор по продуктам YADRO. Сервер YADRO G4208P G3 внесён в Единый реестр российской радиоэлектронной продукции Минпромторга, что подтверждает его соответствие требованиям импортозамещения и открывает возможность применения в государственных и корпоративных проектах с требованиями по локализации. Подробнее ознакомиться с конфигурациями, результатами тестов и сценариями применения, а также получить рекомендации экспертов и оставить заявку на пилотное тестирование сервера можно на сайте.
11.11.2025 [12:03], Сергей Карасёв
Стартап Majestic Labs обещает ИИ-серверы со 128 Тбайт RAMКомпания Majestic Labs, занимающаяся разработкой серверов нового поколения для наиболее ресурсоёмких задач ИИ, объявила о выходе из скрытого режима (Stealth) и проведении раунда финансирования Series A. В общей сложности стартап на сегодняшний день получил на развитие $100 млн. Majestic Labs основана бывшими сотрудниками Google и Meta✴. Компания разрабатывает серверы высокой плотности, способные справляться с самыми масштабными и сложными задачами ИИ, для которых в настоящее время требуются несколько стоек с вычислительным оборудованием и коммутаторами. По оценкам Стэнфордского университета (Stanford University), размер кластеров для обучения ИИ-моделей удваивается каждые пять месяцев, объём наборов данных — каждые восемь, а энергопотребление — ежегодно. При этом узким местом, по заявлениям Majestic Labs, является память ИИ-систем: наблюдается разрыв между её объемом и производительностью и собственно вычислительными возможностями ускорителей. В результате, компании вынуждены приобретать избыточные дорогостоящие ИИ-карты только для того, чтобы получить доступ к большему объёму памяти. Majestic Labs рассчитывает решить проблему путём использования принципиально новой архитектуры ИИ-серверов, меняющей баланс памяти и вычислительных мощностей. Стартап заявляет, что каждый сервер нового типа сможет нести на борту столько же памяти, сколько 10 или более современных стоек. Разрабатываемая архитектура позволит радикально сократить затраты на охлаждение, сетевое оборудование и другие компоненты, которые используются в традиционных системах. «Серверы Majestic будут обладать всеми вычислительными возможностями современных устройств на базе GPU и TPU в сочетании с 1000-кратным увеличением объёма памяти», — говорит соучредитель и генеральный директор стартапа Офер Шахам (Ofer Shacham). Архитектура Majestic Labs предусматривает разделение памяти и вычислительных ресурсов. В серверах будут применяться специализированные ИИ-ускорители и блоки «чрезвычайно быстрой и энергоэффективной памяти с высокой пропускной способностью» (тип не уточняется). Каждый сервер сможет нести на борту до 128 Тбайт RAM, что позволит работать с самыми крупными моделями LLM с огромными контекстными окнами. При этом будет обеспечиваться значительное снижение энергопотребления по сравнению с традиционными системами сопоставимого уровня, объединяющими несколько стоек с оборудованием. Программу финансирования Series A на сумму в $71 млн возглавляет Bow Wave Capital. Предыдущим посевным раундом руководила инвестиционная компания Lux Capital. Кроме того, поддержку стартапу оказывают SBI, Upfront, Grove Ventures, Hetz Ventures, QP Ventures, Aidenlair Global и TAL Ventures. Majestic Labs планирует продавать своё оборудование гиперскейлерам, операторам крупных дата-центров, финансовым учреждениям и фармацевтическим компаниям. Стартап рассчитывает выпустить первые коммерческие серверы в 2027 году. Привлечённые средства будут также использованы для расширения команды инженеров и улучшения программного стека, обеспечивающего работу систем нового типа.
07.11.2025 [12:17], Сергей Карасёв
Sugon ScaleX640 — первая в мире стоечная система с 640 ИИ-ускорителямиКитайская компания Sugon (Dawning Information Industry), специализирующаяся на разработке суперкомпьютеров, серверов и СХД, представила ИИ-систему ScaleX640. Это, как утверждается, первое в мире решение в виде одной стойки, допускающее использование до 640 ускорителей. Суперускоритель выполнен на «сверхскоростной ортогональной архитектуре». Используются вычислительные узлы высокой плотности, которые допускают установку ИИ-карт различных производителей. Говорится о совместимости с существующей экосистемой ПО для задач ИИ. Платформа ScaleX640 предусматривает применение иммерсионного жидкостного охлаждения с фазовым переходом и высоковольтных источников питания постоянного тока (DC). СЖО способна отвести до 1,72 МВт. По заявлениям Sugon, по плотности вычислений новинка до 20 раз превосходит другие суперузлы, доступные на рынке. При этом обеспечивается высокий показатель эффективности использования электроэнергии (PUE) — 1,04. Два суперузла ScaleX640 могут формировать вычислительный блок с поддержкой 1280 ускорителей ИИ. Стойки соединяются между собой посредством высокоскоростной сети. В целом, возможно развёртывание кластеров, насчитывающих до 100 тыс. ИИ-карт. Sugon утверждает, что по сравнению с традиционными платформами новая система обеспечивает повышение производительности на 30–40 % в сценариях обучения больших языковых моделей (LLM) с триллионами параметров и инференса. Проведённое всестороннее тестирование ScaleX640 говорит о высокой надёжности и стабильности работы комплекса.
06.11.2025 [14:09], Сергей Карасёв
Новая фаза роста: глава AMD Лиза Су рассказала о прогрессе в разработке ИИ-систем следующего поколенияПрезидент и генеральный директор AMD Лиза Су (Lisa Su), по сообщению The Register, рассказала о прогрессе компании в сфере разработки продуктов следующего поколения для дата-центров, ориентированных на ИИ-нагрузки. Речь идёт, в частности, об ускорителях на базе GPU и мощных серверных стойках Helios. О разработке Helios (на изображении) было впервые объявлено в июне нынешнего года. Это стойка двойной ширины, которая будет оснащаться серверными модулями с процессорами AMD EPYC Venice с ядрами Zen 6 и ускорителями Instinct MI400. Кроме того, упомянуты сетевые адаптеры Pensando. Чипы Venice (EPYC шестого поколения) будут производиться с использованием 2-нм техпроцесса TSMC.
Источник изображения: AMD «Разработка наших GPU серии MI400 и стоечного решения Helios идёт быстрыми темпами, чему способствует тесное сотрудничество с гиперскейлерами, ИИ-компаниями, а также OEM- и ODM-партнёрами. Это позволит начать широкомасштабное развёртывание систем в следующем году», — сообщила Су. По её словам, решающую роль в разработке Helios играют специалисты компании ZT Systems, которую AMD купила весной нынешнего года за $4,9 млрд. Производственное подразделение этой фирмы недавно было продано поставщику услуг по выпуску электроники Sanmina за $3 млрд. Процессоры EPYC Venice, ускорители Instinct MI400 и стоечные решения Helios дебютируют в 2026 году. Лиза Су подчёркивает, что бизнес AMD в области ИИ-решений для ЦОД вступает в «следующую фазу роста». При этом наблюдается повышение интереса к будущим продуктам со стороны потенциальных заказчиков. Глава AMD отмечает, что для изделий Instinct MI450 готовятся различные варианты исполнения. При этом фиксируется значительный интерес именно «к полноценному стоечному решению».
05.11.2025 [09:59], Сергей Карасёв
350-кВт ИИ-суперускоритель Alibaba Panjiu 128 Supernode объединяет 128 GPU мощностью до 2 кВтОблачная платформа Alibaba Cloud в ходе мероприятия 2025 OCP Global Summit анонсировала систему Panjiu 128 Supernode, предназначенную для решения наиболее ресурсоёмких задач в сфере ИИ. Новинка представляет собой стойку высокой плотности мощностью до 350 кВт. Решение имеет «ортогональную архитектуру» с возможностью размещения определённых компонентов перпендикулярно друг к другу. Говорится о поддержке до 128 ускорителей на базе GPU и о гибких возможностях в плане конфигурации CPU — GPU. Задействованы фирменные DPU-решения Cloud Infrastructure Processing Unit (CIPU) 2.0 и высокопроизводительные сетевые адаптеры. Кроме того, реализована поддержка протокола UALink, который разрабатывается в качестве альтернативы NVIDIA NVLink.
Источник изображения: Alibaba / OCP Благодаря модульной конструкции упрощаются обслуживание и замена узлов. Стойка оборудована высокоэффективной системой жидкостного охлаждения, которая позволяет использовать ускорители мощностью до 2000 Вт. В состав Panjiu 128 Supernode входят пассивные полки питания. При этом реализована схема энергоснабжения с резервированием N+2, что, по заявлениям Alibaba Cloud, помогает добиться доступности на уровне 99,9999 %. В целом, реализованная архитектура обеспечивает задержки на уровне 150 нс внутри одноуровневой mesh-фабрики. По сравнению с традиционными решениями сопоставимого класса ИИ-система на базе Panjiu 128 Supernode теоретически позволяет повысить производительность инференса на 50 %, говорит компания. Нужно отметить, что спрос на оборудование для ИИ-инфраструктур стремительно растёт. По оценкам IDC, во II квартале текущего года продажи серверов и СХД для ИИ-платформ в денежном выражении достигли $82 млрд, что на 166 % больше по сравнению с аналогичным периодом 2024-го ($30,8 млрд). Причем серверы с ИИ-ускорителями принесли 91,8 % от суммарной выручки. |
|



