Материалы по тегу: hardware

17.02.2026 [15:33], Руслан Авдеев

Индийская Neysa привлечёт $1,2 млрд для расширения ИИ-облака

Индийский облачный стартап Neysa Networks Pvt. Ltd. Объявил о намерении привлечь до $1,2 млрд для расширения своей инфраструктуры дата-центров, сообщает Silicon Angle. Возглавляемый Blackstone консорциум обеспечит до половины суммы в виде акционерного финансирования, что обеспечит группе инвесторов мажоритарную долю в Neysa. Ещё $600 млн придётся на долговое финансирование. Компания рассчитывает, что привлечённые средства помогут утроить выручку в следующие несколько лет.

Как заявляет Blackstone, инвестиции позволят Neysa сыграть важную роль в развитии ИИ-инфраструктуры в Индии и дают возможность компаниям и государственным структурам эффективнее и быстрее внедрять ИИ-технологии. Сейчас Neysa управляет публичной облачной платформой, оптимизированной для ИИ-задач, которая, по слухам, основана на около 2 тыс. ИИ-ускорителей, наиболее передовыми из которых являются NVIDIA H200. Также платформа оснащена чипами более общего назначения NVIDIA L40S. Предлагаются и классические CPU-инстансы.

Neysa планирует увеличить количество используемых ИИ-ускорителей приблизительно в десять раз, до 20 тыс. По оценкам Blackstone, это примерно треть от всех ИИ-ускорителей, развёрнутых сейчас в индийских ЦОД. Впрочем, Neysa, вероятно захочет приобрести более современные решения, включая Vera Rubin. По-видимому, как минимум часть из них будет развёрнута в дата-центре в Хайдарабаде, о котором сообщалось в апреле 2025 года. Объект стоит как раз $1,2 млрд и вместит до 25 тыс. ИИ-ускорителей.

 Источник изображения: Prashanth Pinha/unsplash.com

Источник изображения: Prashanth Pinha/unsplash.com

Помимо набора программных инструментов, компания предлагает и инфраструктурные сервисы. Платформа Neysa позволяет клиентам дообучать открытые ИИ-модели под конкретные задачи. Кроме того, разработчики могут создать несколько вариантов той или иной модели, чтобы выбрать наилучший при помощи инструментов Nesya, которые также помогают отслеживать эффективность использования таких кастомных моделей и обеспечивают средства безопасности и контроля доступа. Также компания намерена улучшить наблюдаемость и управляемость нагрузок.

Постоянный URL: http://servernews.ru/1136986
17.02.2026 [14:22], Руслан Авдеев

Индийские NeevCloud и Agnikul Cosmos тоже готовы развернуть в космосе сотни дата-центров

Индийская аэрокосмическая компания Agnikul Cosmos совместно с облачным ИИ-провайдером NeevCloud планируют развернуть в космосе сотни небольших дата-центров, сообщает Datacenter Dynamics. Первый дата-центр должен заработать на орбите к концу 2026 года.

NeevCloud развернёт облачный дата-центр и запустит приложения для ИИ-инференса в режиме реального времени на патентованной платформе, разработанной и построенной Agnikul. Последняя известна напечатанными на 3D-принтере ракетами для запуска малых спутников. Если пилотный запуск окажется удачным, компании намерены вывести на орбиту более 600 дата-центров Orbital Edge в следующие три года. NeevCloud заявляет, что речь идёт не только о простом строительстве дата-центров в космосе, но и полностью новом уровне инфраструктуры для орбитального инференса.

По словам представителя Agnikul, технология ступени-трансформера позволяет сохранять её функциональность. Фактически речь идёт о превращении ступени в «полезные активы», в которых может размещаться оборудование и программное обеспечение, включая данные и вычислительные мощности. Это новый этап для аэрокосмической компании, позволяющий снизить цены эксплуатации и капитальные издержки, используя размещённое в многоразовых ступенях оборудование.

 Источник изображения: Agnikul

Источник изображения: Agnikul

Помимо SpaceX, попросившей разрешение на запуск сразу миллиона спутников, с проектами космических ЦОД выступают и другие компании, например, масштабная инициатива исходит от Google и др., хотя реальная практика внедрения, вероятно, будет довольно сложной. На днях Starcloud также подала заявку на запуск 88 тыс. спутников. Это меньше, чем мегапроект SpaceX, но тоже вполне крупный проект. Помимо этих компаний, над собственными космическими проектами работают Amazon, Blue Origin, Axiom Space, NTT, Ramon.Space, Sophia Space и др.

Постоянный URL: http://servernews.ru/1136981
17.02.2026 [13:57], Владимир Мироненко

Первый европейский суверенный RISC-V-процессор Cinco Ranch изготовлен по техпроцессу Intel 3

Лаборатория суперкомпьютерных вычислений (BZL) Национального центра суперкомпьютерных вычислений Барселоны (BSC-CNS) сообщила об успешном запуске тестового чипа Cinco Ranch TC1 на архитектуре RISC-V, изготовленного по передовому техпроцессу Intel 3.

В заявлении отмечено, что результаты подтверждают надёжность конструкции и жизнеспособность вычислительной архитектуры на базе открытой платформы RISC-V. «Это достижение является ключевым этапом в процессе разработки чипа и качественным скачком на пути к суверенным суперкомпьютерным технологиям в Европе», — подчеркнула BZL, отметив, что готовый чип предлагает открытую, гибкую альтернативу, свободную от зависимости от проприетарных архитектур крупных транснациональных корпораций. Проект связан с Европейской инициативой по процессорам (EPI), целью которой является разработка отечественных процессоров для будущих европейских суперкомпьютеров и промышленных систем.

«Успешная стабильная загрузка Linux и проверка достижения чипом ожидаемых частот подтверждают зрелость конструкции и качество работы, проделанной командами BZL», — говорит исследователь BSC и координатор аппаратной части лаборатории Zettascale в Барселоне.

 Источник изображений: BZL

Источник изображений: BZL

Cinco Ranch TC1 — это первый чип, произведенный в академической среде с использованием 3-нм техпроцесса Intel 3. На этапе проектирования, из-за невозможности прямого доступа к этой технологии, BZL провела внутренние оценки на сопоставимом техпроцессе TSMC N7, что позволило оценить конструкцию перед окончательной реализацией.

Сообщается, что структура Cinco Ranch TC1 основана на трёх взаимодополняющих процессорных блоках, предназначенных для совместной работы и охвата различных вычислительных профилей. В чипе используются три блока RISC-V на одном кристалле, каждый из которых ориентировано на специализированные рабочие нагрузки. Три ядра используют микроархитектуры Sargantana, Lagarto Ka и Lagarto Ox, с основным упором на эффективность, векторные нагрузки и скалярную обработку соответственно.

Подсистема CPU занимает всего 3,2 мм² на крошечном кристалле площадью 15,2 мм², который также включает высокоскоростные интерфейсы, такие как PCIe 5.0 и DDR5. Для сравнения, площадь CCD восьмиядерного процессора AMD Zen 5 составляет около 71 мм², и для этого чиплета также требуется отдельный кристалл I/O, отметил ресурс HotHardware.com.

Cinco Ranch TC1 был протестирован на оценочной плате Hawk Canyon V2, разработанной Intel для первоначальной проверки чипа после его производства. Следующим этапом станет функциональное тестирование и тестирование производительности, оптимизация ПО и полная проверка системы.

В мае 2025 года на Cinco Ranch TC1 (Test Chip 1) была успешно загружена ОС Linux, а в июле 2025 года, после получения партии из 500 чипов, начались работы по характеризации и проверке. Вся партия продемонстрировала высокую функциональную производительность, при этом большинство устройств успешно запустили все три интегрированных процессора чипа. Также результаты тестов подтверждают, что Cinco Ranch TC1 работает на частоте до 1,25 ГГц, что превышает консервативные оценки, сделанные на этапе проектирования.

Для BZL и её партнёров это достижение является важной вехой и доказательством того, что разработанные в Европе процессоры с открытой ISA могут быть реализованы на передовых технологиях производства и воплощены в реальных кремниевых решениях. Для Европы — это значимый шаг к технологической автономии в HPC. А для Intel это демонстрация того, что её бизнес может оказывать всестороннюю поддержку передовым внешним клиентам в сложных гетерогенных проектах.

Постоянный URL: http://servernews.ru/1136968
17.02.2026 [12:04], Руслан Авдеев

BCS: только каждый пятый дата-центр в Европе готов к ИИ, а строить новые оказалось непросто

По данным экспертов консалтинговой компании BCS, несмотря на рост спроса на ИИ-инфраструктуру, только 20 % дата-центров в Европе и на Ближнем Востоке сегодня считаются готовыми к работе с ИИ, сообщает The Register.

Как утверждается в докладе BCS, мощности, уже готовые к внедрению ИИ в регионе, ограничены. Одной из главных проблем застройщиков является нехватка подходящих компетенций. Отчёт получен путём опроса более 3 тыс. представителей отрасли в 41 стране для выявления проблем, с которыми сталкивается строительство новых объектов в Европе. Хотя эксперты прогнозируют, что к 2030 году доля объектов, готовых к внедрению ИИ, увеличится приблизительно до 70 %, не исключено, что спрос всё ещё будет выше, чем возможности инфраструктуры.

Суть проблемы в том, что большинство площадок для ЦОД проектировались для обычных корпоративных или облачных нагрузок, а стойки с энергоёмкими ускорителями требуют повышенной плотности, более надёжного охлаждения и усиленной отказоустойчивости в сравнении с теми показателями, что могут обеспечить традиционные объекты. Другими словами, некоторые площадки могут иметь достаточную мощность «на бумаге», но у них нет возможности обеспечивать необходимое электропитание на уровне отдельных стоек или компенсировать повышенные тепловые нагрузки.

 Источник изображений: BCS

Источник изображений: BCS

По мнению экспертов, 20 % готовности — не показатель ошибок отрасли. Это свидетельство того, как высоки сегодня требования к ИИ-инфраструктуре, а также того, что большая часть имеющейся инфраструктуры строилась для удовлетворения потребностей оборудования предыдущего поколения.

Важно, что строители ЦОД часто сталкиваются с комплексом известных проблем на одних и тех же проектах. Например, на большей части территории Европы есть дефицит свободной земли для размещения дата-центров, не хватает материалов и тяжёлой техники, имеются проблемы с подключением к электросетям и нехватка квалифицированного персонала.

В BCS подчёркивают, что чаще всего речь идёт не об отдельных проблемах, а об их совокупном влиянии. В результате отрасль вступает в новую фазу, когда ожидается рост рынка, но возможностей для его обеспечения становится всё меньше. По данным экспертов, 93 % опрошенных ожидают роста спроса на мощности ЦОД в ближайшие 12 мес., но доступных предложений, вероятно, будет всё меньше.

Более того, 95 % опрошенных ожидают, что в тот же период усугубится дефицит квалифицированных специалистов, а 86 % уверены, что нестабильность цепочек поставок стала не временной проблемой, а «структурной особенность» отрасли. Половина строителей, по данным BCS, не уложилась в установленные сроки или не выполнила в полном объёме задач, поставленных клиентами из-за нехватки кадров. 53 % подчёркивают, что проблемы в цепочках поставок влияют на выбор площадки в будущем.

Как считают в BCS, самые сильные позиции займут компании, лучше организованные и способные управлять сотрудничеством команд, специалистов и партнёров, для которызх в норме не характерно тесное взаимодействие. Также помогут навыки находить компромиссы даже под давлением.

Впрочем, BCS полагает, что на британском рынке всё ещё имеется потенциал для ввода более 10 ГВт новых мощностей в ближайшие 10 лет, а в Германии, Австрии и Швейцарии произойдёт более активная экспансия уже в 2026 году. Согласно отдельному отчёту European Data Centre Association (EUDCA), уже к 2031 году Лондон, возможно, уступит Франкфурту место ключевого европейского хаба ЦОД.

Постоянный URL: http://servernews.ru/1136970
17.02.2026 [11:48], Руслан Авдеев

Прогноз — мультиоблачно: Policliud развернёт тысячу суверенных микро-ЦОД за пять лет

Облачный стартап Policliud из Франции поделился планом развернуть сотни периферийных суверенных дата-центров в следующие пять лет, сообщает Datacenter Dynamics. В ходе мероприятия World AI Cannes Festival 2026 компания объявила о намерении построить около 1 тыс. микро-ЦОД к концу 2030 года с использованием более 250 тыс. ИИ-ускорителей.

Компания специализируется на малых «суверенных» проектах дата-центров, но на текущий момент ввела в эксплуатацию лишь восемь из них — во Франции, в странах, входящих в Совет сотрудничества арабских государств Персидского залива (GCC) и США. По данным компании, фактически речь идёт о контрактах на сумму около €10,5 млн ($12,44 млн) и использовании 1,2 тыс. ИИ-ускорителей. В 2026 году Policloud намерена ввести в эксплуатацию 100 ЦОД в 2026 году с суммарно более чем 25 тыс. ИИ-ускорителей.

Компания применяет модульные микро-ЦОД без водяного охлаждения, расположенные как можно ближе к источнику данных. Это контейнерные дата-центры, вмещающие до 400 ускорителей на каждый модуль, площадью до 100 м2 и мощностью до 500 кВт. ЦОД используют распределённую облачную платформу Hivenet. Детали об используемых ИИ-ускорителях и вспомогательном оборудовании пока не раскрываются.

 Источник изображения: Policloud

Источник изображения: Policloud

Компания основана Дэвидом Гурле (David Gurlé), бывшим топ-менеджером Microsoft и основателем коммуникационной платформу Symphony для бизнеса со сквозным шифрованием трафика. В июне 2025 года Policloud привлекла €7,5 млн ($8,8 млн) в ходе начального раунда финансирования, возглавленного Global Ventures. В нём также приняли участие MI8 Limited, OneRagtime и Национальный институт исследований в области цифровых наук и технологий Франции (INRIA), а также частные инвесторы.

Постоянный URL: http://servernews.ru/1136967
17.02.2026 [11:08], Сергей Карасёв

SK hynix предлагает гибридную память HBM/HBF для ускорения ИИ-инференса

Компания SK hynix, по сообщению ресурса Blocks & Files, разработала концепцию гибридной памяти, объединяющей на одном интерпозере HBM (High Bandwidth Memory) и флеш-чипы с высокой пропускной способностью HBF (High Bandwidth Flash). Предполагается, что такое решение будет подключаться к GPU для повышения скорости ИИ-инференса.

Современные ИИ-ускорители на основе GPU оснащаются высокопроизводительной памятью HBM. Однако существуют ограничения по её ёмкости, из-за чего операции инференса замедляются, поскольку доступ к данным приходится осуществлять с использованием более медленных SSD. Решить проблему SK hynix предлагает путём применения гибридной конструкции HBM/HBF под названием H3.

Архитектура HBF предусматривает монтаж кристаллов NAND друг над другом поверх логического кристалла. Вся эта связка располагается на интерпозере рядом с контроллером памяти, а также GPU, CPU, TPU или SoC — в зависимости от предназначения конечного изделия. В случае H3 на интерпозере будет дополнительно размещён стек HBM. Отмечается, что время доступа к HBF больше, чем к HBM, но вместе с тем значительно меньше, нежели к традиционным SSD. Таким образом, HBF может служить в качестве быстрого кеша большого объёма.

 Источник изображения: SK hynix

Источник изображения: SK hynix

По заявлениям SK hynix, стеки HBF могут иметь до 16 раз более высокую ёмкость по сравнению с HBM, обеспечивая при этом сопоставимую пропускную способность. С другой стороны, HBF обладает меньшей износостойкостью при записи, до 4 раз более высоким энергопотреблением и большим временем доступа. HBF выдерживает около 100 тыс. циклов записи, а поэтому лучше всего подходит для рабочих нагрузок с интенсивным чтением. В результате, как утверждается, гибридная конструкция сможет эффективно решать задачи инференса при использовании больших языковых моделей (LLM) с огромным количеством параметров.

В ходе моделирования работы H3, проведенного специалистами SK hynix, рассматривался ускоритель NVIDIA Blackwell B200 с восемью стеками HBM3E и таким же количеством стеков HBF. В пересчете на токены в секунду производительность системы с памятью H3 оказалась в 1,25 раза выше при использовании 1 млн токенов и в 6,14 раза больше при использовании 10 млн токенов по сравнению с решениями, оборудованными только чипами HBM. Более того отмечено 2,69-кратное повышение производительности в расчёте на 1 Вт затрачиваемой энергии по сравнению с конфигурациями без HBF. К тому же связка HBM и HBF может обрабатывать в 18,8 раз больше одновременных запросов, чем только HBM.

Постоянный URL: http://servernews.ru/1136966
16.02.2026 [17:37], Руслан Авдеев

«Атомный ИИ»: Deep Atomic предлагает строить сразу и ЦОД, и АЭС для него

Хотя в США уже имеются дата-центры рядом с атомными электростанциями, включая кампус Cumulus в Пенсильвании, с некоторых пор купленный Amazon (AWS), Deep Atomic предложила Министерства энергетики (DOE) страны другую тактику — строительство АЭС специально для «первого в стране кампуса ЦОД для ИИ и HPC» рядом с Национальной лабораторией Айдахо (INL), «колыбели» коммерческой атомной энергетики в США, сообщает The Register.

Не так давно Министерство энергетики начало продвигать размещение дата-центров рядом с электростанциями на федеральных землях в рамках программы AI Action Plan. Инициатива поддержана указами президента США Дональда Трампа (Donald Trump), предусматривающими ослабление барьеров для развития ИИ и обеспечения потребностей ИИ ЦОД в энергетике.

В консорциум, формируемый Deep Atomic, также входят ещё один разработчик атомных решений, Paragon Energy Solutions, а также связанная с бизнесом ЦОД инжиниринговая компания Future-tech и Moonlite, специализирующаяся на ИИ-инфраструктуре. А специалист по недвижимости Clayco заявляет, что занят планированием реализации инициативы в части того, как именно проектировать, организовать и построить инженерную составляющую. Компания поможет проработать и обосновать заявку для DOE и предоставит консорциуму консультации относительно согласования проектных и строительных решений с эксплуатационными требованиями к высоконагруженным ИИ-проектам.

 Источник изображения: Deep Atomic

Источник изображения: Deep Atomic

Если проект одобрят, его ожидает поэтапная реализация. В первую очередь участники намерены построить ЦОД, Deep Atomic намерена запустить его за 24–36 мес., используя уже доступные на территории INL подключения к энергосети, геотермальные и солнечные мощности. Параллельно будет проходить сертификация, изготовление и ввод в эксплуатацию малого модульного реактора (SMR) MK60. Вполне вероятно, что благодаря дополнительным источникам энергии ЦОД сможет работать даже без SMR, если проект его строительства столкнётся с непреодолимыми препятствиями. Но Deep Atomic рассчитывает, что MK60 сможет обеспечить 60 МВт мощностей для электропитания и ещё 60 МВт для охлаждения, что важно для HPC/ИИ ЦОД.

Сроки запуска как ЦОД, так и АЭС пока не называются. По оценкам Omdia, на реализацию подобных инициатив в атомной энергетике могут уйти годы из-за получения одобрения SMR на соответствие нормативам, масштабирование производства и коммерческое внедрение. Завершение вероятно ближе к 2035 году, хотя эксперты допускают, что результаты будут получены раньше. Ранее министр энергетики США выражал уверенность, что, как минимум, один SMR могут ввести в эксплуатацию к июлю 2026 года.

 Источник изображения: Deep Atomic

Источник изображения: Deep Atomic

По мнению экспертного сообщества, модель автономной мини-АЭС для отдельного ЦОД без подключения к магистральной электросети — вполне реалистичный сценарий для будущих проектов. Тем не менее, рынок энергоснабжения развивается крайне динамично, а спрос на ИИ-вычисления меняется буквально ежеквартально, что может повлиять на точность прогнозов.

В конце января сообщалось, что Министерство энергетики США продвигают «атомные кампусы» с ослабленными требованиями к ядерной безопасности, чтобы снабжать электричеством ИИ ЦОД. В сентябре 2025 года сообщалось, что бум ИИ ЦОД в США обойдётся в $350 млрд.

Постоянный URL: http://servernews.ru/1136929
16.02.2026 [16:15], Сергей Карасёв

Oxide Computer готовит блейд-платформу на базе AMD EPYC Turin

Компания Oxide Computer, по сообщению The Register, провела раунд финансирования Series C, в ходе которого на дальнейшее развитие привлечено $200 млн. Стартап планирует направить средства в том числе на создание новой стоечной платформы на аппаратной платформе AMD EPYC 9005 Turin.

Oxide Computer основана в 2019 году группой бывших инженеров Joyent и Sun Microsystems. Стартап занимается разработкой оборудования для дата-центров. При этом в качестве новой вычислительной единицы компания рассматривает целую стойку, а не отдельный сервер.

Система Oxide Computer первого поколения несёт на борту 32 вычислительных модуля, оснащённых чипами AMD EPYC 7713P (Milan). Каждый модуль содержит 64 ядра CPU, до 1 Тбайт DDR4-3200 и 10 NMVe-накопителей U.2 суммарной вместимостью 32 Тбайт. Применённая объединительная плата обеспечивает питание и коммутационную способность до 12,8 Тбит/с. Общее энергопотребление стойки находится на уровне 15 кВт.

 Источник изображения: Oxide Computer

Источник изображения: Oxide Computer

По словам генерального директора Oxide Computer Стива Така (Steve Tuck), компания проектирует обновлённую версию своей стоечной системы, в которую будут устанавливаться процессоры EPYC поколения Turin. Такие чипы насчитывают до 192 вычислительных ядер. Говорится об использовании памяти DDR5-6400. Вкупе это даст значительный прирост производительности по сравнению с оригинальной машиной. Важным преимуществом Turin является поддержка инструкций AVX-512, предназначенных для ускорения ресурсоёмких вычислений, таких как обработка больших массивов данных, задачи ИИ и пр. Какие именно модели процессоров будут задействованы в новых серверных модулях, Так уточнять не стал.

Кроме того, Oxide Computer рассматривает возможность перехода на новые коммутационные решения, которые в перспективе придут на смену ныне применяющимся изделиям Intel Tofino 2. Одним из вариантов является чип-коммутатор Xsight Labs X2, обеспечивающий пропускную способность до 12,8 Тбит/с. При этом изучаются и другие альтернативы. Oxide Computer также не исключает, что в будущем начнёт оснащать свои системы ИИ-ускорителями на базе GPU.

Постоянный URL: http://servernews.ru/1136931
16.02.2026 [11:16], Руслан Авдеев

Попутного ветра: AWS резко сократила развёртывание СЖО для Trainium3, решив обойтись преимущественно воздушным охлаждением

Amazon Web Services (AWS) резко увеличит долю воздушного охлаждения в серверах на базе ускорителей Trainium3. Производство серверов намерены нарастить во II квартале 2026 года, но жидкостное охлаждение в них будут применять далеко не так активно, как ожидалось, сообщает DigiTimes.

Если ранее планировалось применять системы жидкостного и воздушного охлаждения с соотношением 1:1, то теперь на первые будет приходиться лишь 10 % от общего числа, что способно замедлить внедрение СЖО в ЦОД. При этом ранее отраслевые эксперты прогнозировали, что проникновение СЖО на рынок ИИ-серверов вырастет с менее 20 % в 2025 году до более 50 % в 2026-м. Это должно было случиться за счёт расширения поставок GPU- и ASIC. AWS даже смогла разработать в рекордно короткие сроки собственную платформу СЖО, что привело к падению акций Vertiv, одного из бенефициаров ИИ-бума.

Новый подход к оборудованию Trainium3 ставит под вопрос будущее и динамику перехода к жидкостному охлаждению. Тем не менее, рост производства Tranium 3 в любом случае поддержит спрос на продукцию ключевых партнёров AWS: Wiwynn, Accton, Auras, Taiwan Microloops и Nan Juen International (Repon). Вероятно, спрос позволит загрузить производственные мощности до конца 2026 года. По мнению аналитиков, решение AWS во многом связано с TDP ускорителей на уровне 800 Вт (хотя раньше говорили об 1000 Вт) — для них, вероятно, достаточно и для современного воздушного охлаждения, что снижает необходимость перехода на более дорогие и сложные СЖО.

 Источник изображений: AWS

Источник изображений: AWS

По данным AWS, Trainium3 приблизительно на 40 % производительнее в сравнении с ускорителями предыдущего поколения. Также компания объявила о капитальных затратах до $200 млрд на расширение ИИ-инфраструктуры, в т.ч. производство собственно ускорителей — на 2027 год запланированы поставки уже Trainium4. Так или иначе, даже после снижения доли СЖО спрос на компоненты у партнёров должен увеличиться за счёт роста производства в целом.

Рост популярности жидкостного охлаждения в ИИ ЦОД в последние годы во многом обусловлен ростом TDP ускорителей NVIDIA. Если у H200 показатель был на уровне около 700 Вт, то у B200 — порядка 1000 Вт, а у B300 — уже 1400 Вт. Для будущих архитектур с двумя чипами значения будут ещё выше. В результате операторам ЦОД требуется эффективный отвод тепла, что могут обеспечить СЖО. Кроме того, это позволяет повысить плотность размещения оборудования.

В сегменте ASIC рост TDP заметно ниже. Так, для Trainium2 речь шла об около 500 Вт, у Trainium3 — всего 800 Вт, поэтому воздушное охлаждение — вполне рабочий вариант, за исключением некоторых сценариев, например, с высокой плотностью размещения оборудования. Также источники в цепочке поставок подчёркивают, что жидкостные системы дороже устанавливать и обслуживать в сравнении с современными воздушными вариантами. При этом экосистема производства и обслуживания СЖО часто оценивается как «менее зрелая». Благодаря этому организовать поставки серверов с воздушным охлаждением можно быстрее, и они будут более стабильными.

Беспокойство операторов ЦОД может вызывать и репутация жидкостных систем. Например, в конце января Wave Power объявила о том, что некоторые проданные компоненты СЖО для ИИ-систем привели к повреждению оборудования, поэтому компании пришлось выложить $4,5 млн, чтобы заключить мировое соглашение. По мнению экспертов, утечки в СЖО — довольно распространённое явление, не привязанное к конкретному вендору, но каждый подобный инцидент свидетельствует о потенциальных проблемах, которые заказчикам приходится принимать в расчёт.

Хотя системы жидкостного охлаждения технически предпочтительнее для самых энергоёмких нагрузок благодаря высокой эффективности теплоотвода, потенциалу снижения показателя PUE и способности обеспечить экономию пространства, на примере Trainium3 можно оценить, как совокупность факторов, включая совокупную стоимость владения (TCO) и операционные риски влияют на сроки внедрения СЖО. Изменение планов AWS может повлиять на всю индустрию ИИ ЦОД, которая может замедлить повсеместный переход на жидкостное охлаждение, по крайней мере, в краткосрочной перспективе.

Вместе с тем даже для ИИ-платформ нынешнего поколения гиперскейлеры разработали гибридные варианты охлаждения, позволяющие использовать современные системы в старых ЦОД, не рассчитанных изначально на крупномасштабные СЖО. Так, Meta «растянула» суперускорители NVIDIA GB200 на шесть стоек вместо одной, чтобы разместить там теплообменники, а Microsoft с той же целью «пристроила» к стойке с оборудованием модуль шириной в ещё пару стоек. Google же предпочитает для своих TPU именно СЖО.

Постоянный URL: http://servernews.ru/1136910
16.02.2026 [10:11], Сергей Карасёв

Китайская Montage Technology выпустила серверные процессоры Jintide на базе Intel Xeon 6

Китайская компания Montage Technology, на днях осуществившая первичное публичное размещение акций (IPO) на Гонконгской фондовой бирже, выпустила серверные процессоры Jintide следующего поколения, в основу которых положена архитектура Intel Xeon 6, доработанная под требования заказчиков в КНР.

В частности, вышли изделия Jintide C6P, которые фактически представляют собой процессоры Intel Xeon 6 семейства Granite Rapids-SP на базе производительных ядер P-core. Их количество в китайских чипах достигает 86 с возможностью одновременной обработки до 172 потоков инструкций, а максимальный объем кеша L3 составляет 336 Мбайт. Реализована 8-канальная подсистема памяти DDR5 с поддержкой модулей RDIMM-6400 и MRDIMM-8000.

Процессоры Jintide C6P могут применяться в одно- и двухсокетных конфигурациях. Говорится о поддержке 88 линий PCIe 5.0 и протокола CXL 2.0. Пропускная способность шины UPI достигает 24 ГТ/с. Обеспечивается полная совместимость с набором инструкций x86. Чипы ориентированы на дата-центры и облачные инфраструктуры с высокой вычислительной нагрузкой.

 Источник изображений: Montage Technology

Источник изображений: Montage Technology

Кроме того, дебютировали решения Jintide C6E — это модифицированные изделия Intel Xeon 6 Sierra Forest-SP с энергоэффективными ядрами E-core: их количество достигает 144. Размер кеша L3 составляет до 108 Мбайт. Процессоры имеют восемь каналов памяти DDR5-6400 и до 88 линий PCIe 5.0. Упомянута поддержка CXL 2.0 и шины UPI с пропускной способностью до 24 ГТ/с. Решения Jintide C6E могут устанавливаться в одно-и двухсокетные системы.

Компания также анонсировала чип Jintide M88STAR5(N), на основе которого реализуются различные функции безопасности. Изделие, использующее технологию Mont-TSSE (Trust & Security System Extension), отвечает за аппаратное шифрование/дешифрование данных в соответствии с местными стандартами и доверенные вычисления. На кристалле присутствуют нескольких генераторов случайных чисел, а общая пропускная способность достигает 160 Гбит/с через PCIe 5.0 х8. Упомянута поддержка стандартов TPM, TCM и TPCM, а также интерфейсов SMBus, I3C, UART, SPI и GPIO.

Наконец, Montage Technology представила чип Jintide M88IO3032 IOH (I/O Hub), предназначенный для использования с CPU нового поколения. Изделие обеспечивает поддержку PCIe 3.0, SATA 3.2 (до 20 портов; RAID 0/1/5/10), USB 3.2/2.0 и пр.

Постоянный URL: http://servernews.ru/1136926

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;