Материалы по тегу: hardware
|
28.04.2026 [17:24], Руслан Авдеев
С миру по миллиарду: Oracle всё-таки насобирала $16 млрд на ИИ ЦОД OpenAI в МичиганеКомпания Oracle завершила сделку по привлечению $16 млрд для финансирования строительства в Мичигане дата-центра The Barn в рамках проекта OpenAI Stargate Мичигане. После нескольких месяцев переговоров компания обеспечила получение заёмных средств и акционерного капитала для продолжения работ, сообщает Datacenter Dynamics. Для финансирования проекта Bank of America продал связанные с проектом облигации на сумму $14 млрд. Из них ценные бумаги на сумму $10 млрд привлекла компания Pimco, остальную часть инвестиций обеспечили другие участники рынка. Срок погашения ценных бумаг — 2045 год, до этого времени владельцы облигаций станут получать фиксированные выплаты из расчёта 7,5 % годовых от номинальной стоимости. Blackstone, по имеющимся данным, внесла $2 млрд. Проект в Салине (Saline) утверждён в октябре 2025 года. Ожидается, что площадка обеспечит 1 ГВт мощностей и обойдётся приблизительно в $10 млрд. За строительство отвечает Related Digital. STE Energy согласилась обеспечить проект 100 % необходимой электроэнергии, в т.ч. речь идёт о реализации вспомогательного проекта аккумуляторного энергохранилища, финансируемого Oracle. По словам представителя Oracle Cloud Infrastructure (OCI), вместе с партнёрами компания создаёт «высококачественные» рабочие места, инвестирует в сообщества, в которых работает и способствует долгосрочному экономическому росту на местах.
Источник изображения: Brad Switzer/unsplash.com Ранее сообщалось, что уже началось «вертикальное» строительство — возведение стен, кровли и др. после укладки фундамента и прокладки коммуникаций. Утверждалось, что все работы выполняются в срок и в соответствии с планом. Впрочем, после анонса OpenAI, Oracle и Related Digital кампуса The Barn в октябре 2025 года дела пошли не слишком гладко. Так, инвестор Blue Owl Capital отказался выделять средства, а через некоторое время TD Cowen констатировала, что банки расхотели давать Oracle деньги, и предложила последней поправить финансовое положение путём увольнения 20–30 тыс. сотрудников. Pimco является американской инвестиционной компанией, принадлежащей Allianz Group и активно ведущей дела в Европе. В 2023 году компания запустила новую европейскую платформу ЦОД Apto. В своё время Pimco объединилась с Blue Owl, чтобы помочь Meta✴ получать финансирование для своего ЦОД Hyperion.
28.04.2026 [16:33], Руслан Авдеев
Samsung Heavy Industries займётся строительством плавучих ЦОД совместно с американской Mousterian CorporationОдин из крупнейших в мире судостроителей — южнокорейская Samsung Heavy Industries подписала меморандум с американским девелопером береговой цифровой инфраструктуры Mousterian Corporation (M3) о создании плавучих ЦОД (FDC) гиперскейл-класса для удовлетворения спроса ИИ-вычисления, сообщает Converge! Digest. Особенно потенциальным партнёрам интересны регионы с ограниченными земельными ресурсами и проблемами с подключением к местными электросетям. По словам Mousterian Corporation, привлечение к проекту Samsung Heavy Industries подтверждает институциональную жизнеспособность FDC как явления. В рамках нового партнёрства M3 возглавит подбор участков, строительство, взаимодействие с потенциальными арендаторами и привлечение капитала, а Samsung Heavy Industries обеспечит компетенции в области морского инжиниринга, изготовления различных конструкций и крупнотоннажного судостроения. Компании намерены заняться внедрением плавучих ЦОД в различных юрисдикциях с использованием промышленных методов морского строительства. Это позволит ускорить сроки развёртывания инфраструктуры в сравнении с традиционными наземными дата-центрами. Концепция плавучих ЦОД ориентирована на размещение вычислительной инфраструктуры рядом с действующими электростанциями, в том числе в локациях с недоиспользуемыми, невостребованными мощностями. Реализация проекта позволяет обойти традиционные ограничения, связанные с энергоснабжением, а также получением разрешений на застройку. Таким образом партнёры стремятся ускорить создание ИИ-инфраструктуры гигаваттного масштаба с применением морских систем для эффективного охлаждения и модульного масштабирования. Кроме того, упоминалось и совместное создание плавучих малых модульных реакторов (SMR). По мнению Converge!, жизнеспособность таких проектов во многом зависит от особенностей реализации и экономической целесообразности той или иной площадки. Близкое расположение от прибрежных электростанций, терминалов СПГ и морских энергетических установок упростит получение питания и ускорит развёртывание. Охлаждение забортной водой позволит эффективно отводить тепло от высокоплотных кластеров. Кроме того, изготовление на верфях обеспечивает повторяемую, модульную модель производства, при эффективном масштабировании способную оптимизировать сроки строительства и предсказуемость затрат. Тем не менее экономическая целесообразность носит скорее ситуативный характер. Морские и прибрежные проекты требуют более высоких капитальных затрат, связанных с проектированием морского оборудования, системами швартовки, защитой от коррозии и специализированным техническим обслуживанием. Из-за специфики логистики, нехватки рабочих руки и более суровых условий работы могут вырасти и эксплуатационные расходы. Финансирование также может усложниться, поскольку плавучие ЦОД представляют собой гибриды морской инфраструктуры и цифровых активов, что требует от кредиторов и страховых компаний разработки новых систем оценки рисков. Для успеха модели решающую роль играет стратегия энергоэффективности и энергоснабжения. Тем не менее, кабельные системы для таких ЦОД будут довольно сложны и дороги, это касается и ВОЛС. Поэтому проекты FDC, вероятно, останутся нишевым, но ценным вариантом, особенно для тех регионов, где энергия вблизи воды имеется в изобилии, а вот земли не хватает. К таковым относится, например, Сингапур и окрестности. В Японии тоже есть несколько аналогичных проектов, сразу два от Mitsui и ещё один от NYK Line. Часть проектов опирается на питание не с берега, а с плавающих электростанций. Морские проекты, связанные с цифровой инфраструктурой — не редкость. Так, Samsung подписала с OpenAI письмо о намерениях, предусматривавшее, в числе прочего, и совместную разработку плавучих ЦОД, а Aikido объединила морские ветряки с модульными дата-центрами. Впрочем, не все проекты заканчиваются успешно. Так, один из пионеров плавучих ЦОД Nautilus в итоге выставила на продажу свой дата-центр и переключилась на инфраструктурные решения для наземных ЦОД.
28.04.2026 [14:15], Руслан Авдеев
МТС объявила о выходе на рынок модульных ЦОДПАО «МТС» вышла на рынок модульных дата-центров, рассчитывая предоставлять «комплексную инфраструктурную платформу полного цикла». Компания займётся полным циклом задач, от проектирования и поставки модулей ЦОД до интеграции оборудования с ИИ- и другими решениями, а также облачными сервисами. Модульный подход позволяет сократить сроки ввода ЦОД в эксплуатацию и обеспечить расширение инфраструктуры по мере необходимости без простоя оборудования в процессе масштабирования, говорит МТС. По словами компании, вычисления доступны заказчику сразу после того, как готов первый модуль крупного дата-центра. Благодаря модульной концепции можно в короткие сроки реализовать проекты, не опасаясь того, что оборудование подорожает или будет снято с производства ещё на этапе проектирования. Важным преимуществом называется возможность сборки и тестирования модулей на этапе производства, это даёт возможность снизить стоимость ошибок и риски.
Источник изображения: Armin Narimani/unsplash.com Традиционный модульный ЦОД МТС включает четыре модуля по 150 серверных стоек каждый, мощностью 4 МВт. Заявленный PUE — 1,15. Сообщается, что первый проект уже запустили для одного из крупных представителей пищевой промышленности. Ранее решение уже проверено в Хабаровске, Краснодаре, Санкт-Петербурге и Нижнем Новгороде — в разных климатических условиях. По данным компании, российский рынок ЦОД в 2025 году составлял 100 млрд руб., из них 10 % приходится на модульные дата-центры, сегмент которых каждый год растёт на 20 %. Основными драйверами роста спроса на новую цифровую инфраструктуру названы рост спроса на генеративный ИИ, цифровые сервисы и аналитику. Кроме того, повлиял и дефицит готовых серверных стоек и качественных комплектующих. МТС на рынок модульных дата-центров позиционирует себя в качестве «провайдера комплексной цифровой инфраструктуры». Если несколько лет назад востребованность модульных решений была на уровне 20 %, то сегодня 80 % запросов предусматривают обеспечение традиционных и модульных ЦОД одновременно. Предложение МТС предполагает создание платформы с единой точкой доступа к площадке, облачным средам, инфраструктуре для работы с ИИ, кибербезопасности и др. Сочетание инженерных компетенций, надёжности и «бесшовной» интеграции с сервисами компании даёт доступ к готовой платформе для роста с «понятной» экономической моделью и инструментами гибкого масштабирования, говорит МТС.
28.04.2026 [14:05], Сергей Карасёв
Сделано в США: Supermicro открыла свой самый крупный кампус в Кремниевой долинеКомпания Supermicro объявила о создании новой площадки DCBBS (Data Center Building Block Solutions) — своего самого крупного кампуса в Кремниевой долине и четвертого по счёту объекта в районе залива Сан-Франциско (Калифорния, США). Комплекс расположен неподалёку от штаб-квартиры Supermicro в Сан-Хосе. Его появление позволит расширить производство серверного оборудования на территории США. Это, как отмечается, поможет в укреплении потенциала американской инфраструктуры ИИ. Кампус площадью 66,3 тыс. м2 расположился на территории 13,3 га. На базе кампуса будет осуществляться полный спектр операций — от разработки и тестирования передового оборудования до изготовления и обслуживания. Supermicro DCBBS предоставляет комплексную модульную инфраструктуру для ИИ. При этом обеспечивается гибкость развёртывания — от отдельных ускорителей на базе GPU и сетевых коммутаторов до полнофункциональных стоек, сопутствующей инфраструктуры, ПО для управления и профессиональных услуг. Supermicro отмечает, что спрос на ИИ-системы продолжает стремительно расти со стороны корпоративных заказчиков и облачных провайдеров. Этому способствует появление всё более сложных и ресурсоёмких рабочих нагрузок. Интегрированный подход Supermicro — от выполнения проектирования на системном уровне до поставок стоечных систем — обеспечивает ускорение строительства ЦОД, повышение энергоэффективности и снижение общей стоимости владения. Новый кампус Supermicro поможет существенно расширить производственные мощности, доведя общую площадь объектов компании в районе залива Сан-Франциско до 371,6 тыс. м2.
28.04.2026 [12:25], Руслан Авдеев
Meta✴ рассчитывает снабжать свои ИИ ЦОД энергией с орбитыНа фоне растущего спроса на ИИ, Meta✴ ищет новые способы обеспечить свои дата-центры энергией. Один из наиболее амбициозных проектов — отправка солнечной энергии с орбиты. Также компания организует энергохранилища для длительного снабжения ЦОД в случае отключения электроэнергии, сообщает The Register. Meta✴ заявляет, что её ИИ-проекты требуют всё больше энергии, но современных «зелёных» технологий часто недостаточно. Поэтому с Overview Energy заключено соглашение, в рамках которого Meta✴ получит ранний доступ к 1 ГВт энергии из космоса. Стартап рассчитывает собирать в космосе солнечную энергию и передавать на наземные солнечные станции, обеспечивая круглосуточную генерацию. «Ретрансляцией» света на Землю займётся группировка из 1 тыс. спутников. Overview рассчитывает провести орбитальную демонстрацию в 2028 году, а коммерческую эксплуатацию начать в 2030 году. В конце 2025 года компания провела демонстрацию «трансляции» энергии на наземную солнечную электростанцию лёгким самолётом с высоты 5 км. По словам компании, спутники будут находиться на геосинхронной орбите высотой более 35 тыс. км и станут передавать свет низкой интенсивности в ближнем инфракрасном диапазоне. Излучение будет направлено на действующие солнечные электростанции, простаивающие по ночам — это позволит таким объектам генерировать электричество круглосуточно, максимизируя выработку.
Источник изображения: Meta✴ Тем временем Meta✴ занялась реализацией ещё одного амбициозного проекта. Она объявила о соглашении с Noon Energy по использованию аккумуляторных энергохранилищ. Meta✴ утверждает, что оба её партнёра являются пионерами в своих нишах и именно поэтому стоит поддержать их именно на ранних стадиях разработок. Во сколько обойдётся реализация соглашений, будет объявлено позже. Это только последние соглашения, заключённые Meta✴ для энергообеспечения своих масштабных ЦОД. В январе компания заключила договор с тремя атомными электростанциями. Хотя ввод объектов в эксплуатацию маловероятен до 2030 года. Были и соглашения, касающиеся ветряной и солнечной энергетики — это расширяет сферу интересов компании. Формально в проектах сбора энергии в космосе нет ничего нового. Например, компания Space Solar уже провела около года назад испытания технологий, способствующих созданию ключевого основополагающего блока для строительства в космосе гигантских солнечных батарей длиной в несколько километров и шириной около 20 м. Собираемую энергию предполагается отправлять на Землю. Проектов использования солнечной энергии непосредственно в космосе тоже немало. Так, в рамках инициативы Project Suncatcher компании Google планируется использовать спутники-ЦОД на солнечной энергии, нечто подобное намерена реализовать и Starcloud, а также другие компании.
28.04.2026 [10:14], Сергей Карасёв
Kingston выпустила SSD серии DC3000ME вместимостью 30,72 ТбайтКомпания Kingston расширила ассортимент SSD серии DC3000ME, представив модель вместимостью 30,72 Тбайт. Новинка, рассчитанная на дата-центры, выполнена в форм-факторе SFF U.2 толщиной 15 мм и оснащена интерфейсом PCIe 5.0 x4 (NVMe). Накопители DC3000ME были анонсированы около года назад. Изначально в семейство вошли модели ёмкостью 3,84, 7,68 и 15,36 Тбайт, построенные на чипах флеш-памяти 3D eTLC NAND. Новое устройство, рассчитанное на хранение 30,72 Тбайт информации, обеспечивает скорость последовательного чтения до 14 000 Мбайт/с и скорость последовательной записи до 9700 Мбайт/с. Показатель IOPS (операций ввода/вывода в секунду) при произвольном чтении блоками по 4 Кбайт достигает 2,6 млн, при произвольной записи — 350 тыс. Заявленная задержка при чтение составляет менее 175 мкс, при записи — менее 12 мкс. Гарантированный объём записанной информации (величина TBW) — 56 064 Тбайт. SSD рассчитан на одну полную перезапись в сутки (1 DWPD) на протяжении пяти лет. Средняя наработка на отказ (MTBF) — 2 млн часов. В накопителе реализована поддержка TCG Opal 2.0 и шифрования AES-256. Упомянуты статическое и динамическое выравнивание износа, а также встроенная защита от потери питания. Энергопотребление в режиме простоя составляет 9 Вт, в режиме чтения — 9,5 Вт. Диапазон рабочих температур простирается от 0 до +70 °C. Устройство имеет габариты 100,5 × 69,8 × 14,8 мм и весит 160,5 г. Производитель предоставляет на новинку 5-летнюю гарантию и бесплатную техническую поддержку. SSD подходит для широкого спектра серверных задач, среди которых названы приложения ИИ и HPC, оперативная обработка транзакций (OLTP), базы данных, облачная инфраструктура и периферийные вычисления.
28.04.2026 [09:07], Руслан Авдеев
Проект 700-МВт ЦОД в Бранденбурге не был даже официально анонсирован, но уже вызвал протесты местных жителейПредложение построить 700-МВт кампус ЦОД вблизи городка Фрайенштайн (Freyenstein), ныне входящего в Витшток (Wittstock/Dosse), в земле Бранденбург на северо-востоке Германии подтолкнуло местных жителей к участию в протестах, сообщает Datacenter Dynamics. Проект стоимостью €25 млрд ($29 млрд) предложила архитектурно-инженерная компания NOYA Generalplanung und Projektmanagement GmbH. Также в проекте намеревается участвовать Serban DC — подразделение турецкой Serban (Açık Holding). По словам участников проекта, место для ИИ-хаба во многом выбрано благодаря близости к ЛЭП 380 кВ — хотя переговоры с поставщиком электроэнергии пока не закончились — и к дороге, связывающей Фрайенштайн и Нойкёльн (Neukölln). Кампус площадью 144 га будет включать подстанцию и до 20 зданий, некоторые высотой до 27 м. Строительство обойдётся в €9 млрд ($10,5 млрд), а затраты на оборудование составят €16 млрд ($18,7 млрд). Ожидается, что реализация проекта позволит создать в регионе 1,2 тыс. рабочих мест. Предполагаемое строительство начнётся в конце 2029 года, а сами авторы проекта даже ещё не получили одобрение властей, но местные жители уже жители вышли на протесты с плакатами. Протестующие заявили, что хотят видеть свою «прекрасную Родину» такой, какой её знают — с её природой, улицами и домами, тишиной и покоем, открытыми пространствами и многовековой историей. Некоторых беспокоит, что кампус, возможно, будет потреблять много воды и негативно повлияет на транспортную обстановку. Бранденбург привлекает всё больше внимания со стороны сектора ЦОД и «рискует» стать крупным ИИ-хабом Германии. В регионе объявлено о создании совместного предприятия WBS Power и Prime Capital для строительства кампуса ЦОД мощностью 500 МВт на заброшенном военном аэродроме. 200-МВт кампус планирует построить Schwarz Group, владеющая сетью Lidl. NOYA также участвует в проекте строительства ЦОД мощностью 300 МВт в городе Деммине (Demmin) на северо-востоке Германии. Место выбрано недалеко от подстанции, находящейся в процессе модернизации. Работы на подстанции планируют завершить в 2028 году, ввод в эксплуатацию ЦОД возможен в 2030 году. В проект рассчитывают инвестировать более €1 млрд ($1,2 млрд). Предполагается, что выделяемое объектом тепло будут передавать на нужды отопления. Тем временем в мире набирают силу протесты против строительства дата-центров. В частности, в США не обошлось без стрельбы, а жители одного из городков буквально выгнали половину муниципалитета за одобрение одного из подобных проектов и ищут способов сместить остальных членов городского совета и мэра.
27.04.2026 [21:29], Владимир Мироненко
Попроще и подешевле: YADRO обновила конфигурации TATLIN.AFA и TATLIN.BACKUP на фоне глобального дефицита компонентовКомпания YADRO представила оптимизированные версии СХД TATLIN.AFA и TATLIN.BACKUP, использование которых поможет снизить стоимость хранения данных при, как заявляют разработчики, сохранении ключевых эксплуатационных параметров СХД. YADRO отметила, что представленные конфигурации разработаны в ответ на глобальное удорожание и дефицит компонентов для серверов и СХД. Новые версии TATLIN.AFA и TATLIN.BACKUP расширяют возможности выбора конфигурации под прикладные сценарии и бюджет заказчиков, которым приходится в этих условиях одновременно решать две задачи: обновлять и масштабировать ИТ-инфраструктуру, сохраняя инвестиции в разумных пределах, говорит YADRO. Оптимизированная конфигурация TATLIN.AFA с 1 Тбайт RAM не уступает по производительности флагманской версии с 2 Тбайт, но при этом дешевле. Вместе с тем флагманская версия TATLIN.AFA с 2 Тбайт RAM лучше справляется с дедупликацией благодаря большему объёму памяти. При этом обе конфигурации получат полную функциональность ПО TATLIN 4.0 и 4.1, включая поддержку грядущих технологий онлайн-компрессии данных и асинхронной репликации. Обновлённая конфигурация СХД для резервного копирования TATLIN.BACKUP с 1,5 Тбайт RAM сопоставима по производительности благодаря доработкам в ПО с конфигурацией с 2 Тбайт RAM в малых системах с полезной ёмкостью до 380 Тбайт. Однако для работы с большей дисковой ёмкостью и расширенным набором функций рекомендуется перейти на классическую флагманскую конфигурацию с 2 Тбайт RAM. Функция компрессии данных для TATLIN.AFA и TATLIN.UNIFIED, которая находится на финальной стадии разработки и войдёт в ПО TATLIN 4.1, позволит более эффективно использовать полезную ёмкость систем и дополнительно снизить стоимость хранения данных. Компания сообщила, что технологию уже можно протестировать на реальных данных с помощью эмулятора, доступного по запросу через её коммерческих представителей. YADRO отмечает растущий приоритет для заказчиков стабильности поставок и обслуживания, а также баланса между производительностью и экономической целесообразностью. Компания заранее озаботилась запасами комплектующих и ключевых компонентов для СХД, которых хватит на 2026 год и часть 2027 года.
27.04.2026 [15:22], Владимир Мироненко
РТК-ЦОД ввёл в эксплуатацию третью очередь ЦОД в ЕкатеринбургеРТК-ЦОД объявил о вводе в эксплуатацию третьей очереди ЦОД в Екатеринбурге в рамках инвестиционного проекта стоимостью около 1 млрд руб. С её запуском екатеринбургский кластер дата-центров РТК-ЦОД стал крупнейшим действующим кластером компании в восточной части России. Общая площадь объекта выросла до 3100 м2, совокупная мощность достигла 6 МВт при увеличении стойко-мест до 644. Благодаря расположению в черте города площадка предлагает удобную транспортную доступность. На кластере уже присутствует более десятка операторов связи и точка обмена трафиком, обеспечивая клиентам широкие возможности по быстрому подключению и построению отказоустойчивой телеком-инфраструктуры. Запуск первой и второй очередей ЦОД производился поэтапно в период с 2018 по 2024 год. Третья очередь включает 214 стоек, размещённых в двух изолированных машинных залах по 107 стоек в каждом, и рассчитана на 2 МВт приведенной мощности. Расширение кластера в Екатеринбурге отражает подход РТК-ЦОД к региональному рынку: компания последовательно наращивает мощности дата-центров, ориентируясь на потребности клиентов и динамику спроса. ЦОД «Екатеринбург-3» предлагает заказчикам высокий уровень надёжности и гибкости для работы с ИТ-инфраструктурой с соответствии с требованиями Tier III благодаря комплексу современных инженерных решений, включая резервирование систем охлаждения, дизель-генераторные установки и подключение по двум независимым лучам электропитания. Дополнительную защищённость инфраструктуры клиентов обеспечивают архитектура «дом в доме» и три периметра безопасности, а сама площадка позволяет проводить ремонт и модернизацию без остановки оборудования и прерывания сервисов. Это позволяет снизить риски недоступности бизнес-критичных систем, обеспечивает SLA 99,95 % и круглосуточную техническую поддержку, а также гарантирует клиентам возможность быстрого масштабирования и развёртывания своих информационных систем. В Екатеринбурге компания предлагает не только аренду или размещение собственного оборудования (colocation) в кластере ЦОД, но и современные облачные сервисы под брендом «Турбо Облако», такие как виртуальная инфраструктура, базы данных, Kubernetes, почта как сервис, облачный диск, решения для резервного копирования и аварийного восстановления, сервисы объединенных коммуникаций и многое другое. Давид Мартиросов, генеральный директор РТК-ЦОД подчеркнул, что запуск третьей очереди ЦОД в Екатеринбурге — это не только расширение мощностей парка дата-центров компании, но и вклад в развитие цифровой экономики страны. Он отметил устойчивый рост спроса на облачные и инфраструктурные сервисы в регионах, исходя из которого компания последовательно развивает площадки, ориентируясь на реальные потребности рынка. По словам Мартиросов, важную роль в этой работе играет локальная команда, чья накопленная практическая экспертиза обеспечивает высокое качество эксплуатации, быстрое внедрение новых очередей и стабильную работу площадки по мере её масштабирования. «Екатеринбургский кластер стал крупнейшим действующим кластером РТК-ЦОД в восточной части страны, и мы уже смотрим на его дальнейшее развитие», — заявил генеральный директор РТК-ЦОД.
27.04.2026 [13:35], Сергей Карасёв
«Гравитон» представил российские серверы на базе Intel Xeon для облаков, виртуализации и ИИ
emerald rapids
gpu
granite rapids
hardware
intel
sapphire rapids
sierra forest
xeon
гравитон
сделано в россии
сервер
Российский разработчик и производитель вычислительной техники «Гравитон» представил шесть серверов на аппаратной платформе Intel, предназначенных для реализации масштабных IT-проектов в сегментах, где наличие техники в реестре Минпромторга РФ не является обязательным требованием. В зависимости от модификации устройства подходят для решения различных задач — от облачных сервисов и виртуализации до нагрузок ИИ и НРС. В частности, дебютировали модели СН2124И5 и СН2127И5 в форм-факторе 4U и 7U соответственно. Они рассчитаны на два процессора Xeon Sapphire Rapids или Xeon Emerald Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт оперативной памяти DDR5 в виде 32 модулей. У сервера СН2124И5 слоты расширения выполнены по схеме 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Есть 12 фронтальных отсеков для LFF-накопителей NVMe/SATA/SAS и два коннектора M.2 2280/22110 (PCIe 5.0). Возможна установка восьми GPU с энергопотреблением до 350 Вт. В свою очередь, система СН2127И5 имеет аналогичные характеристики, но позволяет использовать до восьми GPU с TDP до 600 Вт. Кроме того, анонсированы серверы СН2122И6 (2U), СН2242И6 (2U), СН2124И6 (4U) и СН2127И6 (7U) с поддержкой двух чипов Xeon 6 (Sierra Forest-SP/Granite Rapids-SP) с показателем TDP до 350 Вт. У первой из этих систем слоты расширения выполнены по схеме 6 × PCIe 5.0 х16 FHFL + 2 × OCP NIC (или 6 × PCIe 5.0 х16 FHFL + 2 × PCIe 5.0 х8 HHHL + 2 × OCP NIC), у трёх других — 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Во всех случаях возможно использование до 8 Тбайт памяти DDR5 (32 модуля).
Источник изображений: «Гравитон» Модель СН2122И6 поддерживает следующие накопители: 12 × LFF NVMe/SATA/SAS во фронтальной части, 2 × SFF SATA/SAS или 4 × SFF NVMe/SATA/SAS, а также 2 × M.2 2280/22110 (PCIe 5.0). Модификации СН2242И6, СН2124И6 и СН2127И6 рассчитаны на накопители в конфигурации 12 × LFF NVMe/SATA/SAS и 2 × M.2 2280/22110 (PCIe 5.0). Две старшие версии поддерживают восемь GPU с TDP до 350 и 600 Вт. ![]() Все серверы располагают контроллером Aspeed AST2600 с выделенным сетевым портом управления 1GbE и воздушной системой охлаждения. Устанавливаются блоки питания мощностью до 3000 Вт с сертификатом 80 Plus Platinum. Заявлена совместимость с Windows и Linux. Гарантия производителя составляет три года. |
|

