Материалы по тегу: ии

29.04.2026 [01:23], Владимир Мироненко

Tenstorrent представила ИИ-серверы Galaxy Blackhole для быстрой генерации токенов и без дезагрегации

Tenstorrent представила вычислительную систему Galaxy Blackhole на базе ускорителей Blackhole с архитектурой RISC-V, которая позиционируется как системная ИИ-платформа, способная конкурировать с другими решениями за счёт стабильной производительности инференса, высокоскоростного доступа к памяти и масштабируемой сети — трёх факторов, которые всё чаще определяют эффективность развёртывания ИИ в реальных условиях, пишет Forbes.

6U-сервер Tensorrent Galaxy Blackhole с воздушным охлаждением основан на 32 ИИ-ускорителях Blackhole суммарной производительностью 23 Пфлопс в режиме FP8. Система включает 6,2 Гбайт SRAM (суммарно 2,9 Пбайт/с) и 1 Тбайт GDDR6 (суммарно 16 Тбайт/с). Высокоскоростную связь между узлами при горизонтальном масштабировании обеспечивают 800GbE-порты — до 56 портов на систему с общей пропускной способностью 11,2 Тбайт/с (в дуплексе).

Стоимость системы Tensorrent Galaxy Blackhole составляет $110 тыс. Восьмичиповые системы NVIDIA DGX будут производительнее, но и обойдутся в три-пять раз дороже, сообщил The Register. Базовый суперкластер Galaxy Supercluster стоимостью в $440 тыс. включает четыре системы Blackhole. При этом архитектура Tenstorrent поддерживает масштабирование до 32 узлов с 1024 ускорителями. Mesh-сеть Tenstorrent не ограничивается одним узлом. Подобно кластерам TPU от Google или Trainium2 от Amazon, её можно расширить для поддержки более крупных моделей, более высокой пропускной способности или большей интерактивности, добавив больше узлов и отрегулировав параллелизм тензоров и конвейеров.

 Источник изображений: Tenstorrent

Источник изображений: Tenstorrent

Как сообщает Tenstorrent, для DeepSeek V3 её четырёхузловые суперкластеры Blackhole Galaxy Supercluster могут обрабатывать запрос на 100 тыс. токенов — эквивалент 166 страниц текста — менее чем за четыре секунды. Tenstorrent заявила, что кластеры Galaxy Blackhole могут генерировать видео быстрее, чем в реальном времени, а также очень быстро генерировать токены LLM. Демонстрационные версии систем Tenstorrent настроены на обычный режим с генерацией текста с удобочитаемой скоростью, и режим Blitz, обеспечивающий максимально быструю обработку данных, подходящую для таких приложений, как генерация кода и агентный ИИ.

В режиме Blitz MoE-модель DeepSeek-671B обеспечивает «до 350 т/с на пользователя со временем получения первого токена менее 4 с», сообщила компания. Ресурс EE Times протестировал этот режим за несколько дней до официального запуска, получив 255 т/с на пользователя для коротких запросов в стиле чат-бота. Этот режим поддерживает пакетную обработку от 8 до 64 и длину контекста до 128 тыс токенов. Он работает на 16 серверах Galaxy (512 чипов) с использованием конвейерного параллелизма на этапе декодирования.

Компания отметила, что её системы не нуждаются в дезагрегации. «Мы можем выполнять и [предварительное заполнение, и декодирование] на одном узле, — сообщил генеральный директор Tenstorrent Джим Келлер (Jim Keller) изданию EE Times. — Мы создаём большой кластер, на котором можно запускать предварительное заполнение и декодирование LLM, генерацию видео, агентный ИИ… мы не специализируемся на чём-то одном. У нас много чипов, большой объём SRAM, но все чипы имеют DRAM, и все они тесно связаны между собой, поэтому наша платформа гораздо более универсальна».

Постоянный URL: http://servernews.ru/1140829
28.04.2026 [17:24], Руслан Авдеев

С миру по миллиарду: Oracle всё-таки насобирала $16 млрд на ИИ ЦОД OpenAI в Мичигане

Компания Oracle завершила сделку по привлечению $16 млрд для финансирования строительства в Мичигане дата-центра The Barn в рамках проекта OpenAI Stargate Мичигане. После нескольких месяцев переговоров компания обеспечила получение заёмных средств и акционерного капитала для продолжения работ, сообщает Datacenter Dynamics.

Для финансирования проекта Bank of America продал связанные с проектом облигации на сумму $14 млрд. Из них ценные бумаги на сумму $10 млрд привлекла компания Pimco, остальную часть инвестиций обеспечили другие участники рынка. Срок погашения ценных бумаг — 2045 год, до этого времени владельцы облигаций станут получать фиксированные выплаты из расчёта 7,5 % годовых от номинальной стоимости. Blackstone, по имеющимся данным, внесла $2 млрд.

Проект в Салине (Saline) утверждён в октябре 2025 года. Ожидается, что площадка обеспечит 1 ГВт мощностей и обойдётся приблизительно в $10 млрд. За строительство отвечает Related Digital. STE Energy согласилась обеспечить проект 100 % необходимой электроэнергии, в т.ч. речь идёт о реализации вспомогательного проекта аккумуляторного энергохранилища, финансируемого Oracle. По словам представителя Oracle Cloud Infrastructure (OCI), вместе с партнёрами компания создаёт «высококачественные» рабочие места, инвестирует в сообщества, в которых работает и способствует долгосрочному экономическому росту на местах.

 Источник изображения: Brad Switzer/unsplash.com

Источник изображения: Brad Switzer/unsplash.com

Ранее сообщалось, что уже началось «вертикальное» строительство — возведение стен, кровли и др. после укладки фундамента и прокладки коммуникаций. Утверждалось, что все работы выполняются в срок и в соответствии с планом. Впрочем, после анонса OpenAI, Oracle и Related Digital кампуса The Barn в октябре 2025 года дела пошли не слишком гладко. Так, инвестор Blue Owl Capital отказался выделять средства, а через некоторое время TD Cowen констатировала, что банки расхотели давать Oracle деньги, и предложила последней поправить финансовое положение путём увольнения 20–30 тыс. сотрудников.

Pimco является американской инвестиционной компанией, принадлежащей Allianz Group и активно ведущей дела в Европе. В 2023 году компания запустила новую европейскую платформу ЦОД Apto. В своё время Pimco объединилась с Blue Owl, чтобы помочь Meta получать финансирование для своего ЦОД Hyperion.

Постоянный URL: http://servernews.ru/1140788
28.04.2026 [15:15], Владимир Мироненко

NEC с помощью Anthropic создаст крупнейшую в Японии команду специалистов в области ИИ, хотя сами японцы скептически относятся к ИИ

Японская корпорация NEC объявила о стратегическом сотрудничестве с ИИ-стартапом Anthropic PBC с целью ускорения внедрения ИИ в корпоративном секторе страны. Как отмечено в пресс-релизе, NEC станет первым глобальным партнёром Anthropic, базирующимся в Японии.

NEC и Anthropic будут совместно разрабатывать в рамках сотрудничества безопасные, специализированные продукты на основе ИИ для японских клиентов. Около 30 тыс. сотрудников NEC по всему миру будут использовать ИИ-модели Claude для разработки ПО с ИИ. На первом этапе совместная разработка будет сосредоточена на ИИ-решениях для таких секторов, как финансы, производство и местное самоуправление.

NEC отметила, что уже использует передовые ИИ-технологии Anthropic в работе сервисов Центра оперативного управления безопасностью (SOC) для защиты цифровой инфраструктуры компаний, работающих как в Японии, так и по всему миру, от всё более сложных киберугроз. В дальнейшем корпорации планирует использовать новые разработки и опыт, накопленный в рамках сотрудничества, для создания новых предложений в сфере кибербезопасности нового поколения с использованием Claude.

 Источник изображения:  Willian Justen de Vasconcellos / Unsplash

Источник изображения: Willian Justen de Vasconcellos / Unsplash

Компании также интегрируют Claude, включая Claude Opus 4.7 и Claude Code, в платформу NEC BluStellar Scenario, которая объединяет консалтинг, ИИ-инструменты, безопасность и услуги цифровой инфраструктуры для бизнеса, начиная с предложений по управлению на основе данных и улучшению клиентского опыта, и постепенно расширяясь на другие области. Процесс интеграции NEC начнёт с использования Claude в двух сценариях из пакета BluStellar Scenario — «Сценарии для управления на основе данных» и «Сценарии для трансформации клиентского опыта» — и постепенно распространит её применение на другие сценарии.

Совместные планы включают создание NEC Центра передового опыта (CoE) с целью подготовки высококвалифицированных специалистов по разработке с применением ИИ, используя техническую поддержку и обучение, предоставляемые Anthropic, с интеграцией Claude Code и других инструментов в повседневные рабочие процессы. Благодаря запуску центра NEC намерена создать одну из крупнейших в Японии команд инженеров, специализирующихся на ИИ.

NEC применяет подход Client Zero (клиент-ноль) к выпуску продуктов, то есть её сотрудники сначала используют продукты во внутренних бизнес-операциях, прежде чем продавать их потенциальным клиентам. В рамках партнёрства NEC расширит использование Claude Cowork в своих внутренних бизнес-операциях для Client Zero. Использование ИИ-помощника, который частично автоматизирует задачи во многих областях, позволит повысить эффективность и сэкономить время.

 Источник изображения: Buddy AN / Unsplash

Источник изображения: Buddy AN / Unsplash

«Это долгосрочное партнёрство с Anthropic позволит NEC максимально использовать потенциал ИИ на японском рынке, — заявил исполнительный директор и главный операционный директор NEC Corporation. — Вместе мы стремимся создавать решения, отвечающие высоким стандартам безопасности, надёжности и качества, которые требуются компаниям и государственным учреждениям в Японии».

Хотя японские компании и государственный сектор стремятся продвигать ИИ-технологии, общественность относится к внедрению ИИ с осторожностью, сообщил ресурс Cybernews. По данным опросов SPF, отношение японской общественности к внедрению ИИ «поразительно пессимистично» по сравнению с другими странами — японцы не уверены в способности ИИ существенно улучшить их личную жизнь и японского общества в целом.

Согласно отчёту Организации экономического сотрудничества и развития (OECD), скептицизм в отношении ИИ в Японии выше, чем в других странах Азии. Основные опасения жителей Японии включают массовую автоматизацию и потерю из-за этого рабочих мест, а также потерю доверия к властям, которые, по сути, предают свои принципы и сильно зависят от массового ИИ-производства, принадлежащего крупным транснациональным технологическим компаниям.

Постоянный URL: http://servernews.ru/1140790
28.04.2026 [14:15], Руслан Авдеев

МТС объявила о выходе на рынок модульных ЦОД

ПАО «МТС» вышла на рынок модульных дата-центров, рассчитывая предоставлять «комплексную инфраструктурную платформу полного цикла». Компания займётся полным циклом задач, от проектирования и поставки модулей ЦОД до интеграции оборудования с ИИ- и другими решениями, а также облачными сервисами. Модульный подход позволяет сократить сроки ввода ЦОД в эксплуатацию и обеспечить расширение инфраструктуры по мере необходимости без простоя оборудования в процессе масштабирования, говорит МТС.

По словами компании, вычисления доступны заказчику сразу после того, как готов первый модуль крупного дата-центра. Благодаря модульной концепции можно в короткие сроки реализовать проекты, не опасаясь того, что оборудование подорожает или будет снято с производства ещё на этапе проектирования. Важным преимуществом называется возможность сборки и тестирования модулей на этапе производства, это даёт возможность снизить стоимость ошибок и риски.

 Источник изображения: Armin Narimani/unsplash.com

Источник изображения: Armin Narimani/unsplash.com

Традиционный модульный ЦОД МТС включает четыре модуля по 150 серверных стоек каждый, мощностью 4 МВт. Заявленный PUE — 1,15. Сообщается, что первый проект уже запустили для одного из крупных представителей пищевой промышленности. Ранее решение уже проверено в Хабаровске, Краснодаре, Санкт-Петербурге и Нижнем Новгороде — в разных климатических условиях.

По данным компании, российский рынок ЦОД в 2025 году составлял 100 млрд руб., из них 10 % приходится на модульные дата-центры, сегмент которых каждый год растёт на 20 %. Основными драйверами роста спроса на новую цифровую инфраструктуру названы рост спроса на генеративный ИИ, цифровые сервисы и аналитику. Кроме того, повлиял и дефицит готовых серверных стоек и качественных комплектующих.

МТС на рынок модульных дата-центров позиционирует себя в качестве «провайдера комплексной цифровой инфраструктуры». Если несколько лет назад востребованность модульных решений была на уровне 20 %, то сегодня 80 % запросов предусматривают обеспечение традиционных и модульных ЦОД одновременно.

Предложение МТС предполагает создание платформы с единой точкой доступа к площадке, облачным средам, инфраструктуре для работы с ИИ, кибербезопасности и др. Сочетание инженерных компетенций, надёжности и «бесшовной» интеграции с сервисами компании даёт доступ к готовой платформе для роста с «понятной» экономической моделью и инструментами гибкого масштабирования, говорит МТС.

Постоянный URL: http://servernews.ru/1140800
28.04.2026 [01:11], Владимир Мироненко

Microsoft и OpenAI пересмотрели «брачный договор»: эксклюзивных прав больше нет, но и выручкой делиться не надо

Microsoft и OpenAI объявили о пересмотре условий партнёрского соглашения, что некоторые эксперты рассматривают как победу разработчика ChatGPT, хотя многие считают, обе стороны остаются в выигрыше. Как отметили обе компании, обновлённое соглашение призвано упростить партнерство и способы совместной работы, обеспечивая большую предсказуемость.

Согласно обновлённому соглашению, у Microsoft по-прежнему будет лицензия на интеллектуальную собственность OpenAI для моделей и продуктов, срок владения которой ограничен 2032 годом, однако теперь она будет неисключительной. До этого у Microsoft были эксклюзивные права на интеллектуальную собственность OpenAI до тех пор, пока та не создаст «общий ИИ» (AGI).

Microsoft по-прежнему является «основным облачным партнёром» OpenAI, т.е. основная часть облачных ресурсов OpenAI, вероятно, будет обслуживаться Azure в течение шести лет, охватываемых этим соглашением, даже несмотря на то, что OpenAI спешит построить собственные ЦОД в сотрудничестве с другими партнёрами. В октябре OpenAI обязалась приобрести облачные ресурсы Microsoft на сумму ещё $250 млрд. Фраза о том, Microsoft по-прежнему является «основным облачным партнёром» — сигнал акционерам Microsoft о том, что OpenAI по-прежнему будет крупным клиентом Azure, отметил ресурс TechCrunch. В обновлённом соглашении указано, что «продукты OpenAI будут в первую очередь поставляться Azure, если только Microsoft не сможет и не решит отказаться от поддержки».

 Источник изображения: Microsoft

Источник изображения: Microsoft

Судя по всему, Microsoft теперь будет в числе поставщиков, предлагающих новейшие продукты OpenAI. Но что более важно, «теперь OpenAI может предоставлять все свои продукты клиентам у любого облачного провайдера». Это означает, что Microsoft теперь не сможет подать в суд на OpenAI из-за того, что та в рамках инвестиционного соглашения с Amazon на $50 млрд пообещала, что AWS получит эксклюзивные права на предоставление нового инструмента OpenAI для создания агентов — Frontier. Согласно первоначальному соглашению, OpenAI запрещалось предлагать Frontier эксклюзивно в AWS (или даже не эксклюзивно, а вообще).

Когда OpenAI объявила о сделке с AWS, Microsoft публично опровергла эксклюзивные условия AWS, указав: «Microsoft сохраняет свою эксклюзивную лицензию и доступ к интеллектуальной собственности в отношении моделей и продуктов OpenAI. <…> Azure остаётся эксклюзивным поставщиком облачных услуг для stateless API-вызовов OpenAI. <…> Любые stateless-вызовы API к моделям OpenAI, являющиеся результатом сотрудничества OpenAI с любой третьей стороной, включая Amazon, будут размещаться в Azure. <…> Собственные продукты OpenAI, включая Frontier, будут по-прежнему размещаться в Azure».

Microsoft также подчеркнула, что её условия действуют до тех пор, пока OpenAI не получит AGI. Financial Times тогда сообщила, что Microsoft даже рассматривала возможность подачи судебного иска по этому поводу. Комментируя заключение обновлённого соглашения, генеральный директор Amazon Энди Джасси (Andy Jassy), в частности, отметил, что это означает, что модели OpenAI станут доступны клиентам на AWS Bedrock.

Хотя эта сделка выгодна для OpenAI, Microsoft тоже в выигрыше. Новое соглашение позволяет Microsoft прекратить выплату доли выручки OpenAI, в то время как OpenAI продолжит выплачивать долю выручки Microsoft до 2030 года, независимо от технологического прогресса OpenAI, хотя теперь эта сумма ограничена. В прошлом квартале Microsoft заработала $7,5 млрд благодаря инвестициям в OpenAI. Также Microsoft продолжает напрямую участвовать в развитии OpenAI в качестве крупного акционера. Владея примерно 27 % коммерческой компании, Microsoft будет иметь финансовую выгоду от роста OpenAI, даже в случае продаж её продуктов в AWS.

Постоянный URL: http://servernews.ru/1140756
27.04.2026 [21:29], Владимир Мироненко

Попроще и подешевле: YADRO обновила конфигурации TATLIN.AFA и TATLIN.BACKUP на фоне глобального дефицита компонентов

Компания YADRO представила оптимизированные версии СХД TATLIN.AFA и TATLIN.BACKUP, использование которых поможет снизить стоимость хранения данных при, как заявляют разработчики, сохранении ключевых эксплуатационных параметров СХД. YADRO отметила, что представленные конфигурации разработаны в ответ на глобальное удорожание и дефицит компонентов для серверов и СХД.

Новые версии TATLIN.AFA и TATLIN.BACKUP расширяют возможности выбора конфигурации под прикладные сценарии и бюджет заказчиков, которым приходится в этих условиях одновременно решать две задачи: обновлять и масштабировать ИТ-инфраструктуру, сохраняя инвестиции в разумных пределах, говорит YADRO.

Оптимизированная конфигурация TATLIN.AFA с 1 Тбайт RAM не уступает по производительности флагманской версии с 2 Тбайт, но при этом дешевле. Вместе с тем флагманская версия TATLIN.AFA с 2 Тбайт RAM лучше справляется с дедупликацией благодаря большему объёму памяти. При этом обе конфигурации получат полную функциональность ПО TATLIN 4.0 и 4.1, включая поддержку грядущих технологий онлайн-компрессии данных и асинхронной репликации.

 Источник изображений: YADRO

Источник изображений: YADRO

Обновлённая конфигурация СХД для резервного копирования TATLIN.BACKUP с 1,5 Тбайт RAM сопоставима по производительности благодаря доработкам в ПО с конфигурацией с 2 Тбайт RAM в малых системах с полезной ёмкостью до 380 Тбайт. Однако для работы с большей дисковой ёмкостью и расширенным набором функций рекомендуется перейти на классическую флагманскую конфигурацию с 2 Тбайт RAM.

Функция компрессии данных для TATLIN.AFA и TATLIN.UNIFIED, которая находится на финальной стадии разработки и войдёт в ПО TATLIN 4.1, позволит более эффективно использовать полезную ёмкость систем и дополнительно снизить стоимость хранения данных. Компания сообщила, что технологию уже можно протестировать на реальных данных с помощью эмулятора, доступного по запросу через её коммерческих представителей.

YADRO отмечает растущий приоритет для заказчиков стабильности поставок и обслуживания, а также баланса между производительностью и экономической целесообразностью. Компания заранее озаботилась запасами комплектующих и ключевых компонентов для СХД, которых хватит на 2026 год и часть 2027 года.

Постоянный URL: http://servernews.ru/1140751
27.04.2026 [19:20], Руслан Авдеев

Телеком-отрасли Бангладеш грозит коллапс из-за нехватки топлива

Боевые действия на Ближнем Востоке негативно сказываются на всех сферах экономики по всему миру из-за нарастающего топливного кризиса. Ассоциация операторов мобильной связи Бангладеш (Association of Mobile Telecom Operators of Bangladesh, AMTOB) в связи с этим предупредила правительство о вероятном отключении телеком-сетей, сообщает Datacenter Dynamics. Беда не пришла одна — на страну обрушились штормы, вызвав отключения электроэнергии, поэтому восстанавливать электроснабжение ещё труднее, чем обычно.

AMTOB представляет собой торговую ассоциацию, объединяющую операторов мобильной связи страны: Grameenphone, Robi, Banglalink, Teletalk и др. В открытом письме к правительству AMTOB призвала министров в приоритетном порядке обеспечить стабильные поставки топлива и электроэнергии для нужд телекоммуникационной инфраструктуры. Согласно тексту заявления, любой длительный дефицит способен негативно сказаться на состоянии связи в общенациональном масштабе и привести к параличу цифровой экономики.

Подчёркивается, что телеком-отрасль уже ощущает последствия нехватки энергии. По некоторым оценкам, Бангладеш импортирует порядка 95 % энергоресурсов, поэтому страна находится в особенно уязвимом положении с учётом того, что большая часть топлива поставляется именно с Ближнего Востока. По данным Reuters, Бангладеш был вынужден даже запросить у США временного освобождения от соблюдения санкций в отношении топлива из недружественных Штатам стран.

 Источник изображения: Salman Preeom/unspalsh.com

Источник изображения: Salman Preeom/unspalsh.com

По данным AMTOB, телеком-отрасли нужны срочные меры поддержки, включая бесперебойную приоритетную поставку топлива для основных объектов телеком-сети, гарантированное наличие топлива для питания базовых станций, эксплуатируемых четырьмя мобильными операторами и четырьмя компаниями, управляющими вышками. Также необходимо топливо для технического обслуживания связанного с телеком-проектами транспорта, сокращение отключений электричества на критически важных телеком-объектах и максимально быстрое восстановление электроснабжения после штормов и сбоев из-за плохой погоды.

Сегодня телеком-инфраструктура Бангладеш включает приблизительно 45 тыс. вышек, множество операторских ЦОД различного масштаба, центров управления сетью (NOC) и другие компоненты, обслуживающие 185 млн. человек. В AMTOB подчёркивают, что объекты в стране во многом зависят от дизельной и бензиновой электрогенерации, особенно в периоды отключения централизованной подачи электричества, веерных отказов и/или стихийных бедствий.

Пока ситуация на Ближнем Востоке ожидает прояснения, но совсем недавно Иран не только блокировал пролив, но и наносил удары по дата-центрам AWS в ОАЭ и Бахрейне, а также пригрозил уничтожить строящийся ЦОД Stargate в ОАЭ.

Постоянный URL: http://servernews.ru/1140705
27.04.2026 [15:30], Андрей Крупин

«К2Тех» запустил платформу для управления ИИ-гипотезами и оценки экономического эффекта инициатив

Системный интегратор «К2Тех» представил «ИИ-офис» — платформу для работы с инициативами в области искусственного интеллекта. Решение ориентировано на компании, которые переходят от локальных пилотных проектов к масштабному внедрению ИИ-технологий в рабочие процессы. Продукт помогает структурировать весь цикл внедрения: от сбора и приоритизации гипотез до запуска проектов и точного расчёта возврата инвестиций (Return On Investment, ROI).

«ИИ-офис» предоставляет единое пространство для всех инициатив организации в сфере технологий машинного обучения и искусственного интеллекта на базе нейронных сетей. В системе предусмотрены инструменты, которые позволяют вести сквозной трекинг каждой идеи: от контроля статусов и назначения ответственных до расчёта финансово-экономической модели и мониторинга хода проверки.

 Источник изображения: ai-office.k2.tech

Источник изображения: ai-office.k2.tech

В состав платформы включены следующие инструменты:

  • матрица потенциала — позволяет оценивать гипотезы по двум группам параметров: ожидаемому эффекту для бизнеса и сложности реализации;
  • ROI-калькулятор, учитывающий набор коэффициентов и метрик для разных отраслей, включая производство, HR и сервисные функции;
  • средства для работы с портфелем ИИ-инициатив, которые организованы в формате канбан-доски.

На платформе «ИИ-офис» уже собраны реализованные бизнес-сценарии «К2Тех» и партнёров компании для различных отраслей и функций предприятия. Данный каталог кейсов позволяет организациям выбирать подходящие гипотезы и на их основе выстраивать собственные решения. Среди примеров — мониторинг кредитно-гарантийных сделок, ускорение обработки заявок, автоматическая генерация проектной документации и интеллектуальный анализ статистических данных по внешнеэкономической деятельности.

Постоянный URL: http://servernews.ru/1140730
27.04.2026 [13:45], Владимир Мироненко

SUSE анонсировала SUSE AI Factory with NVIDIA, упрощающую предприятиям создание собственных ИИ-стеков

SUSE объявила о запуске платформы SUSE AI Factory with NVIDIA, разработанной специально для решения строгих глобальных задач обеспечения цифрового суверенитета. SUSE AI Factory with NVIDIA представляет собой предварительно протестированный унифицированный программный стек для корпоративного ИИ, созданный на основе SUSE AI и NVIDIA AI Enterprise, призванный преодолеть разрыв между локальной разработкой и масштабируемым корпоративным развёртыванием, позволяя предприятиям создавать, управлять и масштабировать рабочие ИИ-нагрузки на периферии сети, в ЦОД и в публичных облачных средах, сохраняя при этом более жесткий контроль над данными и инфраструктурой.

Как отметил StorageReview.com, SUSE позиционирует SUSE AI Factory with NVIDIA как стандартизированный программный слой для корпоративного ИИ, а не как автономную модель или сервис. Стек объединяет несколько компонентов NVIDIA, включая микросервисы NIM, открытые модели Nemotron, NeMo для разработки и управления агентами, Run:ai для оркестрации GPU, NVIDIA Kubernetes Operators, OpenShell для безопасной поддержки среды выполнения агентов и NemoClaw, который использует SUSE K3s в качестве части эталонной архитектуры для более безопасного развёртывания автономных агентов.

 Источник изображения: SUSE

Источник изображения: SUSE

SUSE AI Factory with NVIDIA стандартизирует развёртывание и запуск приложений ИИ, позволяя разработчикам создавать и тестировать приложения в изолированной среде, в то время как команды платформы управляют развёртыванием либо через единый интерфейс на основе Rancher, либо с помощью автоматизированных рабочих процессов GitOps для управления в масштабе предприятия. Это позволит сократить время настройки и ускорит переход от концепции к производству, уменьшая операционные издержки без необходимости использования разрозненных инструментов.

SUSE AI Factory with NVIDIA включает в себя следующие возможности:

  • Предварительно проверенные и тесно интегрированные архитектурные шаблоны для распространённых сценариев использования и рабочих нагрузок, позволяющие предприятиям сократить объём работ по интеграции компонентов NVIDIA и SUSE при создании собственных стеков, ускоряя получение результатов.
  • Безопасность и наблюдаемость на основе принципа нулевого доверия, построенные на базе SUSE Rancher Prime и SLES, с механизмами управления для сервисов ИИ на базе NVIDIA. Благодаря этому платформа обеспечивает стабильность, высокую предсказуемость и защиту базовой ИИ-инфраструктуры от возникающих рисков.
  • Единый пользовательский интерфейс, который упрощает развёртывание и управление рабочими нагрузками ИИ — от локальных рабочих станций разработчиков до изолированных кластеров на периферии сети.
  • Суверенитет и единая поддержка, что позволяет организации иметь полный контроль над своей физической инфраструктурой, данными и моделями для соблюдения внутренних политик и выполнения нормативных требований. Для обеспечения бесперебойной работы в корпоративной среде SUSE предоставляет единую точку ответственности для всего стека, включая компоненты NVIDIA AI Enterprise.
Постоянный URL: http://servernews.ru/1140716
27.04.2026 [13:35], Сергей Карасёв

«Гравитон» представил российские серверы на базе Intel Xeon для облаков, виртуализации и ИИ

Российский разработчик и производитель вычислительной техники «Гравитон» представил шесть серверов на аппаратной платформе Intel, предназначенных для реализации масштабных IT-проектов в сегментах, где наличие техники в реестре Минпромторга РФ не является обязательным требованием. В зависимости от модификации устройства подходят для решения различных задач — от облачных сервисов и виртуализации до нагрузок ИИ и НРС.

В частности, дебютировали модели СН2124И5 и СН2127И5 в форм-факторе 4U и 7U соответственно. Они рассчитаны на два процессора Xeon Sapphire Rapids или Xeon Emerald Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт оперативной памяти DDR5 в виде 32 модулей. У сервера СН2124И5 слоты расширения выполнены по схеме 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Есть 12 фронтальных отсеков для LFF-накопителей NVMe/SATA/SAS и два коннектора M.2 2280/22110 (PCIe 5.0). Возможна установка восьми GPU с энергопотреблением до 350 Вт. В свою очередь, система СН2127И5 имеет аналогичные характеристики, но позволяет использовать до восьми GPU с TDP до 600 Вт.

Кроме того, анонсированы серверы СН2122И6 (2U), СН2242И6 (2U), СН2124И6 (4U) и СН2127И6 (7U) с поддержкой двух чипов Xeon 6 (Sierra Forest-SP/Granite Rapids-SP) с показателем TDP до 350 Вт. У первой из этих систем слоты расширения выполнены по схеме 6 × PCIe 5.0 х16 FHFL + 2 × OCP NIC (или 6 × PCIe 5.0 х16 FHFL + 2 × PCIe 5.0 х8 HHHL + 2 × OCP NIC), у трёх других — 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Во всех случаях возможно использование до 8 Тбайт памяти DDR5 (32 модуля).

 Источник изображений: «Гравитон»

Источник изображений: «Гравитон»

Модель СН2122И6 поддерживает следующие накопители: 12 × LFF NVMe/SATA/SAS во фронтальной части, 2 × SFF SATA/SAS или 4 × SFF NVMe/SATA/SAS, а также 2 × M.2 2280/22110 (PCIe 5.0). Модификации СН2242И6, СН2124И6 и СН2127И6 рассчитаны на накопители в конфигурации 12 × LFF NVMe/SATA/SAS и 2 × M.2 2280/22110 (PCIe 5.0). Две старшие версии поддерживают восемь GPU с TDP до 350 и 600 Вт.

Все серверы располагают контроллером Aspeed AST2600 с выделенным сетевым портом управления 1GbE и воздушной системой охлаждения. Устанавливаются блоки питания мощностью до 3000 Вт с сертификатом 80 Plus Platinum. Заявлена совместимость с Windows и Linux. Гарантия производителя составляет три года.

Постоянный URL: http://servernews.ru/1140695

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;