Материалы по тегу:

28.04.2026 [01:11], Владимир Мироненко

Microsoft и OpenAI пересмотрели «брачный договор»: эксклюзивных прав больше нет, но и выручкой делиться не надо

Microsoft и OpenAI объявили о пересмотре условий партнёрского соглашения, что некоторые эксперты рассматривают как победу разработчика ChatGPT, хотя многие считают, обе стороны остаются в выигрыше. Как отметили обе компании, обновлённое соглашение призвано упростить партнерство и способы совместной работы, обеспечивая большую предсказуемость.

Согласно обновлённому соглашению, у Microsoft по-прежнему будет лицензия на интеллектуальную собственность OpenAI для моделей и продуктов, срок владения которой ограничен 2032 годом, однако теперь она будет неисключительной. До этого у Microsoft были эксклюзивные права на интеллектуальную собственность OpenAI до тех пор, пока та не создаст «общий ИИ» (AGI).

Microsoft по-прежнему является «основным облачным партнёром» OpenAI, т.е. основная часть облачных ресурсов OpenAI, вероятно, будет обслуживаться Azure в течение шести лет, охватываемых этим соглашением, даже несмотря на то, что OpenAI спешит построить собственные ЦОД в сотрудничестве с другими партнёрами. В октябре OpenAI обязалась приобрести облачные ресурсы Microsoft на сумму ещё $250 млрд. Фраза о том, Microsoft по-прежнему является «основным облачным партнёром» — сигнал акционерам Microsoft о том, что OpenAI по-прежнему будет крупным клиентом Azure, отметил ресурс TechCrunch. В обновлённом соглашении указано, что «продукты OpenAI будут в первую очередь поставляться Azure, если только Microsoft не сможет и не решит отказаться от поддержки».

 Источник изображения: Microsoft

Источник изображения: Microsoft

Судя по всему, Microsoft теперь будет в числе поставщиков, предлагающих новейшие продукты OpenAI. Но что более важно, «теперь OpenAI может предоставлять все свои продукты клиентам у любого облачного провайдера». Это означает, что Microsoft теперь не сможет подать в суд на OpenAI из-за того, что та в рамках инвестиционного соглашения с Amazon на $50 млрд пообещала, что AWS получит эксклюзивные права на предоставление нового инструмента OpenAI для создания агентов — Frontier. Согласно первоначальному соглашению, OpenAI запрещалось предлагать Frontier эксклюзивно в AWS (или даже не эксклюзивно, а вообще).

Когда OpenAI объявила о сделке с AWS, Microsoft публично опровергла эксклюзивные условия AWS, указав: «Microsoft сохраняет свою эксклюзивную лицензию и доступ к интеллектуальной собственности в отношении моделей и продуктов OpenAI. <…> Azure остаётся эксклюзивным поставщиком облачных услуг для stateless API-вызовов OpenAI. <…> Любые stateless-вызовы API к моделям OpenAI, являющиеся результатом сотрудничества OpenAI с любой третьей стороной, включая Amazon, будут размещаться в Azure. <…> Собственные продукты OpenAI, включая Frontier, будут по-прежнему размещаться в Azure».

Microsoft также подчеркнула, что её условия действуют до тех пор, пока OpenAI не получит AGI. Financial Times тогда сообщила, что Microsoft даже рассматривала возможность подачи судебного иска по этому поводу. Комментируя заключение обновлённого соглашения, генеральный директор Amazon Энди Джасси (Andy Jassy), в частности, отметил, что это означает, что модели OpenAI станут доступны клиентам на AWS Bedrock.

Хотя эта сделка выгодна для OpenAI, Microsoft тоже в выигрыше. Новое соглашение позволяет Microsoft прекратить выплату доли выручки OpenAI, в то время как OpenAI продолжит выплачивать долю выручки Microsoft до 2030 года, независимо от технологического прогресса OpenAI, хотя теперь эта сумма ограничена. В прошлом квартале Microsoft заработала $7,5 млрд благодаря инвестициям в OpenAI. Также Microsoft продолжает напрямую участвовать в развитии OpenAI в качестве крупного акционера. Владея примерно 27 % коммерческой компании, Microsoft будет иметь финансовую выгоду от роста OpenAI, даже в случае продаж её продуктов в AWS.

Постоянный URL: http://servernews.ru/1140756
27.04.2026 [21:29], Владимир Мироненко

Попроще и подешевле: YADRO обновила конфигурации TATLIN.AFA и TATLIN.BACKUP на фоне глобального дефицита компонентов

Компания YADRO представила оптимизированные версии СХД TATLIN.AFA и TATLIN.BACKUP, использование которых поможет снизить стоимость хранения данных при, как заявляют разработчики, сохранении ключевых эксплуатационных параметров СХД. YADRO отметила, что представленные конфигурации разработаны в ответ на глобальное удорожание и дефицит компонентов для серверов и СХД.

Новые версии TATLIN.AFA и TATLIN.BACKUP расширяют возможности выбора конфигурации под прикладные сценарии и бюджет заказчиков, которым приходится в этих условиях одновременно решать две задачи: обновлять и масштабировать ИТ-инфраструктуру, сохраняя инвестиции в разумных пределах, говорит YADRO.

Оптимизированная конфигурация TATLIN.AFA с 1 Тбайт RAM не уступает по производительности флагманской версии с 2 Тбайт, но при этом дешевле. Вместе с тем флагманская версия TATLIN.AFA с 2 Тбайт RAM лучше справляется с дедупликацией благодаря большему объёму памяти. При этом обе конфигурации получат полную функциональность ПО TATLIN 4.0 и 4.1, включая поддержку грядущих технологий онлайн-компрессии данных и асинхронной репликации.

 Источник изображений: YADRO

Источник изображений: YADRO

Обновлённая конфигурация СХД для резервного копирования TATLIN.BACKUP с 1,5 Тбайт RAM сопоставима по производительности благодаря доработкам в ПО с конфигурацией с 2 Тбайт RAM в малых системах с полезной ёмкостью до 380 Тбайт. Однако для работы с большей дисковой ёмкостью и расширенным набором функций рекомендуется перейти на классическую флагманскую конфигурацию с 2 Тбайт RAM.

Функция компрессии данных для TATLIN.AFA и TATLIN.UNIFIED, которая находится на финальной стадии разработки и войдёт в ПО TATLIN 4.1, позволит более эффективно использовать полезную ёмкость систем и дополнительно снизить стоимость хранения данных. Компания сообщила, что технологию уже можно протестировать на реальных данных с помощью эмулятора, доступного по запросу через её коммерческих представителей.

YADRO отмечает растущий приоритет для заказчиков стабильности поставок и обслуживания, а также баланса между производительностью и экономической целесообразностью. Компания заранее озаботилась запасами комплектующих и ключевых компонентов для СХД, которых хватит на 2026 год и часть 2027 года.

Постоянный URL: http://servernews.ru/1140751
27.04.2026 [19:20], Руслан Авдеев

Телеком-отрасли Бангладеш грозит коллапс из-за нехватки топлива

Боевые действия на Ближнем Востоке негативно сказываются на всех сферах экономики по всему миру из-за нарастающего топливного кризиса. Ассоциация операторов мобильной связи Бангладеш (Association of Mobile Telecom Operators of Bangladesh, AMTOB) в связи с этим предупредила правительство о вероятном отключении телеком-сетей, сообщает Datacenter Dynamics. Беда не пришла одна — на страну обрушились штормы, вызвав отключения электроэнергии, поэтому восстанавливать электроснабжение ещё труднее, чем обычно.

AMTOB представляет собой торговую ассоциацию, объединяющую операторов мобильной связи страны: Grameenphone, Robi, Banglalink, Teletalk и др. В открытом письме к правительству AMTOB призвала министров в приоритетном порядке обеспечить стабильные поставки топлива и электроэнергии для нужд телекоммуникационной инфраструктуры. Согласно тексту заявления, любой длительный дефицит способен негативно сказаться на состоянии связи в общенациональном масштабе и привести к параличу цифровой экономики.

Подчёркивается, что телеком-отрасль уже ощущает последствия нехватки энергии. По некоторым оценкам, Бангладеш импортирует порядка 95 % энергоресурсов, поэтому страна находится в особенно уязвимом положении с учётом того, что большая часть топлива поставляется именно с Ближнего Востока. По данным Reuters, Бангладеш был вынужден даже запросить у США временного освобождения от соблюдения санкций в отношении топлива из недружественных Штатам стран.

 Источник изображения: Salman Preeom/unspalsh.com

Источник изображения: Salman Preeom/unspalsh.com

По данным AMTOB, телеком-отрасли нужны срочные меры поддержки, включая бесперебойную приоритетную поставку топлива для основных объектов телеком-сети, гарантированное наличие топлива для питания базовых станций, эксплуатируемых четырьмя мобильными операторами и четырьмя компаниями, управляющими вышками. Также необходимо топливо для технического обслуживания связанного с телеком-проектами транспорта, сокращение отключений электричества на критически важных телеком-объектах и максимально быстрое восстановление электроснабжения после штормов и сбоев из-за плохой погоды.

Сегодня телеком-инфраструктура Бангладеш включает приблизительно 45 тыс. вышек, множество операторских ЦОД различного масштаба, центров управления сетью (NOC) и другие компоненты, обслуживающие 185 млн. человек. В AMTOB подчёркивают, что объекты в стране во многом зависят от дизельной и бензиновой электрогенерации, особенно в периоды отключения централизованной подачи электричества, веерных отказов и/или стихийных бедствий.

Пока ситуация на Ближнем Востоке ожидает прояснения, но совсем недавно Иран не только блокировал пролив, но и наносил удары по дата-центрам AWS в ОАЭ и Бахрейне, а также пригрозил уничтожить строящийся ЦОД Stargate в ОАЭ.

Постоянный URL: http://servernews.ru/1140705
27.04.2026 [15:30], Андрей Крупин

«К2Тех» запустил платформу для управления ИИ-гипотезами и оценки экономического эффекта инициатив

Системный интегратор «К2Тех» представил «ИИ-офис» — платформу для работы с инициативами в области искусственного интеллекта. Решение ориентировано на компании, которые переходят от локальных пилотных проектов к масштабному внедрению ИИ-технологий в рабочие процессы. Продукт помогает структурировать весь цикл внедрения: от сбора и приоритизации гипотез до запуска проектов и точного расчёта возврата инвестиций (Return On Investment, ROI).

«ИИ-офис» предоставляет единое пространство для всех инициатив организации в сфере технологий машинного обучения и искусственного интеллекта на базе нейронных сетей. В системе предусмотрены инструменты, которые позволяют вести сквозной трекинг каждой идеи: от контроля статусов и назначения ответственных до расчёта финансово-экономической модели и мониторинга хода проверки.

 Источник изображения: ai-office.k2.tech

Источник изображения: ai-office.k2.tech

В состав платформы включены следующие инструменты:

  • матрица потенциала — позволяет оценивать гипотезы по двум группам параметров: ожидаемому эффекту для бизнеса и сложности реализации;
  • ROI-калькулятор, учитывающий набор коэффициентов и метрик для разных отраслей, включая производство, HR и сервисные функции;
  • средства для работы с портфелем ИИ-инициатив, которые организованы в формате канбан-доски.

На платформе «ИИ-офис» уже собраны реализованные бизнес-сценарии «К2Тех» и партнёров компании для различных отраслей и функций предприятия. Данный каталог кейсов позволяет организациям выбирать подходящие гипотезы и на их основе выстраивать собственные решения. Среди примеров — мониторинг кредитно-гарантийных сделок, ускорение обработки заявок, автоматическая генерация проектной документации и интеллектуальный анализ статистических данных по внешнеэкономической деятельности.

Постоянный URL: http://servernews.ru/1140730
27.04.2026 [15:22], Владимир Мироненко

РТК-ЦОД ввёл в эксплуатацию третью очередь ЦОД в Екатеринбурге

РТК-ЦОД объявил о вводе в эксплуатацию третьей очереди ЦОД в Екатеринбурге в рамках инвестиционного проекта стоимостью около 1 млрд руб.

С её запуском екатеринбургский кластер дата-центров РТК-ЦОД стал крупнейшим действующим кластером компании в восточной части России. Общая площадь объекта выросла до 3100 м2, совокупная мощность достигла 6 МВт при увеличении стойко-мест до 644. Благодаря расположению в черте города площадка предлагает удобную транспортную доступность. На кластере уже присутствует более десятка операторов связи и точка обмена трафиком, обеспечивая клиентам широкие возможности по быстрому подключению и построению отказоустойчивой телеком-инфраструктуры.

Запуск первой и второй очередей ЦОД производился поэтапно в период с 2018 по 2024 год. Третья очередь включает 214 стоек, размещённых в двух изолированных машинных залах по 107 стоек в каждом, и рассчитана на 2 МВт приведенной мощности. Расширение кластера в Екатеринбурге отражает подход РТК-ЦОД к региональному рынку: компания последовательно наращивает мощности дата-центров, ориентируясь на потребности клиентов и динамику спроса.

 Источник изображения: РТК-ЦОД

Источник изображения: РТК-ЦОД

ЦОД «Екатеринбург-3» предлагает заказчикам высокий уровень надёжности и гибкости для работы с ИТ-инфраструктурой с соответствии с требованиями Tier III благодаря комплексу современных инженерных решений, включая резервирование систем охлаждения, дизель-генераторные установки и подключение по двум независимым лучам электропитания. Дополнительную защищённость инфраструктуры клиентов обеспечивают архитектура «дом в доме» и три периметра безопасности, а сама площадка позволяет проводить ремонт и модернизацию без остановки оборудования и прерывания сервисов. Это позволяет снизить риски недоступности бизнес-критичных систем, обеспечивает SLA 99,95 % и круглосуточную техническую поддержку, а также гарантирует клиентам возможность быстрого масштабирования и развёртывания своих информационных систем.

В Екатеринбурге компания предлагает не только аренду или размещение собственного оборудования (colocation) в кластере ЦОД, но и современные облачные сервисы под брендом «Турбо Облако», такие как виртуальная инфраструктура, базы данных, Kubernetes, почта как сервис, облачный диск, решения для резервного копирования и аварийного восстановления, сервисы объединенных коммуникаций и многое другое.

Давид Мартиросов, генеральный директор РТК-ЦОД подчеркнул, что запуск третьей очереди ЦОД в Екатеринбурге — это не только расширение мощностей парка дата-центров компании, но и вклад в развитие цифровой экономики страны. Он отметил устойчивый рост спроса на облачные и инфраструктурные сервисы в регионах, исходя из которого компания последовательно развивает площадки, ориентируясь на реальные потребности рынка. По словам Мартиросов, важную роль в этой работе играет локальная команда, чья накопленная практическая экспертиза обеспечивает высокое качество эксплуатации, быстрое внедрение новых очередей и стабильную работу площадки по мере её масштабирования. «Екатеринбургский кластер стал крупнейшим действующим кластером РТК-ЦОД в восточной части страны, и мы уже смотрим на его дальнейшее развитие», — заявил генеральный директор РТК-ЦОД.

Постоянный URL: http://servernews.ru/1140724
27.04.2026 [13:45], Владимир Мироненко

SUSE анонсировала SUSE AI Factory with NVIDIA, упрощающую предприятиям создание собственных ИИ-стеков

SUSE объявила о запуске платформы SUSE AI Factory with NVIDIA, разработанной специально для решения строгих глобальных задач обеспечения цифрового суверенитета. SUSE AI Factory with NVIDIA представляет собой предварительно протестированный унифицированный программный стек для корпоративного ИИ, созданный на основе SUSE AI и NVIDIA AI Enterprise, призванный преодолеть разрыв между локальной разработкой и масштабируемым корпоративным развёртыванием, позволяя предприятиям создавать, управлять и масштабировать рабочие ИИ-нагрузки на периферии сети, в ЦОД и в публичных облачных средах, сохраняя при этом более жесткий контроль над данными и инфраструктурой.

Как отметил StorageReview.com, SUSE позиционирует SUSE AI Factory with NVIDIA как стандартизированный программный слой для корпоративного ИИ, а не как автономную модель или сервис. Стек объединяет несколько компонентов NVIDIA, включая микросервисы NIM, открытые модели Nemotron, NeMo для разработки и управления агентами, Run:ai для оркестрации GPU, NVIDIA Kubernetes Operators, OpenShell для безопасной поддержки среды выполнения агентов и NemoClaw, который использует SUSE K3s в качестве части эталонной архитектуры для более безопасного развёртывания автономных агентов.

 Источник изображения: SUSE

Источник изображения: SUSE

SUSE AI Factory with NVIDIA стандартизирует развёртывание и запуск приложений ИИ, позволяя разработчикам создавать и тестировать приложения в изолированной среде, в то время как команды платформы управляют развёртыванием либо через единый интерфейс на основе Rancher, либо с помощью автоматизированных рабочих процессов GitOps для управления в масштабе предприятия. Это позволит сократить время настройки и ускорит переход от концепции к производству, уменьшая операционные издержки без необходимости использования разрозненных инструментов.

SUSE AI Factory with NVIDIA включает в себя следующие возможности:

  • Предварительно проверенные и тесно интегрированные архитектурные шаблоны для распространённых сценариев использования и рабочих нагрузок, позволяющие предприятиям сократить объём работ по интеграции компонентов NVIDIA и SUSE при создании собственных стеков, ускоряя получение результатов.
  • Безопасность и наблюдаемость на основе принципа нулевого доверия, построенные на базе SUSE Rancher Prime и SLES, с механизмами управления для сервисов ИИ на базе NVIDIA. Благодаря этому платформа обеспечивает стабильность, высокую предсказуемость и защиту базовой ИИ-инфраструктуры от возникающих рисков.
  • Единый пользовательский интерфейс, который упрощает развёртывание и управление рабочими нагрузками ИИ — от локальных рабочих станций разработчиков до изолированных кластеров на периферии сети.
  • Суверенитет и единая поддержка, что позволяет организации иметь полный контроль над своей физической инфраструктурой, данными и моделями для соблюдения внутренних политик и выполнения нормативных требований. Для обеспечения бесперебойной работы в корпоративной среде SUSE предоставляет единую точку ответственности для всего стека, включая компоненты NVIDIA AI Enterprise.
Постоянный URL: http://servernews.ru/1140716
27.04.2026 [13:35], Сергей Карасёв

«Гравитон» представил российские серверы на базе Intel Xeon для облаков, виртуализации и ИИ

Российский разработчик и производитель вычислительной техники «Гравитон» представил шесть серверов на аппаратной платформе Intel, предназначенных для реализации масштабных IT-проектов в сегментах, где наличие техники в реестре Минпромторга РФ не является обязательным требованием. В зависимости от модификации устройства подходят для решения различных задач — от облачных сервисов и виртуализации до нагрузок ИИ и НРС.

В частности, дебютировали модели СН2124И5 и СН2127И5 в форм-факторе 4U и 7U соответственно. Они рассчитаны на два процессора Xeon Sapphire Rapids или Xeon Emerald Rapids с TDP до 350 Вт. Поддерживается до 8 Тбайт оперативной памяти DDR5 в виде 32 модулей. У сервера СН2124И5 слоты расширения выполнены по схеме 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Есть 12 фронтальных отсеков для LFF-накопителей NVMe/SATA/SAS и два коннектора M.2 2280/22110 (PCIe 5.0). Возможна установка восьми GPU с энергопотреблением до 350 Вт. В свою очередь, система СН2127И5 имеет аналогичные характеристики, но позволяет использовать до восьми GPU с TDP до 600 Вт.

Кроме того, анонсированы серверы СН2122И6 (2U), СН2242И6 (2U), СН2124И6 (4U) и СН2127И6 (7U) с поддержкой двух чипов Xeon 6 (Sierra Forest-SP/Granite Rapids-SP) с показателем TDP до 350 Вт. У первой из этих систем слоты расширения выполнены по схеме 6 × PCIe 5.0 х16 FHFL + 2 × OCP NIC (или 6 × PCIe 5.0 х16 FHFL + 2 × PCIe 5.0 х8 HHHL + 2 × OCP NIC), у трёх других — 10 × PCIe 5.0 х16 FHFL + 1 × OCP NIC. Во всех случаях возможно использование до 8 Тбайт памяти DDR5 (32 модуля).

 Источник изображений: «Гравитон»

Источник изображений: «Гравитон»

Модель СН2122И6 поддерживает следующие накопители: 12 × LFF NVMe/SATA/SAS во фронтальной части, 2 × SFF SATA/SAS или 4 × SFF NVMe/SATA/SAS, а также 2 × M.2 2280/22110 (PCIe 5.0). Модификации СН2242И6, СН2124И6 и СН2127И6 рассчитаны на накопители в конфигурации 12 × LFF NVMe/SATA/SAS и 2 × M.2 2280/22110 (PCIe 5.0). Две старшие версии поддерживают восемь GPU с TDP до 350 и 600 Вт.

Все серверы располагают контроллером Aspeed AST2600 с выделенным сетевым портом управления 1GbE и воздушной системой охлаждения. Устанавливаются блоки питания мощностью до 3000 Вт с сертификатом 80 Plus Platinum. Заявлена совместимость с Windows и Linux. Гарантия производителя составляет три года.

Постоянный URL: http://servernews.ru/1140695
27.04.2026 [13:09], Сергей Карасёв

Hyundai поставит газовые генераторы мощностью 684 МВт для ЦОД в США

Южнокорейский конгломерат Hyundai Heavy Industries, по сообщению ресурса Datacenter Dynamics, заключил соглашение о поставках газовых генераторов компании Aperion Energy Group — разработчику энергетических решений для дата-центров. Стоимость контракта составляет около $423,7 млн: это крупнейший заказ на силовые установки в истории Hyundai.

В рамках соглашения Hyundai предоставит генераторы семейства HiMSEN мощностью до 20 МВт. Эти электростанции будут использоваться для обеспечения питанием ЦОД-инфраструктуры в США. По условиям договора, Aperion Energy Group закупит оборудование суммарной мощностью 684 МВт.

Отмечается, что системы HiMSEN отличаются высокой производительностью, быстрым запуском и предсказуемой реакцией на нагрузки, что делает их оптимальным вариантом для дата-центров.  Хан Джу-сок (Han Ju-seok), руководитель подразделения двигателей и машиностроения HD Hyundai Heavy Industries, заявил, что контакт с Aperion Energy Group является отправной точкой для выхода на рынок дата-центров США.

 Источник изображения: Hyundai Heavy Industries

Источник изображения: Hyundai Heavy Industries

В дальнейшем южнокорейская компания намерена укреплять позиции в Северной Америке, развивая бизнес в том числе в смежных областях, таких как системы резервного электроснабжения и промышленные энергетические платформы. На фоне этого и других крупных контрактов акции HD Hyundai Heavy Industries подскочили почти на 45 % всего за две недели. Рыночная капитализация компании превысила ₩70 трлн ($51 млрд).

Нужно отметить, что ведущие облачные провайдеры и гиперскейлеры на фоне дефицита энергоресурсов всё активнее развивают направление генерации с применением природного газа. В частности, Meta намерена установить более 800 газовых генераторов для питания своего ИИ ЦОД в Техасе. Собственные газовые турбины получит ЦОД Stargate. А Microsoft заключила соглашение с Chevron и Engine No. 1 на закупку до 2,5 ГВт мощностей от газовых генераторов для питания нового ИИ ЦОД.

Постоянный URL: http://servernews.ru/1140698
27.04.2026 [12:54], Сергей Карасёв

Одноплатный компьютер Banana Pi BPI-SM10 получил чип RISC-V с ИИ-производительностью 60 TOPS

Команда Banana Pi анонсировала мини-компьютер BPI-SM10, подходящий для проектирования устройств с ИИ-функциями. В основу новинки, состоящей из вычислительного модуля и сопутствующей интерфейсной платы, положен процессор с архитектурой RISC-V.

CPU-модуль построен на чипе SpacemiT K3. Он содержит восемь 64-бит ядер RISC-V X100 с тактовой частотой до 2,4 ГГц и восемь ИИ-ядер RISC-V A100 с общей производительностью до 60 TOPS на операциях INT4. Есть интегрированный графический контроллер Imagination Technologies BXM4-64-MC1 с поддержкой Vulkan 1.3, OpenGL 3.0 и OpenGL ES 1.1/2.0/3.2. Возможно декодирование материалов 4K120 (H.264/H.265/VP9), а также кодирование 4K60 (H.264/H.265). Объём оперативной памяти LPDDR5-6400 может достигать 32 Гбайт.

 Источник изображения: Banana Pi

Источник изображения: Banana Pi

Интерфейсная плата располагает коннекторами M.2 Key M (PCIe 3.0 x4) и M.2 Key M (PCIe 3.0 x1) для SSD, слотом M.2 Key E для адаптера Wi-Fi, а также сетевым портом 1GbE. Есть четыре разъёма USB 3.0 Type-A, порт USB Type-C и интерфейс DisplayPort 1.2. Среди прочего упомянуты 40-контактная колодка (UART, SPI, I2S, I2C, GPIO), два интерфейса MIPI CSI и один интерфейс MIPI DSI. Питание подаётся через DC-разъём. Размеры составляют 103 × 90,5 × 35 мм. Допускается монтаж активного кулера с радиатором и вентилятором.

Утверждается, что новинка способна поддерживать работу ИИ-моделей, насчитывающих до 30 млрд параметров, обеспечивая при этом производительность на уровне 10 токенов в секунду. Banana Pi BPI-SM10 может стать основой ИИ-терминалов, систем промышленной автоматизации и машинного зрения, шлюзов AIoT, робототехнических платформ и пр.

Постоянный URL: http://servernews.ru/1140704
27.04.2026 [10:17], Руслан Авдеев

Необычная СЖО Airsys LiquidRack «опрыскивает» серверы

Airsys представила новую интегрированную систему жидкостного охлаждения LiquidRack, предназначенное для ИИ-сред средней плотности, ЦОД, телекоммуникаций и периферийных вычислений. LiquidRack включает модули распределения жидкости, насосы и управления непосредственно на уровне серверов. Это позволяет заполнить «пробел» между обычными системами воздушного охлаждения и крупными СЖО, которые требуют отдельные модули распределения охлаждающей жидкости (CDU).

 Источник изображений: Airsys

Источник изображений: Airsys

Система поддерживает 0,5 до 8 кВт на сервер и до 80 кВт на стойку 10U. Диэлектрическая жидкость буквально распыляется на вертикально размещённые серверы в специальных кассетах. Нагретая жидкость попадает в пластинчатый теплообменник, где отдаёт тепло воде, отправляемой во внешний контур.

По словам представителя Airsys, большинство операторов ЦОД ищут практичный, гибкий и «бесшовный» путь перехода с воздушного на жидкостное охлаждение. Это поможет справиться с высокой плотностью размещения оборудования, дефицитом электроэнергии и будет способствовать выполнению требований ESG-повестки. Бескомпрессорная система совместима с драйкулерами, чиллерами и адиабатическими системами охлаждения. Это означает, что её можно развернуть на действующих объектах. При этом она использует на 80 % меньше жидкости, чем погружные СЖО.

Также Airsys представила новейший вариант системы воздушного охлаждения UniCool — UniCool-Max. Она обеспечивает до 60 кВт охлаждающей мощности и предназначена для модульных ЦОД и помещений с высокотемпературным оборудованием — телеком-объектов и аппаратных комнат. Компания заявляет, что UniCool-Max не только помогает лучше справляться с высокими тепловыми нагрузками, но значительнее надёжнее традиционных компрессорных систем.

Постоянный URL: http://servernews.ru/1140688

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;