Материалы по тегу: ии

05.03.2026 [09:36], Руслан Авдеев

National Grid и Emerald AI успешно умерили энергетические аппетиты британского ИИ ЦОД Nebius

Ведущий оператор электросетей Великобритании National Grid провёл первое в стране испытание «гибкой» системы электроснабжения дата-центров при участии Nebius и с использованием ИИ-системы управления нагрузками и питанием Emerald AI. По данным Computer Weekly, эксперимент проходил с использованием кластера из 96 ускорителей NVIDIA Blackwell Ultra.

В декабре 2025 года в течение пяти дней были проведены более 200 симуляций «сетевых событий» для проверки способности ПО Emerald динамически оптимизировать энергопотребление дата-центра. Платформа Emerald AI смогла подогнать энергопотребление к заданному уровню, сократить спрос на энергию до −40 % и сохранить исполнение критических нагрузок в нормальном режиме.

Система успешно реагировала на скачки спроса в энергосети в перерывах во время футбольных матчей, справилась с запросом на понижение энергопотребления продолжительностью до 10 часов и отработала резкое снижение потребление (30 %) — всё для сохранения стабильности работы энергосети. По оценкам исследователей, при таком подходе ИИ ЦОД по запросу могут «высвобождать» для энергосети до 2 ГВт. Если дата-центры перестанут быть просто крупными потребителями энергии и будут «вовлечены» в работу энергосети, это позволит лучше использовать существующую инфраструктуру и поддержит подключение к сети различных источников.

 Источник изображения: Toolmash Expo/unsplash.com

Источник изображения: Toolmash Expo/unsplash.com

По словам National Grid Partners, большинство энергосистем используют, вероятно, 30 % от имеющейся мощности в течение года, а пиковые нагрузки случаются довольно редко. Если присоединённые объекты могут быстро и контролируемо снижать энергопотребление по запросу энергосети, сетевому оператору не нужно будет наращивать мощности.

По словам Emerald AI, эксперимент показал способность ИИ-оборудования ЦОД Nebius гибко регулировать энергопотребление в любой момент времени. Даже после получения сигнала среди ночи удалось за 30 с снизить энергопотребление более чем на треть. Система отлично подходит при питании от источников возобновляемой энергии. Например, когда ветра мало в течение восьми часов, дата-центр может снизить потребление, на 100 % сохрание питание критически важных вычислительных нагрузок.

По словам Emerald AI, есть три основных способа добиться «гибкости» энергопотребления для ИИ-задач. Во-первых, можно замедлить некоторые процессы или приостановить их. Напрмиер, тонкую настройку модели обычно можно отложить на час. Во-вторых, можно перемещать рабочие нагрузки. Так, компания уже протестировала перенос генерации ответа ИИ из одного ЦОД Oracle в другой, что вызвало не такую критичную для данной нагрузки задержку примерно в 10 мс. На самом деле гиперскейлеры, включая Google и Microsoft, уже давно используют перемещение нагрузок между регионами, хотя и не с такой скоростью и с другими целями.

В-третьих, можно организовать мониторинг работы ЦОД. В этом случае Emerald AI управляет рабочими нагрузками с помощью ИИ, расставляя для них приоритеты. Это оптимальный способ обеспечить энергосистеме необходимые ресурсы, при этом сохраняя для пользователя целостность рабочих нагрузок, говорит компания.

Постоянный URL: http://servernews.ru/1137778
05.03.2026 [09:07], Владимир Мироненко

5G-виртуализация с ИИ-монетизацией: Broadcom представила VMware Telco Cloud Platform 9 с фокусом суверенные облака

Broadcom представила VMware Telco Cloud Platform 9 — частную облачную платформу для телекоммуникационных ЦОД, которая позволит глобальным телекоммуникационным операторам повысить эффективность оборудования и снизить эксплуатационные расходы при предоставлении суверенных и ИИ-сервисов.

Созданная на базе VMware Cloud Foundation 9 с дополнительными возможностями, специфичными для телекоммуникационных компаний, платформа позволит операторам добиться в течение пяти лет совокупной экономии совокупной стоимости владения (TCO) на 40 % по сравнению с изолированными архитектурами; снизить энергопотребление и связанные с ним затраты на 25–30 % за счёт повышения производительности серверов и плотности виртуальных машин.

Также сообщается, что благодаря использованию Advanced NVMe Memory Tiering новая платформа позволит достичь до 38 % снижения совокупной стоимости владения (TCO) памятью и серверами, и на 38 % сократить TCO хранилища с помощью функции vSAN ESA Global Deduplication, позволяющей глобально дедуплицировать данные. Кроме того, новая платформа позволит повысить эффективность, управляемость и соответствие нормативным требованиям за счёт интеллектуальной автоматизации, интегрированного управления затратами и соблюдения политик.

 Источник изображений: VMware

Источник изображений: VMware

«VMware Telco Cloud Platform 9 позволит телекоммуникационным операторам предоставлять безопасную, суверенную, ориентированную на ИИ инфраструктуру, которая способствует внедрению технологий следующего поколения, ускорению роста доходов и снижению затрат», — заявил Пол Тернер (Paul Turner), главный директор по продуктам подразделения VMware Cloud Foundation.

Broadcom отметила, что VMware Telco Cloud Platform развивается, поддерживая как функции ядра сети 4G/5G, так и ресурсоёмкие рабочие ИИ-нагрузки на единой открытой платформе, позволяя операторам предоставлять суверенное облако и ИИ. С целью улучшения монетизации ИИ в Telco Cloud Platform 9 добавят такие возможности, как частный ИИ (Private AI-as-a-Service), GPU-виртуализацию (GPU Virtualization) и GPUaaS (с логической изоляцией конфиденциальных данных). Планы также включают расширенный мониторинг физических и виртуальных GPU.

При реализации опции «Частный ИИ как услуга» включение собственных инструментов, таких как хранилище моделей, среда выполнения моделей и векторные базы данных, позволит операторам предлагать клиентам готовые ИИ-среды, обеспечивая при этом строгую изоляцию данных и соответствие нормативным требованиям. vGPU позволят повысить эффективность использования оборудования и снизить затраты. Благодаря этому телекоммуникационным компаниям смогут одновременно запускать высокопроизводительные рабочие нагрузки без необходимости выделения оборудования для каждого пользователя.

Также платформа будет поддерживать автоматизированное управление жизненным циклом (LCM), обеспечивая разработчикам развёртывание готовых к производству частных ИИ-сред за считанные минуты, а не недели. Компания также представила «Сервис создания агентов» (Agent Builder) — Low-code платформу, которая упростит создание сложных ИИ-агентов ИИ, автоматизируя оркестрацию моделей, извлечение данных и возможности подключения инструментов.

Broadcom отметила, что по мере перехода сетей к модели, ориентированной на ИИ, они должны стать самокорректирующимися и основанными на намерениях. Платформа VMware Telco Cloud Platform обеспечит возможности для автоматизации управления жизненным циклом и оптимизации энергопотребления в ядре 5G и, в конечном итоге, в 6G. Поддержка энергоэффективной инфраструктуры на базе новых процессоров и интеллектуальное планирование ресурсов позволят оптимизировать энергопотребление для энергоёмких приложений 5G и ИИ.

Также планируются изменения в работе Kubernetes, с модернизированной моделью управления жизненным циклом CaaS и вариантами обновления, ориентированными на операторов связи. Broadcom внедрит унифицированную автоматизацию на основе GitOps. Планируется использование централизованной панели управления с единым интерфейсом для управления парком, контроля затрат и лицензирования. А ESX Live Patching позволит администраторам применять критически важные обновления безопасности к хостам без необходимости проведения плановых работ или нарушения работы активных ВМ. При этом ИИ-ассистенты помогут оптимизировать процесс подключения к платформе и устранения неполадок.

Суверенное облако стало центральным требованием к закупкам для многих рабочих нагрузок государственного сектора и регулируемых отраслей в Европе и других странах. Broadcom заявила, что платформа Telco Cloud Platform 9 будет включать «архитектурные механизмы защиты», соответствующие суверенным требованиям, с акцентом на локальный контроль, проверку и операции в пределах границ.

  • Платформа позволит телекоммуникационным компаниям выполнять свои требования к суверенному облаку, такие как хранение данных абонентов, телеметрии и плоскости управления строго в пределах указанных границ.
  • Телекоммуникационные компаниям смогут сохранять эксклюзивный контроль над ключами шифрования, гарантируя, что доступ к конфиденциальным данным будет иметь только местный оператор связи.
  • Доказательства аудиторского уровня: интегрированные инструменты ведения журналов и автоматизации будут фиксировать непрерывные, неизменяемые доказательства работы платформы.
  • Автоматизированное соблюдение требований и обеспечение выполнения политик: предварительно настроенные комплекты для усиления безопасности и интегрированный менеджер политик Kubernetes на основе Open Policy Agent (OPA) позволят операторам обеспечивать соблюдение политик безопасности в соответствии с законами, правилами и стандартами, значительно сокращая затраты и время на аудит больших кластерных сетей.

Также будет использоваться централизованная панель мониторинга SecOps, обеспечена поддержка конфиденциальных вычислений в защищённых анклавах AMD и Intel, и реализовано обеспечение горизонтальной безопасности с использованием VMware vDefend для микросегментации и контроля на основе принципа нулевого доверия.

Постоянный URL: http://servernews.ru/1137797
04.03.2026 [23:30], Руслан Авдеев

Aikido объединила морские ветряки с модульными ИИ ЦОД

Американская Aikido, поставщик плавучих ветрогенераторов, представила оффшорную ВЭУ-платформу, объединённую с модульным дата-центром, рассчитанным на ИИ-нагрузки, сообщает Datacenter Dynamics. Платформа включает ветряную турбину мощностью 15–18 МВт, способную обеспечить до 10–12 МВт IT-мощности. Непосредственно под стальной оболочкой платформы размещаются три вычислительных модуля мощностью 3–4 МВт каждый. Расчётный PUE — 1,08.

Платформа также получит аккумуляторное энергохранилище для обеспечения стабильности работы IT-модулей. В компании рассчитывают на доступность вычислительных мощностей не менее 75 % рабочего времени. Потенциально этот показатель может быть увеличен до 90 % путём использования более ёмких аккумуляторных систем. За охлаждение отвечает система замкнутого цикла на основе пресной воды. Тепло через стальную структуру платформы передаётся окружающей морской воде. Компания уверяет, что тепловое воздействие будет ограниченным — в радиусе всего нескольих метров от платформы.

Бизнес-модель Aikido сконцентрирована не на поставках энергии, а на прямой продаже вычислений. Для масштабирования выбран модульный подход, позволяющий собирать платформы до 10 раз быстрее, чем обычные прибрежные конструкции. Кроме того, компания сообщила, что аккумуляторы можно зарядить заранее, что ускорит ввод новых мощностей. На сборку прототипа у Aikido ушло менее недели. Помещения для IT-оборудования в ходе финального монтажа в порту были подключены к системам питания и охлаждения на набережной.

 Источник изображения: Aikido

Источник изображения: Aikido

Теперь компания работает в Норвегии над более функциональным модулем, призванным стать «доказательством концепции». Он должен заработать в 2026 году. Первый коммерческий проект планируется реализовать в Великобритании в 2028 году. Aikido, являющаяся участником программы NVIDIA Inception, заявила её решение уже вызвало интерес у потенциальных заказчиков.

Впрочем, остаются некоторые опасения в связи с состоянием рынка оффшорных ветряных электростанций. Несмотря на предварительные многообещающие результаты, на нём наметилась стагнация из-за роста стоимости. По имеющимся данным, многие проекты сегодня попросту невыгодны без государственной поддержки, так что рынок замер в ожидании более ясных «сигналов». В частности, в США эта отрасль фактически лишилась поддержки.

Впрочем, Aikido рассчитывает, что её новая бизнес-модель придать новый импульс сегменту плавучих электростанций. В компании заявляют, что комбинация проверенных прибрежных ветряных энергосистем и вычислений высокой плотности позволит создать новый класс инфраструктуры, где генерация энергии, системы охлаждения и вычислительные мощности размещены в одном месте.

Постоянный URL: http://servernews.ru/1137756
04.03.2026 [16:49], Руслан Авдеев

Huawei начала глобальные продажи своих ИИ-решений для ЦОД

На фоне нарастающего бума ИИ-технологий покупатели готовы платить за самое разное оборудование, способное обрабатывать ИИ-токены. Теперь, помимо предложений американских гигантов вроде NVIDIA, AMD и Intel, у них появился и более экзотический вариант — решения на чипах Huawei, сообщает The Register.

В Китае компания предлагает т.н. Intelligent Computing Platform, включающую хранилище данных, серверы на основе собственных CPU Kunpeng, а также ускорителей семейства Ascend, которые пока отстают по производительности от западных чипов. Тем не менее Huawei решила начать продажи своих систем за пределами КНР, обещая, что может подготовить и оснастить ЦОД за 4-6 мес., что на пару месяцев быстрее, чем обычно предлагают другие компании. Утверждается, что такое возможно благодаря умной интеграции источников питания, систем охлаждения и кабельной инфраструктуры.

Также компания утверждает, что может поставить кластер из 1024 вычислительных узлов за 15 дней, а благодаря системам, замечающим ошибки до того, как они вызовут сбои, обеспечено 99,99 % времени безотказной работы. В ходе MWC 2025 китайский техногигант заявил, что предлагает приемлемый вариант для быстрого развёртывания ИИ-инфраструктуры. Такие заявления имеют под собой некоторую почву, поскольку компания может сослаться на опыт китайских пользователей, обучавших собственные модели только с помощью оборудования Huawei.

 Источник изображения: Huawei

Источник изображения: Huawei

При этом Huawei придётся справиться с проблемой неприятия компании на Западе. Власти многих государств неоднократно заявляли, что решения китайской компании угрожают их национальной безопасности. Впрочем, в мире немало стран, где компанию готовы радушно принять, поскольку в очереди на покупку ускорителей NVIDIA и AMD они стоят в самом конце (если вообще числятся в ней). Это означает, что Huawei может оказаться для них вполне приемлемым поставщиком. Так, небольшие неооблачные провайдеры готовы работать с обширным пулом поставщиков ускорителей, чтобы получить дефицитные вычислительные мощности.

Выход Huawei на международный рынок происходит на фоне разрешения американскими властями продаж в Поднебесную ИИ-ускорителей NVIDIA H200, которые вполне вероятно, могут отнять у Huawei значительную часть китайского рынка, на котором компания долгое время доминировала, в многом благодаря американским санкциям. Ранее сообщалось, что компания уже пыталась продать свои ИИ-чипы Ascend в ОАЭ, пока США тянули с поставками чипов NVIDIA на Ближний Восток.

Постоянный URL: http://servernews.ru/1137751
04.03.2026 [16:16], Владимир Мироненко

CoreWeave удвоит капзатраты на ИИ ЦОД в 2026 году, но инвесторы сомневаются в оправданности такого шага

Неоооблачный провайдер CoreWeave расширил свои планы роста на 2026 финансовый год на фоне высокого спроса. Во время отчёта по итогам IV квартала и всего 2025 финансового года генеральный директор Майкл Интратор (Mike Intrator) сообщил, что CoreWeave расширит запланированную законтрактованную мощность ЦОД (operating lease right-of-use assets) к 2030 году ещё на 5 ГВт, пишет ресурс Data Center Dynamics. На конец 2025 финансового года у CoreWeave было 850 МВт «активных мощностей», из которых 250 МВт были введены в эксплуатацию в IV квартале. В течение 2025 года количество ЦОД компании выросло с 32 до 43.

«В 2025 году мы заключили контракты на дополнительные мощности в объёме около 2 ГВт, завершив год с более чем 3,1 ГВт законтрактованных мощностей, практически все из которых, как мы ожидаем, будут введены в эксплуатацию к 2027 году. Наши законтрактованные, но ещё не введённые в эксплуатацию мощности представляют собой скрытый потенциал дохода, который мы будем монетизировать по мере строительства и ввода в эксплуатацию объектов. Мы продолжим стратегически выбирать земельные участки, электросети и инфраструктуру для ЦОД», — заявил Интратор.

 Источник изображений: CoreWeave

Источник изображений: CoreWeave

В IV квартале компания запустила ранее отложенные проекты ЦОД. Из-за задержек с их вводом акционер CoreWeave Рамонд Масайтис (Ramond Masaitis) в январе подал на компанию в суд, утверждая, что она ввела акционеров в заблуждение относительно своей способности удовлетворять спрос клиентов на вычислительные мощности. Интратор сообщил аналитикам, что эти задержки теперь устранены, и мощности успешно введены в эксплуатацию раньше ожидаемого и скорректированного графика.

Капитальные затраты CoreWeave в прошлом году продолжали расти, составив $14,9 млрд, что ниже предыдущих ожиданий в $20–$23 млрд, хотя и выше пересмотренных в III квартале прогнозов. Только в IV квартале капитальные затраты составили $8,2 млрд, что выше показателя III квартала в $1,9 млрд. Во II квартале капитальные затраты составили $2,9 млрд. Предварительные оценки на III квартал находились в диапазоне $2,9–$3,4 млрд, но на их объём повлияла задержка с запуском ЦОД. Объем незавершённого строительства в IV квартале составил $9,4 млрд, что на $2,5 млрд больше, чем в предыдущем квартале.

CoreWeave прогнозирует, что капитальные затраты в 2026 году достигнут $30–$35 млрд. Как отметил финансовый директор Нитин Агравал (Nitin Agrawal), это в основном «связано с уже подписанными контрактами с клиентами, которые мы намерены ввести в эксплуатацию в этом году, поскольку ожидаем удвоить нашу активную мощность до более чем 1,7 ГВт к концу года». Следует отметить, что это выше консенсус-прогноза Visible Alpha в 1,59 ГВт (согласно данным CNBC). Планируемые CoreWeave капзатраты превысили прогноз аналитиков FactSet в $26,9 млрд, усилив опасения по поводу прибыльности. В связи с этим, а также разочаровывающим прогнозом по выручке, акции Coreweave упали на 18​%.

Выручка CoreWeave в IV квартале составила $1,57 млрд, что на $747 млн больше, чем годом ранее (рост год к году — на 110​%), и немного выше консенсус-прогноза LSEG в размере $1,55 млрд. Скорректированный убыток на разводнённую акцию составил $0,56 против ожидаемого Уолл-стрит $0,49. Скорректированная EBITDA составила $898 млн, что выше показателя в $486 млн годом ранее. Компания прогнозирует выручку в I квартале 2026 финансового года в размере от $1,9 до $2 млрд, что ниже консенсус-прогноза LSEG в $2,29 млрд.

Выручка за весь год составила более $5,13 млрд, что на $1,9 млрд больше год к году. Скорректированная EBITDA за весь год равна $3,1 млрд, превысив показатель в $1,2 млрд в 2024 году. В 2025 году CoreWeave увеличила свой портфель заказов до $66,8 млрд, что на $11,2 млрд больше последовательно и более чем на $50 млрд больше год к году. По словам Интратора, средневзвешенная продолжительность контрактов компании увеличилась с четырёх до пяти лет к концу 2024 года.

Для финансирования роста, как сообщила CoreWeave, в течение 2025 года она привлекла $18 млрд в виде заёмных и собственных средств от более чем 200 инвестиционных партнеров и финансовых учреждений. В этом году CoreWeave уже привлекла дополнительные $2 млрд инвестиций от NVIDIA в рамках расширенного коммерческого контракта. Компания прогнозирует, что выручка в 2026 году составит от $12 до $13 млрд, что в среднем соответствует росту на 140​% в годовом исчислении, и предсказывает, что в 2027 году годовой темп роста достигнет $30 млрд. Аналитики, опрошенные LSEG, прогнозируют выручку за год в $12,09 млрд.

Поддерживая планы компании по увеличению капзатрат, Интратор заявил в интервью CNBC, что Coreweave сознательно решила инвестировать в дополнительную инфраструктуру и пойти на снижение маржи, чтобы не упустить «уникальный момент» спроса на мощности. «Я понимаю опасения людей, которые видят, как мы выделяем огромные суммы денег на этот рынок, но правда в том, что наш портфель заказов огромен», — сказал он.

Интратор отметил, что, помимо высокого спроса на мощности ЦОД, положительным моментом является сохраняющийся высокий интерес к более старым поколениям ускорителей: «Мы также наблюдаем значительный рост спроса на предыдущие поколения архитектуры GPU». «При этом предложение остается ограниченным. Средняя цена H100 в IV квартале была в пределах 10​% от цены начала года, в то время как средняя цена A100 выросла в 2025 году. По словам наших клиентов, спрос на эту инфраструктуру в основном связан с задачами инференса», — добавил Интратор.

Постоянный URL: http://servernews.ru/1137762
04.03.2026 [15:57], Руслан Авдеев

Amazon увеличит инвестиции в ИИ ЦОД в Испании до €33,7 млрд и откроет завод по выпуску ИИ-серверов

Amazon объявила о намерении увеличить инвестиции в расширение и поддержку инфраструктуры ЦОД в Испании до €33,7 млрд ($39,8 млрд). Компания выделит ещё €18 млрд в дополнение к анонсированным в 2024 году €15,7 млрд инвестиций. В целом инвестиции AWS в Арагоне должны к 2035 году увеличить местный ВВП на €18,5 млрд, а Испании в целом — на €31,7 млрд. Инвестиции также обеспечат около 6,7 тыс. рабочих мест, из них 4,2 тыс. — в регионе, считает Amazon.

Также планируется построить в Арагоне элементы цепочки поставок, напрямую поддерживающие работу дата-центров в Испании и Европе в целом: завод для завершения сборки и испытаний серверов, склад продукции, предприятие по выпуску и ремонту ИИ-серверов и др. Это ключевые объекты для стратегии «экономики замкнутого цикла» Amazon. Со времени прихода в Испанию в 2011 году компания инвестировала в страну более €20 млрд — в розничные операции, логистику, облачную и ИИ-инфраструктуру, программы развития местных сообществ, инновации и др.

В ноябре 2022 года компания запустила в Испании облачный регион AWS Europe. До 2035 года Amazon намерена вложить в местные общественные программы €30 млн, с особым акцентом на образование, устойчивое развитие, локальные инициативы и др. С 2023 года компания поддержала более 100 общественных программ и инициатив в Арагоне. На национальном уровне с 2017 года компания обучила базовым цифровым навыкам более 200 тыс. человек. К 2027 году компания при содействии Министерства образования Испании намерена обучить 500 тыс. студентов навыкам работы с ИИ и цифровыми технологиями.

 Источник изображения: Pedro Sanz/unsplash.com

Источник изображения: Pedro Sanz/unsplash.com

Amazon взяла на себя обязательства добиться нулевых углеродных выбросов к 2040 году. Чтобы обеспечить работу ЦОД за счёт возобновляемой энергии и поддержать расширенную облачную инфраструктуру, компания инвестирует в 100 проектов на территории Испании, связанных с солнечной и ветряной энергетикой, включая семь новых солнечных электростанций. В Арагоне электроснабжение ЦОД с момента запуска в 2022 году на 100 % компенсируется за счёт возобновляемой энергии.

Кроме того, к 2030 году Amazon намерена стать «водно-положительной», возвращая больше воды, чем используется в её деятельности. В 2024 году AWS уже на 53 % достигла этой цели. В Арагоне компания оказывает поддержку пяти проектам водосбережения, борьбы с наводнениями и максимизации урожайности на общую сумму €17,2 млн, в том числе с использованием ИИ-инструментов компании. Дата-центры AWS стимулируют и экономический рост регионов присутствия, создавая возможности для местных поставщиков товаров и услуг и трудоустройства, что позволяет Арагону в перспективе стать одним из ключевых европейских цифровых хабов, говорит Amazon.

AWS станет первой технологической компанией, объявившей о строительстве ЦОД в провинции Теруэль (Teruel), а также новых объектов в Уэске (Huesca) и Сарагосе (Zaragoza). Это позволяет внедрять передовые облачные решения во всех трех провинциях Арагона, создавать новые рабочие места и возможности для бизнеса.

В 2025 году ЦОД Испании и Португалии успешно пережили крупнейший блэкаут в истории стран — правда, видимого ущерба пользователи не понесли, хотя телеком-инфраструктура пострадала гораздо серьёзнее. Впрочем, это не останавливает инвестиции. В конце 2025 года появилась информация о намерении Vantage вложить €3,2 млрд в кампус ЦОД в Сарагосе.

Постоянный URL: http://servernews.ru/1137770
04.03.2026 [10:00], Сергей Карасёв

«Базис» создаёт собственный протокол передачи данных для удалённой работы

Компания «Базис», лидер российского рынка ПО управления динамической ИТ-инфраструктурой, разрабатывает собственный протокол для доступа к виртуальным рабочим местам — Basis Connect. Протокол станет частью VDI-платформы Basis Workplace версии 3.3 и обеспечит её пользователям качественную передачу изображения и быстрый отклик даже на медленных каналах связи. Первая версия Basis Connect будет доступна заказчикам для тестирования уже в I квартале этого года.

Протокол передачи данных является важной частью инфраструктуры виртуальных рабочих столов, он должен обеспечивать быстрый отклик на действия пользователя, поддерживать периферийные устройства, передавать большие объёмы информации, не допускать потери качества аудио- и видеопотоков. От перечисленного зависит, сможет ли сотрудник комфортно взаимодействовать с ресурсоёмкими приложениями (графическими и видеоредакторами, инструментами 2D- и 3D-проектирования), использовать внешние и сетевые устройства, принимать участие в видеоконференциях.

Вместе с ростом популярности VDI, растут и требования к продуктам, в том числе к качеству и скорости обмена данными между клиентом и сервером. Подключение сторонних протоколов создаёт ряд дополнительных сложностей при внедрении VDI-платформы: для использования проприетарных решений необходимо приобретать соответствующие лицензии, а протоколы с открытым исходным кодом требуют доработки под требования заказчика и сложны в поддержке. Наличие качественного собственного протокола, который является частью VDI-платформы и не требует дополнительного лицензирования, позволяет провести внедрение быстрее и с меньшим количеством сложностей.

 Источник изображения: unsplash.com / Growtika

Источник изображения: unsplash.com / Growtika

При разработке Basis Connect компания ориентируется на задачи, которые необходимо решать заказчикам, и требования, которые они предъявляют к присутствующим на рынке протоколам. В первой публичной версии Basis Connect будет реализована передача изображения, звука и содержимого буфера обмена (текст, файлы, папки, картинки), а также поддержка клавиатуры, мыши, принтеров, сканеров и других периферийных устройств, в том числе USB-токенов для использования сертификатов внутри виртуального рабочего места. В качестве серверной и клиентской ОС для работы с протоколом можно будет использовать популярные российские ОС: АLT Linux 10, Astra Linux 1.8, «РЕД ОС 8».

По мере дальнейшего развития Basis Connect будут реализованы гибкие настройки самого протокола — например, в части разграничения прав пользователей — и ряд других возможностей. При этом «Базис» не будет отказываться от поддержки сторонних протоколов, поскольку это одно из преимуществ платформы Basis Workplace, востребованное у заказчиков.

«Требования к отечественным VDI-решениям постоянно растут, и мы должны отвечать на вызовы рынка, быть гибкими и функциональными. Поэтому создание собственного протокола — важный шаг в развитии решения Basis Workplace. Мы даём заказчикам возможность использовать качественное совместимое решение без необходимости приобретать лицензии на проприетарные протоколы или дорабатывать протоколы с открытым исходным кодом. Создание Basis Connect потребовало значительных ресурсов, однако успешное решение этой задачи позволило не только улучшить наше продуктовое предложение, но и усилить компетенции команды», — отметил Дмитрий Сорокин, технический директор компании «Базис».

Постоянный URL: http://servernews.ru/1137655
03.03.2026 [17:18], Руслан Авдеев

NVIDIA инвестировала $4 млрд в поставщиков лазеров и фотоники для ИИ ЦОД Lumentum и Coherent

NVIDIA инвестирует по $2 млрд в Lumentum Holdings и Coherent Corp., выпускающие оптическое сетевое оборудование. Сделки также включает «многомиллиардные» обязательства по закупке определённых лазерных компонентов и доступ к ним в будущем, сообщает Silicon Angle. В случае Coherent речь идёт и о других оптоэлектронных комплектующих.

В марте 2025 года NVIDIA представила серию коммутаторов Spectrum-X и Quantum-X для дата-центров, использующих интегрированную фотонику (CPO), что позволило отказаться от использования трансиверов, упростить инфраструктуру и снизить энергопотребление сетевых интерконнектов. Lumentum и Coherent выпускают компоненты для таких систем, причём первая ещё осенью прошлого года начала наращивать производственные мощности по их выпуску. Lumentum входит в число ключевых поставщиков лазерных модулей, оптимально подходящих для CPO — с механизмом терморегулирования и оптимизацией сетевой производительности.

Выручка Lumentum в 2025 году составила $655,5 млн. Компания производит и иное сетевое оборудование, в том числе классические трансиверы и оптические коммутаторы (OCS), а также поставляет индустриальные лазеры, например, для сварки металлов. Coherent также выпускает и промышленные лазеры, и оптические решения для дата-центров. Так, недавно компания представила оптимизированный CPO-модуль. Кроме того, Coherent предлагает инструменты для разработки оптических сетевых решений.

 Источник изображения: Denny Müller / Unsplash

Источник изображения: Denny Müller / Unsplash

Coherent и Lumentum используют средства NVIDIA для поддержки исследований и конструкторских разработок. Также компании работают над тем, чтобы нарастить производство в США. После объявления о новых инвестициях акции компаний поднялись в цене более чем на 10 %. Доля NVIDIA на рынке Ethernet-коммутаторов стремительно растёт, во многом благодаря спросу на её же ИИ-платформы. Этот сегмент становится всё более прибыльным для компании. При этом агрессивная политика NVIDIA уже привела к дефициту лазеров.

Постоянный URL: http://servernews.ru/1137703
03.03.2026 [14:27], Руслан Авдеев

Сделано в США: Flex начала выпуск американских ИИ-серверов с AMD Instinct

Американская производственная компания Flex, поставляющая решения для дата-центров, анонсировала расширение стратегического сотрудничества с AMD для выпуска решений на платформе Instinct. По словам Flex, это важная веха на пути укрепления локального производства на территории США, в том числе передовых ИИ- и HPC-продуктов. В рамках партнёрства выпуск платформы AMD Instinct MI355X организован на территории головного подразделения Flex в Остине (Техас).

В следующем квартале объёмы выпуска должны увеличиться. Речь идёт не только о платформе текущего поколения, компания намерена поддержать выпуск и новых платформ Instinct для удовлетворения спроса со стороны крупномасштабных ИИ-проектов. Сейчас Flex выпускает высокоплотные системы с восемью ускорителями и сопутствующей обвязкой. Каждая платформа, как утверждают в компании, проходит строгие заводские испытания и оценку. Системы оснащаются СЖО JetCool, принадлежащей Flex.

По данным производителя, комбинация передовых индустриальных мощностей Flex, надёжной цепочки поставок и производственных мощностей в США с передовыми позициями AMD в HPC-сегменте позволяет клиентам масштабировать свои ИИ-проекты быстрее и с повышенной надёжностью. Головная структура Flex в Техасе занимает площадь более 130 тыс. м2 и создана для поддержки комплексного производства в больших объёмах. Всего у Flex в США есть более 650 тыс. м2 площадей на 17 объектах.

 Источник изображения: Flex

Источник изображения: Flex

Планы AMD по локализации производства включают и выпуск чипов на американских фабриках TSMC. NVIDIA идёт по тому же пути, но в части выпуска или хотя бы сборки серверов на территории США, в том числе для обслуживания гиперскейлеров, у неё гораздо больше возможностей. Но и AMD укрепила свои позиции в этой области в результате сделки с ZT Systems и Sanmina.

США всеми силами стремятся локализовать производство и разработки на своей территории. В декабре 2025 года было объявлено о заключении партнёрских отношений с 24 ведущими IT-компаниями в рамках «Миссии Генезис», призванной стимулировать ИИ-разработки и производство на американской территории. Например, в конце января 2026 года сообщалось, что Corning построит крупнейшее в мире производство оптоволоконного кабеля для ЦОД в рамках сделки с Meta на $6 млрд.

Постоянный URL: http://servernews.ru/1137686
03.03.2026 [14:10], Сергей Карасёв

Gigabyte представила ИИ-сервер G893-ZX1-AAX4 на базе AMD Instinct MI355X

Gigabyte Technology анонсировала сервер G893-ZX1-AAX4, предназначенный для выполнения ресурсоёмких задач, таких как ИИ-инференс, сложное моделирование и пр. Новинка построена на аппаратной платформе AMD.

Устройство типоразмера 8U рассчитано на два процессора EPYC 9005 Turin или EPYC 9004 Genoa в исполнении Socket SP5 (LGA 6096) с показателем TDP до 500 Вт. Доступны 24 слота для модулей оперативной памяти DDR5-4800/6400. Во фронтальной части расположены восемь отсеков для SFF-накопителей с интерфейсом PCIe 5.0 (NVMe). Кроме того, есть два внутренних коннектора для SSD формата M.2 2280/22110 с интерфейсом PCIe 3.0 x4 и PCIe 3.0 x1. Реализованы восемь разъёмов PCIe 5.0 x16 для однослотовых карт расширения FHHL и четыре разъёма PCIe 5.0 x16 для двухслотовых карт FHHL.

В оснащение входят восемь ускорителей AMD Instinct MI355X OAM. Применяется полностью воздушное охлаждение с 15 вентиляторами диаметром 80 мм в области GPU-лотка, шестью кулерами на 60 мм в зоне материнской платы и четырьмя вентиляторами диаметром 80 мм в секции PCIe. Питание обеспечивают 12 блоков мощностью 3000 Вт каждый с сертификатом 80 PLUS Titanium.

 Источник изображения: Gigabyte Technology

Источник изображения: Gigabyte Technology

Сервер оборудован контроллером ASPEED AST2600, двумя сетевыми портами 10GbE на базе Intel X710-AT2 (RJ45), выделенным сетевым портом управления 1GbE (RJ45), двумя портами USB 3.2 Gen1 (5 Гбит/с), аналоговым разъёмом D-Sub. Диапазон рабочих температур — от +10 до +30 °C. Габариты составляют 447 × 351 × 923 мм.

Постоянный URL: http://servernews.ru/1137700

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;