Лента новостей

15.05.2026 [10:57], Сергей Карасёв

Мини-ПК DX-AIPlayer получил ИИ-ускоритель DX-M1 с производительностью 25 Топс

Южнокорейский стартап Deepx, по сообщению ресурса CNX Software, выпустил компьютер DX-AIPlayer небольшого форм-фактора, предназначенный для решения ИИ-задач на периферии. В устройстве соседствуют процессор Intel поколения Alder Lake-N и фирменный ускоритель DX-M1.

Новинка заключена в корпус с габаритами 95 × 95 × 55 мм, а масса составляет около 450 г. Установлен чип Intel Processor N97 с четырьмя ядрами (без многопоточности), работающими на частоте до 3,6 ГГц (TDP — 12 Вт). Объём оперативной памяти LPDDR5 составляет 8 Гбайт с возможностью расширения до 16 Гбайт. Вместимость флеш-накопителя eMMC — 64 или 128 Гбайт.

Упомянутый ускоритель Deepx DX-M1 выполнен в виде модуля M.2 2280 M-Key с интерфейсом PCIe 3.0 x4. Он располагает 4 Гбайт памяти LPDDR5 и чипом QSPI NAND на 1 Гбит, а TDP составляет 5 Вт. Заявленная ИИ-производительность достигает 25 TOPS в режиме INT8.

 Источник изображения: Deepx

Источник изображения: Deepx

В оснащение мини-компьютера входит двухпортовый 1GbE-контроллер; опционально может быть добавлен комбинированный адаптер Wi-Fi/Bluetooth (M.2 2230 E-key). Есть интерфейсы HDMI 2.0b и DisplayPort 1.2 для вывода изображения, три порта USB 3.1 Type-A, два гнезда RJ45 для сетевых кабелей, два последовательных порта (RS-232/422/485), а также 3,5-мм аудиогнёзда. Питание (12 В) подаётся через DC-разъём. Возможен монтаж на стену или монитор посредством крепления VESA. Диапазон рабочих температур — от 0 до +60 °C.

Говорится о поддержке ОС Windows 10/11, Ubuntu (20.04/22.04/24.04 LTS) и Yocto Project (v5.1), а также популярных фреймворков, включая PyTorch, TensorFlow, ONNX, Keras и Ultralytics YOLO. Цена составляет $995 за версию с 8 Гбайт ОЗУ.

Постоянный URL: https://servernews.ru/1141746
15.05.2026 [09:34], Владимир Мироненко

Вот это разворот: SAP всё же предоставит ИИ-агентов для локальных ECC и S4/HANA, но при обещании переехать в облако

SAP совершила резкий разворот в своей стратегии внедрения ИИ, пишет The Register. Ранее немецкая компания утверждала об отсутствии планов внедрять «инновации», такие как ИИ, в системы on-premise, включая устаревшую ERP-платформу ECC, вызывав возмущение у некоторых пользователей.

В июле 2023 года генеральный директор Кристиан Кляйн (Christian Klein) заявил, что «новейшие инновации и возможности» SAP будут предоставляться только в публичном или частном облаке с использованием RISE with SAP — программы переноса и трансформации, которую компания запустила совместно с партнёрами и облачными провайдерами в начале 2021 года. «Наши новые инновации не будут доступны для клиентов, использующих локальные или размещённые на локальных серверах ERP-системы крупных облачных провайдеров», — отметил он тогда.

Но сейчас SAP утверждает обратное. На этой неделе на конференции SAP Sapphire Кляйн заявил, что «никакой путаницы нет». По его словам, новые технологии, такие как ИИ-агенты, созданные на платформе SAP Joule, будут доступны клиентам, использующим локальные решения, при условии, что они «зарегистрировались для перехода в облако», уточнил он.

 Источник изображения: Stephen Andrews / Unsplash

Источник изображения: Stephen Andrews / Unsplash

Кляйн добавил, что большинство ИИ-помощников и агентов Joule будут доступны on-premise в качестве временного решения в ECC и S/4HANA клиентов, которые уже вложили значительные силы в процесс миграции, чтобы они могли воспользоваться преимуществами ИИ во время модернизации. «Это абсолютно правильное решение, и я рад видеть, как клиенты воспользуются этой возможностью», — добавил он.

Мухаммад Алам (Muhammad Alam), член исполнительного совета по продуктам и разработке, заявил на конференции, что SAP предоставит «значительную часть ИИ-помощников и агентов Joule для работы в гибридных средах с возможностью подключения к локальной среде S/4 и ECC». Он тоже отметил, что предложение будет доступно «клиентам, которые начали модернизацию на платформе RISE with SAP».

 Источник изображения: SAP

Источник изображения: SAP

Новая возможность включена в пакет услуг под новым брендом Business AI Platform, сказал Алам: «Мы сделали это для того, чтобы вы могли начать получать выгоду от ИИ уже сегодня на платформе SAP Business AI Platform, пока вы модернизируете свою инфраструктуру». Опцией смогут воспользоваться только подписчики тарифного плана Max Success Plan. Согласно заявлению компании, этот план позволит клиентам ускорить активацию помощников и агентов, а также «внедрять ИИ, включая облачные и подходящие локальные системы, в удобном для них темпе по мере перехода в облако». Планируется, что предложение станет доступно уже в этом месяце.

Постоянный URL: https://servernews.ru/1141757
15.05.2026 [08:38], Сергей Карасёв

Сетевой протокол Multipath Reliable Connection (MRC) улучшит производительность и надёжность ИИ-кластеров

OpenAI в партнёрстве с AMD, Broadcom, Intel, Microsoft и NVIDIA анонсировала технологию Multipath Reliable Connection (MRC) — сетевой протокол, призванный повысить производительность и отказоустойчивость масштабных GPU-кластеров, ориентированных на ресурсоёмкие задачи ИИ. MRC уже используется во всех крупных кластерах OpenAI c NVIDIA GB200, в том числе в первом ЦОД Stargate, а также в ЦОД Microsoft по проекту Fairwater.

Отмечается, что при обучении больших языковых моделей (LLM) каждый этап предполагает огромное количество пересылок данных между узлами в кластере. При этом единственная задержка при подобных транзакциях может повлиять на весь процесс, потенциально провоцируя простои тысяч ИИ-ускорителей. Такие прерывания приводят к снижению эффективности использования имеющихся вычислительных мощностей и к увеличению временных затрат. Наиболее распространёнными причинами задержек и нестабильности при передаче данных являются перегрузка сети, сбои в работе каналов связи и коммутационных устройств. Причём по мере увеличения масштабов кластеров проблемы усугубляются: неполадки возникают всё чаще, а их устранение становится более затруднительным.

Протокол MRC, как утверждается, устраняет ряд ключевых недостатков сетей Ethernet применительно к инфраструктурам ИИ. В частности, вводятся такие механизмы, как адаптивная многопутевая передача данных, многоканальные перекрёстные Ethernet-фабрики, «распыление» пакетов, быстрое восстановление после сбоев и пр. MRC коренным образом меняет способ передачи трафика по сети.

 Источник изображений: OpenAI

Источник изображений: OpenAI

Традиционные платформы RoCE обычно привязывают поток данных к одному сетевому пути, что может снижать эффективность при возникновении неполадок. MRC же распределяет пакеты из одной серии одновременно по сотням путей и нескольким физическим сетевым каналам. В пакетах содержатся сведения об их конечном назначении, что позволяет ускорителям размещать данные в нужной последовательности, даже если пакеты поступают не по порядку. MRC хранит информацию о состоянии множества используемых путей: если обнаруживается перегрузка какого-либо из них, выбирается альтернативный маршрут, что позволяет оперативно перераспределить нагрузку по всей сети.

Ещё одной важной особенностью MRC является многоуровневая архитектура, которая изменяет саму физическую концепцию построения интерконнекта. Так, например, сетевой интерфейс 800GbE может быть разделён на 100GbE-каналы, связанные с восемью различными коммутаторами отдельными каналами. В результате можно построить восемь отдельных параллельных сетей. Такой подход оказывает значительное влияние на структуру кластера. В частности, коммутатор c 64 портами 800GbE можно использовать в конфигурации на 512 × 100GbE. И это позволяет построить сеть, объединяющую около 131 тыс. GPU, используя всего два уровня коммутации, против традиционных трёх- или четырёхуровневых топологий.

В протоколе MRC также используется новый способ обработки перегрузок и потери пакетов в сетях Ethernet. Обычно применяется технология PFC (Priority Flow Control) — управление потоками на основе приоритетов: этот механизм предполагает приостановку передачи данных для конкретных классов трафика, а не для всего порта целиком. В случае MRC задействован иной подход, основанный на выборочных подтверждениях, явных запросах на повторную передачу и обрезке пакетов. Так, когда коммутатор сталкивается с перегрузкой, он может отрезать полезную нагрузку и переслать в пункт назначения только заголовок пакета, что позволяет получателю быстро идентифицировать отсутствующие данные и запросить повторную передачу. Утверждается, что это даёт возможность восстанавливаться после сбоев и перегрузок в течение микросекунд, что на порядки быстрее по сравнению с обычными архитектурами.

С внедрением MRC сокращается необходимость в динамической маршрутизации. Если пакеты теряются на каком-либо пути, система на основе MRC просто перестаёт использовать этот путь. Вместо динамической маршрутизации применяется так называемая сегментная маршрутизация IPv6 (IPv6 Segment Routing, SRv6), которая позволяет отправителю напрямую задать путь прохождения пакета, прописав последовательность идентификаторов коммутаторов. При пересылке данных коммутатор проверяет наличие собственного идентификатора. Если он присутствует, он удаляет из пакета свой идентификатор и ищет следующий за ним идентификатор в статической таблице маршрутизации, которая указывает, куда необходимо отправить пакет данных.

В отличие от динамической маршрутизации, такая статическая таблица формируется при первой настройке коммутатора и в дальнейшем не изменяется. MRC использует SRv6 для передачи пакетов по всем физическим каналам и уровням, а также по множеству путей в каждом из них. Если какой-либо путь становится недоступен, система игнорирует его. При этом коммутаторам не нужно пересчитывать маршруты или выполнять другие действия, кроме как строго следовать статическим маршрутам, заложенным в таблице.

Протокол MRC выпущен в рамках проекта OCP. В целом, как отмечается, MRC обеспечивает три ключевых преимущества перед стандартными Ethernet-сетями для кластеров ИИ. Во-первых, MRC позволяет создавать многоуровневые высокоскоростные инфраструктуры для платформ с более чем 131 072 конечных точек, используя всего два уровня коммутаторов. Во-вторых, адаптивное распределение пакетов обеспечивает эффективную балансировку нагрузки, благодаря чему практически отсутствуют перегрузки в ядре сети. В-третьих, применение SRv6 обеспечивает быстрый обход сбоев и отправку пакетов только по работающим путям.

Компания Broadcom заявила, что её сетевые адаптеры Thor Ultra, а также коммутаторы Tomahawk 5 и Tomahawk 6 изначально поддерживают функциональность MRC. В частности, Thor Ultra позволяет использовать 2, 4 или 8 параллельных сетей на одном порту и распределять трафик одновременно по 128 каналам. При этом Tomahawk 5 обеспечивает коммутационную способность до 51,2 Тбит/с, а Tomahawk 6 — до 102,4 Тбит/с. В свою очередь, NVIDIA отмечает, что протокол MRC, будучи расширением RoCE, совместим с решениями Spectrum-X Ethernet. OpenAI уже использовала MRC при обучении нескольких ИИ-моделей, задействовав коммутаторы Broadcom и NVIDIA. Конкуренцию MRC составляет схожий во многих аспектах Ultra Ethernet.

Постоянный URL: https://servernews.ru/1141441
15.05.2026 [00:29], Владимир Мироненко

США разрешили покупку NVIDIA H200 десяти китайским компаниям, но сделки застопорились

В преддверии визита президента США Дональда Трампа (Donald Trump) в Китай правительство страны разрешило десятку китайских компаний приобрести ИИ-ускорители NVIDIA H200, но их поставки пока так и не начались, сообщили источники агентства Reuters, знакомые с ситуацией. Как сообщается, глава NVIDIA Дженсен Хуанг (Jensen Huang) присоединился к американской делегации, и, как ожидается, предпримет усилия, чтобы разрешить зашедшую в тупик ситуацию с поставками.

До ужесточения экспортных ограничений США компания NVIDIA контролировала около 95 % китайского рынка передовых чипов и на Китай приходилось 13 % её выручки. После ввода ограничений поставки чипов NVIDIA в Поднебесную практически сошли на нет. По оценкам Хуанга, объём ИИ-рынка в стране в этом году составит $50 млрд.

Согласно данным источников, в число компаний, получивших разрешение на покупку H200, вошли Alibaba, Tencent, ByteDance и JD.com. Также добро получили несколько дистрибьюторов, включая Lenovo и Foxconn. Покупателям разрешено приобретать чипы либо напрямую у NVIDIA, либо через избранных посредников, и каждый получивший одобрение клиент может приобрести до 75 тыс. чипов в соответствии с условиями лицензирования США. Из всех названных компаний лишь Lenovo подтвердила Reuters факт получения лицензии на покупку американских чипов, остальные оставили без ответа запрос о комментариях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По словам источников, несмотря на одобрение США, поставки H200 застопорились из-за отказа китайских фирм от сотрудничества после указания властей КНР. Это подтвердил министр торговли Говард Лютник (Howard Lutnick), заявивший на слушаниях в Сенате в прошлом месяце, что правительство Китая пока не позволяет компаниям покупать чипы, стремясь сосредоточить инвестиции на отечественной промышленности. Хотя китайские ИИ-чипы уступают решениям той же NVIDIA, китайские компании, как, например, DeepSeek, всё чаще полагаются на отечественные чипы, включая разработанные Huawei.

Их переход на чипы Huawei подчёркивает шаткое положение NVIDIA в Китае. Хуанг неоднократно говорил, что экспортный контроль США подрывает позиции компании на местном рынке. При этом, по оценкам некоторых экспертов, у NVIDIA уже скопился запас из примерно 700 тыс. нереализованных H200.

Следует отметить, что осуществление поставок H200 затруднено множеством требований с обеих сторон. В частности, США в январе одобрили правила, согласно которым от китайских покупателей требуется продемонстрировать наличие «достаточных мер безопасности» и подтвердить отказ от использования чипов в военных целях. NVIDIA также должна подтвердить наличие достаточных запасов чипов для американских клиентов. В свою очередь, Государственный совет КНР недавно издал два постановления о безопасности цепочек поставок, что побудило правительство заняться выявлением и устранением потенциальной зависимости от иностранных технологий в КИИ.

Постоянный URL: https://servernews.ru/1141761
14.05.2026 [18:02], Владимир Мироненко

Благодаря спросу на ИИ AMD нарастила долю на рынке серверных CPU, а Intel потихоньку теснит Arm

AMD добилась значительных успехов в сегменте серверных процессоров в I квартале 2026 года. По оценкам Mercury Research, на EPYC пришлось 46,2 % рынка серверных процессоров в денежном выражении, что стало новым историческим максимумом у компании в этой категории продукции. При этом в количественном выражении доля AMD EPYC в общем объёме продаж в сегменте гораздо меньше — 27,4 % (последовательный рост на 230 базисных пунктов), что указывает на их гораздо более высокую среднюю цену продажи (ASP) по сравнению с конкурентами.

Общий объём поставок серверных процессоров увеличился примерно на 6 % последовательно и примерно на 19 % год к году. Больше половины рынка серверных чипов в количественном выражении (54,9 %, снижение на 370 базисных пунктов по сравнению с предыдущим кварталом) принадлежит Intel. И судя по её доле рынка в денежном выражении в размере 53,8 % и доле в количественном выражении, можно с уверенностью предположить, что средняя цена серверных процессоров Intel Xeon ниже, чем у AMD EPYC.

По данным Mercury Research, на Arm-процессоры ля ЦОД приходится около 17,7 % (последовательный рост на 140 базисных пунктов), что составляет почти пятую часть от общего объёма поставок в I квартале 2026 года. Вместе с тем, не уточняется, идёт ли речь о продукции Ampere и других производителей Arm-процессоров, или же о собственных разработках таких компаний, как Google, AWS или Microsoft.

 Источник изображения: AMD

Источник изображения: AMD

В 2026 году ключевым трендом на рынке ИИ стало активное внедрение ИИ-агентов и мультиагентных систем, что обусловило высокий спрос на процессоры и успех AMD. При развёртывании агентного ИИ растёт роль CPU, что привело к изменению конфигурации вычислительных систем от традиционного соотношения, когда один процессор работает в паре с четырьмя или даже восемью ускорителями, в сторону соотношения один к одному.

Благодаря возросшему спросу AMD сейчас продаёт каждый произведённый процессор, а Intel реализует заинтересованным клиентам даже то, что ранее списывалось как брак. Вместе с тем в настоящее время AMD удаётся добиваться более высоких средних цен на свою продукцию.

Постоянный URL: https://servernews.ru/1141742
14.05.2026 [16:47], Владимир Мироненко

Virtuozzo предложила инфраструктурную систему V/IS для ИИ, которая поможет справиться с ростом цен на ПО VMware

Компания Virtuozzo, специализирующаяся в области разработки ПО для инфраструктурных систем, представила своё видение эффективной ИИ-инфраструктуры, «созданной с помощью ИИ и использующей ИИ для обработки ИИ-нагрузок».

V/IS представляет собой гиперконвергентную систему, объединяющую в единой архитектуре вычислительные ресурсы, хранилище данных и сети, включая операционную систему нового поколения, а также функции оркестрации, управления, автоматизации и защиты.

V/IS включает следующие компоненты:

  • V/OS — ОС на базе Linux, разработанная для поддержки как виртуальных машин, так и контейнеров, обеспечивая, по словам компании, производительность, близкую к производительности аппаратного обеспечения, а также минимальные накладные расходы и максимальную плотность нагрузок.
  • V/Orchestration — унифицированная система оркестрации вычислительных ресурсов, хранилища, сети и сред Kubernetes, упрощающую развёртывание и масштабирование инфраструктуры для любых типов рабочих ИИ-нагрузок.
  • V/Management — система, отвечающая за централизованное управление и прозрачность инфраструктуры и сервисов, предназначенных для оптимизации использования ресурсов, максимизации производительности и упрощения операций в любом масштабе.
  • V/Automation — встроенная система автоматизации для предоставления ресурсов, выставления счетов и управления клиентами, позволяющая поставщикам запускать и монетизировать сервисы ИИ и GPU без отдельных дорогостоящих внешних систем.
  • V/Protection — интегрированная система резервного копирования (Acronis), аварийного восстановления и кибербезопасности для вычислительных ресурсов, хранилищ и сетей, отвечающая за обеспечение отказоустойчивости критически важных, ресурсоёмких ИИ-сред.
 Источник изображений: Virtuozzo

Источник изображений: Virtuozzo

Virtuozzo также позиционирует свою платформу как способ для поставщиков услуг быстро запускать услуги AIaaS (AI-as-a-Service) и GPUaaS (GPU-as-a-Service). Инфраструктура поддерживает как обучение ИИ, так и задачи инференса, а интегрированные инструменты учёта и выставления счетов призваны помочь поставщикам быстрее монетизировать ресурсы GPU. В последней версии продукта Virtuozzo в панель администратора были добавлены функции учёта и управления GPU.

Компания заявила, что повышение эффективности использования GPU и инфраструктуры поможет организациям справиться с ростом цен на продукты VMware после приобретения VMware компанией Broadcom. Как сообщает Blocks & Files, штат Virtuozzo насчитывает более 250 сотрудников. Компания работает в более чем в 80 странах и имеет около 550 партнёров MSP и партнёров по каналам продаж.

Постоянный URL: https://servernews.ru/1141724
14.05.2026 [16:22], Руслан Авдеев

К 2035 году Вьетнам намерен построить собственное гособлако и стать «развитой цифровой нацией»

Вьетнамские власти решили построить собственную облачную платформу для правительственных структур и государственных ведомств, чтобы не зависеть от принадлежащих иностранным компаниям сервисам, сообщает The Register. В рамках правительственного постановления Decision 808/QD-TTg, утверждающего развитие 20 стратегических технологий в стране для обретения технологического суверенитета, предусмотрено и создание «независимого» облака.

Предполагается добиться национального суверенитета данных и обеспечить кибербезопасность для «цифрового правительства» и ключевой инфраструктуры цифровой экономики. Необходимо сформировать централизованную и безопасную цифровую инфраструктуру для обслуживания национальной цифровой трансформации и постепенно заменить иностранные облачные сервисы, используемые государственными ведомствами — это снижает риск утечек данных, в том числе секретных.

Новые меры свидетельствуют о том, что вьетнамское правительство, как и многие другие, опасается проблем с зарубежными облачными провайдерами, которые обязаны выполнять чужие законы. Невозможность обеспечить полный суверенитет в своё время подтвердила Microsoft. Последняя, наряду с Google и Tencent Cloud, пока не построила своих мощностей во Вьетнаме, тогда как AWS намерена открыть одну из своих локальных зон доступности (Local Zones) в Ханое, а Alibaba Cloud собирается построить в стране дата-центр. Кроме того, интерес к рынку выразила и Huawei Cloud.

Вьетнамские власти приветствуют присутствие в стране гиперскейлеров, и недавно встречались с представителем AWS для обсуждения развития сотрудничества. Тем не менее, выполнение правительственных задач на площадках зарубежных гиперскейлеров прямо нарушает местные законы, требующие хранения персональных данных в пределах Вьетнама.

 Источник изображения: Kiril Dobrev/unsplash.com

Источник изображения: Kiril Dobrev/unsplash.com

В числе прочих технологий, которые Вьетнам намерен развивать числятся крупная ИИ-модель, виртуальные ассистенты, ИИ для управления камерами, оценки кредитных рисков и т. п. Также страна желает получить национальный брандмауэр нового поколения, антивирусное ПО, SIEM-систему следующего поколения, постквантовое шифрование и др. В числе прочего планируется развивать переработку редкоземельных элементов, нарастить компетенции в сфере 5G, научиться строить промышленных роботов и управлять ими, совершенствовать технологии разработки полупроводников.

Времени немного — программа Decision 808 должна быть полностью реализована уже в 2030 году. Тогда же Ханой рассчитывает перевести в онлайн все ключевые правительственные сервисы и развить цифровую инфраструктуру для социальной защиты, борьбы с преступностью, обеспечения национальной безопасности и поддержки науки и инноваций. А уже в 2035 году Вьетнам намерен стать «развитой цифровой нацией», где базы с национальными данными о населении станут основой для создания умного цифрового правительства, в котором принятие решений будет осуществляться на основе поступления информации в режиме реального времени, а граждане «получат персонализированные, автоматизированные и удобные цифровые услуги, адаптированные к различным событиям их жизни».

В конце 2025 года сообщалось, что Вьетнам готовится стать «следующим Сингапуром» и привлекает всё больше инвестиций в цифровые технологии. Например, G42 из ОАЭ подписала соглашение о строительстве трёх дата-центров во Вьетнаме за $1 млрд.

Постоянный URL: https://servernews.ru/1141729
14.05.2026 [15:33], Руслан Авдеев

Uptime Institute: сбои в дата-центрах стали реже, но значительнее

Согласно новому отчёту Uptime Institute, за последнюю пятилетку отказоустойчивость ЦОД значительно выросла. При этом сбои в работе дата-центров по-прежнему происходят, а устранение их обходится всё дороже и времени на это уходит в среднем всё больше, сообщает The Register.

Согласно докладу, половина опрошенных представителей операторов ЦОД за последние три года отметили значительные или масштабные сбои. Это наиболее низкий уровень с 2020 года, т.е. инфраструктура становится всё надёжнее. При этом операторам ЦОД всё сложнее повышать прописанный в SLA уровень надёжности — хотя отказы случаются реже, дальнейшее улучшение показателей требует всё больших усилий.

Усилия по повышению времени безотказной работы отчасти сводятся на нет усложнением систем и условий эксплуатации, вызванными повсеместным внедрением ресурсоёмкой инфраструктуры для обучения и инференса ИИ. Повышенная плотность размещения оборудования в стойках, перепады нагрузок и другие факторы способны увеличить вероятность каскадных отказов. Кроме того, нехватка генераторов, распределительных устройств, трансформаторов, систем охлаждения и др. заставляет операторов ЦОД иногда использовать б/у или непроверенное оборудование. Предполагается, что именно это могло привести к сбоям в некоторых ЦОД.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Основной причиной критических неполадок называются сбои электроснабжения, хотя в этом отношении наметились определённые улучшения — если в 2024 году на проблемы с электроснабжением приходилось 54 % самых серьёзных отключений, то в 2025 году речь шла уже о 45 %. При этом ситуация может измениться, поскольку электросети на местах испытывают всё большую нагрузку из-за ввода в эксплуатацию новых ЦОД. Хотя сбои энергосетей не станут главной причиной отключений в будущем, они скажутся на доступности локальной генерации — при сбоях сети ЦОД не всегда успевают переключиться на ДГУ и иные резервные источники питания.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

В поле зрения экспертов Uptime попадает не только перегрузка электросетей. По словам экспертов, многие сбои ЦОД связаны с обрывами оптоволокна и другими неполадками. Поскольку инфраструктура ЦОД становится всё более распределённой, сбои за пределами дата-центров играют всё большую роль. Даже если сам ЦОД работает корректно, неправильная сетевая конфигурация, например, может привести к перебоям с предоставлением услуг клиентам. SDN и автоматическое перераспределение трафика позволяет снизить риски, и всё больше компаний не сталкиваются с простоями вообще. Около 20 % опрошенных не регистрировали в последние три года сбоев IT-сервисов, что значительно лучше, чем годом ранее.

 Источник изображения: Uptime Institute

Источник изображения: Uptime Institute

Обеспечение устойчивости на уровне ПО помогает смягчить эффекты от локальных инцидентов, включая обрывы оптоволоконных кабелей, за счёт распределения рабочих нагрузок между рядом связанных площадок. Впрочем, такие системы довольно сложны сами по себе. Более того, на примере ударов беспилотниками по ЦОД в ОАЭ и Бахрейне можно увидеть, что распределение нагрузок имеет малую эффективность, если сбой касается сразу нескольких площадок.

Хотя в 2025 году Uptime Institute зарегистрировала меньше сбоев, чем годом ранее, в отчёте полагают, что сбои могут длиться в целом дольше. 55 % инцидентов, информация о которых сообщалось публично, разрешаются в течение 12 часов, но доля инцидентов продолжительностью более 48 часов увеличивается вот уже второй год подряд. При этом многие из них связаны с теми же повреждениями ВОЛС. По информации Uptime, в отчётный период это происходило более чем вдвое чаще, чем ранее.

При этом по мере роста длительности простоя растут и убытки от инцидентов, особенно в случае с ИИ-инфраструктурой. По данным Uptime, в настоящее время 20 % простоев обходится дороже $1 млн. Ожидается, что соответствующий показатель в ближайшие годы будет только увеличиваться.

Постоянный URL: https://servernews.ru/1141712
14.05.2026 [15:01], Руслан Авдеев

Cisco уволит 4 тыс. сотрудников, взамен предложив им обучение на платформе Cisco U

Cisco намерена отправить на улицу 5 % штата, взамен предложив им бесплатное обучение новым навыкам на образовательной платформе Cisco U в течение года после увольнения, сообщает The Register.

По словам главы компании Чака Роббинса (Chuck Robbins), опубликовавшего в социальных сетях пост, озаглавленный «Наш путь вперёд» (Our Path Forward), в III квартале 2026 финансового года выручка составила рекордные $15,8 млрд, на 12 % больше год к году. Рост чистой прибыли составил 35 %, до $3,4 млрд. Впрочем, сохранить сотрудникам рабочие места это никак не помогло.

Роббинс заявил, что сокращения штата необходимы, поскольку компаниями-победителями станут те, у кого есть «фокус», чувство срочности и дисциплина для постоянного перераспределения инвестиций в зоны наибольшего спроса и наиболее выгодные в долгосрочной перспективе направления. Для Cisco, в частности, это означает «сокращение должностей в некоторых сферах», а также чёткие стратегические инвестиции — в полупроводники, оптику, безопасность и использование сотрудниками ИИ в масштабах всей компании.

По словам Роббинса, увольняемым помогут найти работу, компания обеспечивает в этом вопросе 75-%. Кроме того, она предоставит доступ к курсам и сертификации на образовательной платформе Cisco U — сотрудники смогут получить новые навыки в сфере ИИ, информационной безопасности, сетевых технологий и др.

 Источник изображения: Yogi Atmo/unsplash.com

Источник изображения: Yogi Atmo/unsplash.com

В 2024 году компания провела две больших серии увольнений, в ходе первой её покинули 7 % сотрудников, а в ходе второй — 5 %. При этом реструктуризация, похоже, пошла бизнесу только на пользу. По данным Роббинса, в III квартале заказы продуктов выросли на 35 % г/г, рост заказов от гиперскейлеров составил 105 %, а от прочих покупателей — скромные 18 %. С начала года зарегистрированы продажи в сфере ИИ-инфраструктуры на сумму $5,3 млрд, прогноз на год составляет $9 млрд, в 4,5 раза больше, чем в прошлом году. Продажи Wi-Fi оборудования тоже выросли на 40 %.

Компания рассчитывает сохранить высокие темпы продаж, разработав беспроводное оборудование, использующее меньше памяти. Роббинс объявил, что уже в IV квартале можно будет заказать продукты, которые требуют на 50 % меньше памяти — компания реализует более 20 программ, снижающих использование памяти во всём портфолио продуктов. Несмотря на рост цен на память и накопители, маржинальность продуктов компании не изменилась — проблемы компенсируются эффективным управлением цепочками поставок.

Дополнительно глава компании раскрыл, что Cisco участвует в инициативе Project Glasswing компании Anthropic, направленной на поиск уязвимостей в коде, и использует модель Mythos для тестирования своего кода. При этом использование Mythos разными вендорами только ускорит замену ИБ-оборудования по мере выявления уязвимостей, которые сложно устранить. По данным Роббинса, компания уже получила заказы на обновление оборудования от нескольких клиентов, которые и так были близки к решению о его замене, а применение Mythos только ускорило процесс. Впрочем, в III квартале пока никаких существенных заказов, связанных с Mythos, не зарегистрировано — это может измениться в будущем.

Постоянный URL: https://servernews.ru/1141722
14.05.2026 [10:56], Сергей Карасёв

SiFive представила RISC-V-ядра Performance P570 Gen 3 для IoT-приложений

Компания SiFive анонсировала производительные процессорные ядра Performance P570 третьего поколения (Gen 3) с архитектурой RISC-V. Они ориентированы на требовательные периферийные ИИ-приложения, потребительские и коммерческие решения интернета вещей (IoT) и пр.

Новые ядра используют 64-бит архитектуру RISC-V с поддержкой внеочередного исполнения инструкций. Допускаются конфигурации, насчитывающие до четырёх ядер в кластере. При этом возможно использование до четырёх кластеров, что в сумме даёт до 16 вычислительных ядер. Используется общий кеш L3 на уровне кластера и опциональный общий кеш L2.

Для Performance P570 Gen 3 заявлена поддержка широкого спектра типов данных: INT8, INT16, INT32, INT64, FP16, FP32, FP64 и BFloat16. Заявлена полная совместимость с профилем RVA23, который стандартизирует набор инструкций ISA. Реализованы такие функции, как векторные операции, инструкции с плавающей запятой и атомарные инструкции, которые востребованы в сферах НРС и ИИ. Добавлены расширения для повышения производительности и улучшения безопасности, включая Smepmp, Zvkng, Zvksg, Zicfilp, Zicfiss, Zfbfmin, Zvfbfmin, Zvfbfwma и Zvdot4a8i. Упомянута возможность работы с современными ОС, включая Android, Ubuntu 26.04 LTS и платформы Red Hat.

 Источник изображения: SiFive

Источник изображения: SiFive

В тесте Geekbench 6 ядра Performance P570 Gen 3 демонстрируют примерно вдвое более высокую производительность в расчёте на 1 ГГц по сравнению с изделиями P550. При выполнении определённых ИИ-задач, таких как распознавание объектов, достигается 21-кратный прирост быстродействия благодаря 128-битному векторному конвейеру VLEN. Если сравнивать с ядрами P470 Gen2, то у P570 выигрыш в производительности составляет 30 % и 350 %. В традиционных CPU-нагрузках, по данным SpecInt 2006/2017, ядра P570 показывают прирост быстродействия на 7–13 % по сравнению с P550 при сопоставимых значениях с P470.

Кроме того, обеспечивается повышение энергетической эффективности. У ядер Performance P570 Gen 3 динамическое энергопотребление (мВт/ГГц) снижено на 13 % и 5 % по сравнению с P550 и P470 соответственно, а потери мощности (мВт) уменьшены на 51 % и 5 %.

Постоянный URL: https://servernews.ru/1141700