Материалы по тегу:

24.11.2025 [10:17], Руслан Авдеев

Перекрыть потоки: NVIDIA усиливает контроль над цепочкой поставок СЖО для Vera Rubin

NVIDIA намерена серьёзно изменить управление цепочкой поставок для серверной платформы новейшего поколения Vera Rubin. Она ужесточает контроль над сборкой и поставкой ключевых компонентов систем охлаждения, что связано с ростом энергопотребления и обязательным применением СЖО, сообщает DigiTimes. Это ещё один шаг в процессе усиления контроля над выпуском ИИ-платформ. NVIDIA уже давно внимательно следит за цепочками поставок для ускорителей и плат, но теперь намерена перейти на новый уровень.

Источники сообщают, что компания намерена отобрать четырёх поставщиков водоблоков, перейти к координации производства и централизованным закупкам. Предполагается, что это будут Cooler Master, Asia Vital Components (AVC), Auras Technology и Delta Electronics. Ранее СЖО для NVIDIA занимались, в основном, Cooler Master, AVC и некоторые другие поставщики.

Ожидается, что для Vera Rubin вместо поставки лишь отдельных компонентов (L6), NVIDIA будет участвовать в процессе и на более позднем этапе (L10), взяв ответственность за интеграцию и сборку готовых серверных шкафов. В целом окончательную сборку поручат Foxconn, Wistron и Quanta. Из-за необходимости быстрого выпуска продукции на поставщиков легла дополнительная нагрузка. Некоторые из них в частном порядке жалуются, что NVIDIA настаивает на запуске массового производства ещё до утверждения окончательного дизайна платформ, а новое поколение платформ часто появляется до того, как предыдущее достигло стабильного уровня производства и качества.

Централизованные закупки помогут NVIDIA оптимизировать поставки и контролировать качество, но рентабельность работы поставщиков может пострадать, поскольку NVIDIA сама будет управлять спросом и торговаться по поводу цен. При этом отказ от подобных условий практически невозможен, учитывая доминирующее положение компании на рынке ИИ-инфраструктуры. В результате снижается самостоятельность как ODM, так и облачных провайдеров. Из-за этого же, как считается, во многом замедлено и развитие погружных СЖО — NVIDIA попросту не готова сертифицировать такие системы.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Эксперты всё чаще говорят о росте напряжённости, которая со временем приведёт к открытому конфликту. Новый подход NVIDIA, вероятно, повлияет на цепочку поставок двумя путями. Во-первых, контракты на сборку консолидируются вокруг небольшого пула производителей, а выпуск водоблоков сконцентрируется в руках трёх-четырёх компаний. Облачным провайдерам, вероятно, тоже придётся идти на поводу NVIDIA при размещении крупных оптовых заказов, хотя они как раз предпочитают создавать собственные СЖО, что в целом тоже негативно влияет на некоторых игроков.

Во-вторых, рост объёмов поставок не гарантирует роста рентабельности. Поставщики предполагают, что цена за единицу продукции в рамках попыток NVIDIA сконцентрировать производителей уменьшится, а более жёсткий контроль над проектированием снизит и стратегическую ценность индивидуальных разработок. Компании уже шутят, что статус крупнейшего поставщика NVIDIA может буквально навредить, поскольку по мере роста объёмов обычно растут и дисконты.

Ожидается, что стойки поколения Vera Rubin обеспечат значительно более высокую плотность вычислений, чем уже доступные платформы GB200 и GB300, а для традиционного воздушного охлаждения места уже не останется. В отрасли ожидают, что Vera Rubin представят во II половине 2026 года. Платформа представляет собой сажный шаг к созданию ИИ-инфраструктуры с полностью жидкостным охлаждением. Новейшая стратегия NVIDIA, касающаяся цепочек поставок, свидетельствует о решимости компании усилить прямой контроль качества, поставок и их стоимости по мере роста плотности мощности.

В JPMorgan утверждают, что NVIDIA станет напрямую поставлять системы L10. Компания унифицирует конструкцию и заставит подрядчиков строго придерживаться предлагаемых чертежей и дизайна без использования проприетарных архитектур, созданных самими подрядчиками. Для NVIDIA это выгодно, поскольку позволяет значительно ускорить отгрузки и кратно сократить сроки развёртывания ИИ-инфраструктур (до 3 мес. вместо 9 мес.), опираясь на единые стандарты — от одного узла до целой ИИ-фабрики. При этом AWS, вероятно, придётся тяжелее всех, поскольку она пытается снизить зависимость от NVIDIA и в то же время не является активным сторонником OCP.

Постоянный URL: http://servernews.ru/1132823
24.11.2025 [09:09], Сергей Карасёв

IBM утроила вместимость СХД Storage Scale System 6000 — до 47 Пбайт на стойку

Корпорация IBM объявила о выпуске обновлённой СХД Storage Scale System 6000, предназначенной для работы с ресурсоёмкими ИИ-приложениями, а также с нагрузками, которым требуется интенсивный обмен большими объёмами информации.

Платформа Storage Scale System 6000 дебютировала в конце 2024 года. Устройство типоразмера 4U оснащено двумя контроллерами, работающими в режиме «активный — активный». Применяются процессоры AMD EPYC Genoa 7642 (48C/96T; 2,3–3,3 ГГц; 225 Вт) или EPYC Embedded 9454 (48C/96T; 2,75–3,8 ГГц; 290 Вт), а максимальный объём оперативной памяти в расчёте на систему составляет 3072 Гбайт. Допускается установка 48 NVMe-накопителей. Также поддерживаются фирменные FCM-модули со сжатием на лету.

Вместимость оригинальной версии достигала 2,2 Пбайт (при использовании комбинации SSD на 30 и 60 Тбайт). При подключении девяти дополнительных JBOD-массивов показатель вырастал до 15 Пбайт. Заявленная производительность — до 13 млн IOPS. Пропускная способность при чтении — до 330 Гбайт/с, при записи — до 155 Гбайт/с.

 Источник изображения: IBM

Источник изображения: IBM

В случае обновлённой модификации Storage Scale System 6000 реализована поддержка QLC-накопителей вместимостью до 122 Тбайт. Кроме того, представлены новые модули расширения All-Flash Expansion Enclosure стандарта 2U, рассчитанные на 26 двухпортовых накопителей QLC. В результате, общая ёмкость СХД в конфигурации в виде стойки 42U достигает 47 Пбайт, что примерно втрое больше по сравнению с оригинальным вариантом. При этом быстродействие поднялось до 28 млн IOPS, а пропускная способность в режиме чтения — до 340 Гбайт/с.

В состав All-Flash Expansion Enclosure входят DPU NVIDIA BlueField-3 (до 4 шт.). Каждый модуль расширения может обеспечить пропускную способность до 100 Гбайт/с. Решение оптимизировано для обучения больших языковых моделей, инференса, НРС-задач и пр. В продажу изделие поступит в декабре; тогда же станет доступно улучшенное ПО для СХД — IBM Storage Scale System 7.0.0.

Постоянный URL: http://servernews.ru/1132815
24.11.2025 [08:45], Сергей Карасёв

Cornelis анонсировала 800G-адаптер CN6000 SuperNIC с поддержкой Omni-Path, RoCEv2 и Ultra Ethernet для ИИ и НРС

Компания Cornelis Networks анонсировала сетевой адаптер CN6000 SuperNIC со скоростью передачи данных до 800 Гбит/с, разработанный для систем ИИ и НРС. О намерении использовать решение объявили многие отраслевые игроки, включая Lenovo, Synopsys и Atipa Technologies.

В устройстве реализована архитектура Omni-Path. Говорится о полной совместимости со стандартами Ultra Ethernet и RoCEv2. Таким образом, адаптер может применяться в высоконагруженных средах, где требуются максимальная пропускная способность при низких задержках.

Адаптер CN6000 SuperNIC обеспечивает быстродействие до 1,6 млрд сообщений в секунду. Утверждается, что новинка поможет организациям ускорить обучение крупных ИИ-моделей при одновременном снижении расходов на электроэнергию и эксплуатацию дата-центров.

 Источник изображения: Cornelis Networks

Источник изображения: Cornelis Networks

Cornelis заявляет, что традиционные архитектуры RoCEv2 испытывают трудности при масштабировании в рамках масштабных GPU-кластеров из-за требований к ресурсам памяти при управлении парами связанных очередей (Queue Pair, QP) для отправки и приёма данных. CN6000 SuperNIC позволяет решить проблему благодаря принципиально иной конструкции: задействованы «облегчённые» алгоритмы QP и аппаратно-ускоренные таблицы RoCEv2 In-Flight (RiF), что даёт возможность отслеживать миллионы одновременных операций с минимальными требованиями к ресурсам. Это гарантирует предсказуемую задержку при максимальной пропускной способности в системах любого масштаба.

Пробные поставки CN6000 SuperNIC планируется начать к середине 2026 года, после чего будет организовано массовое производство.

Постоянный URL: http://servernews.ru/1132818
23.11.2025 [17:01], Руслан Авдеев

OpenAI и Foxconn оптимизируют стоечные решения для ИИ ЦОД, которые будут выпускаться в США

Компании OpenAI и Foxconn займутся совместной оптимизацией проектирования дата-центров. ИИ-гигант объявил, что партнёрство с Foxconn (Hon Hai Technology) сосредоточится на совместной разработке и подготовке производства в США нового поколения аппаратного обеспечения для ИИ-инфраструктур.

Компании займутся проектированием и подготовке к реализации проектов «многочисленных поколений ИИ-стоек для дата-центров», чтобы обеспечить их соответствие потребностям новых моделей ускорителей. Упор сделан на расширение выпуска на всей территории США, увеличение доли местных поставщиков, локализацию тестирования и сборки. Foxconn намерена выпускать в Соединённых Штатах ключевые компоненты, включая кабели, сетевое оборудование, системы электропитания и охлаждения.

Хотя конкретные обязательства по финансам и закупкам в соглашении отсутствуют, оговорено, что OpenAI будет иметь ранний доступ для оценки новых систем и заключения контрактов на их закупки. Компании уже довольно давно совместно работают над проектом Stargate. Ранее Foxconn подтвердила, что станет выпускать для проекта оборудование на бывшем производстве General Motors в Лордстауне (Lordstown, Огайо).

 Источник изображения: Foxconn

Источник изображения: Foxconn

Это последний в серии шагов, предпринятых тайваньским производителем электроники для расширения бизнеса на территории США за последний год. В июле 2025 года Foxconn заключила контракт с американским филиалом тайваньской Teco, занимающейся производством электродвигателей. Они договорились о выпуске модульных ЦОД в США.

Американское правительство и бизнес призывают ключевые тайваньские полупроводниковые компании переносить производство в США на фоне опасений, что напряжённость в отношениях с материковым Китаем может поставить под угрозу глобальную цепочку поставок. А по словам главы OpenAI Сэма Альтмана (Sam Altman), востребованная ИИ-инфраструктура — редчайшая возможность реиндустриализации Америки. Некоторые из общих усилий уже начинают приносить плоды. Так, на фабрике TSMC в Финиксе (Phoenix, Аризона) изготовили первую в США пластину с чипами NVIDIA Blackwell и первую же пластину с CCD AMD EPYC Venice.

Многие связанные с производством оборудования и компонентов для ЦОД компании также принимают решение о локализации производства в США. Так, в начале апреля об инвестициях в производство на территории Соединённых Штатов заявила Wistron. Schneider Electric инвестирует $140 млн на выпуск в стране электрооборудования, а Hitachi Energy — $1 млрд.

Постоянный URL: http://servernews.ru/1132826
23.11.2025 [12:50], Владимир Мироненко

Спустя 11 лет после приобретения бизнеса IBM по выпуску x86-серверов Lenovo так и не добилась его прибыльности

Lenovo Group опубликовала рекордные финансовые результаты за II квартал 2025/26 финансового года (III квартал 2025 календарного года): выручка увеличилась на 9 % по сравнению с предыдущим кварталом и на 15 % в годовом исчислении, достигнув $20,45 млрд, что немного выше консенсус-прогноза аналитиков, опрошенных LSEG, в размере $20,3 млрд (по данным Reuters).

Lenovo продемонстрировала двузначный рост выручки в процентах в годовом исчислении во всех основных бизнес-группах и регионах продаж. Структура выручки, связанной с ИИ, увеличилась на 13 п.п. в годовом исчислении, составив 30 % от общей выручки компании. По словам руководства Lenovo, рост был обусловлен двузначным ростом выручки в процентах от поставок ИИ-серверов и трёхзначным ростом выручки в процентах от продаж от AI PC, смартфонов с поддержкой ИИ и ИИ-сервисов.

 Источник изображений: Lenovo

Источник изображений: Lenovo

Этот квартал знаменует собой восьмой квартал подряд роста выручки Lenovo в годовом исчислении после пяти кварталов спада, что является продолжением восстановления компании, начавшегося в конце 2024 года. Чистая прибыль (HKFRS) достигла $380 млн, снизившись на 25 % в квартальном исчислении и на 1% в годовом исчислении, что отражает рост операционных расходов, связанных с инвестициями в ИИ и сезонностью. Чистая прибыль, причитающаяся акционерам, упала на 5 % год к году до $340 млн. Скорректированная чистая прибыль (Non-HKFRS) увеличилась на 25 % до $512 млн.

Подразделение инфраструктурных решений (Infrastructure Solutions Group, ISG), которое специализируется на поставках оборудования для ЦОД, периферийных систем и облачных вычислениях, увеличило выручку год к году на 24 % до $4,1 млрд (последовательное снижение на 5 %), вместе с тем снова зафиксировав убыток в размере $32 млн. Впервые после покупки в 2014 году у IBM бизнеса по выпуску x86-серверов подразделение ISG получило квартальную прибыль только в конце 2021 года, но затем снова сработало с убытком. С тех пор ISG демонстрировало то небольшую прибыль, то умеренные убытки, отметил The Register.

Компания сообщила, что на рынке поставщиков облачных услуг (CSP) была получена рекордная выручка, а доход от услуг ИИ-инфраструктуры достиг высоких двузначных показателей роста в процентах в годовом исчислении благодаря большому количеству заказов. Рост выручки от решений жидкостного охлаждения Neptune составил 154 % в годовом исчислении.

По данным The Register, руководство компании считает, что наконец-то сможет привести ISG к росту прибыльности, «оптимизировав бизнес-модели для лучшего удовлетворения различных потребностей предприятий и SMB», и полагает, что растущий спрос на вычислительные мощности для инференса будет способствовать росту спроса на её продукцию.

Председатель совета директоров и генеральный директор Юаньцин Ян (Yuanqing Yang) поддержал мнение гендиректора NVIDIA Дженсена Хуанга (Jensen Huang), считающего безосновательными опасения по поводу формирования пузыря в ИИ-секторе. «Значительные инвестиции в инфраструктуру ИИ закладывают основу для следующей крупной технологической волны, подобной ранней эпохе интернета», — сказал он, отметив, как эта волна привела к «взрывному росту рынка ПК» и началу развития индустрии смартфонов. «Сейчас происходит следующая волна демократизации ИИ, охватывающая как персональное, так и корпоративное использование, что идеально соответствует стратегии Lenovo», — считает Ян.

Подразделение решений и услуг Lenovo (Solutions and Services Group, SSG) увеличило выручку год к году на 18 % до $2,6 млрд, что стало 18 кварталом подряд роста выручки в годовом исчислении. Бизнес-подразделение SSG, созданное во II квартале 2021 года, ориентировано на разработку ПО и проектов для четырёх масштабируемых вертикалей: «Умный город», «Умное образование», «Умная розничная торговля» и «Умное производство» (Smart City, Smart Education, Smart Retail, Smart Manufacturing). Выручка подразделения Intelligent Devices Group (IDG) составила $15,1 млрд, что на 12 % больше, чем в предыдущем квартале, и на 12 % больше в годичном исчислении.

Во время телефонной конференции, посвящённой финансовым результатам, Lenovo подтвердила рост цен на компоненты, особенно на память и СХД, выразив уверенность в возможности использования масштабов своей цепочки поставок и ресурсов закупок для снижения давления издержек. Компания предупредила о возможном дефиците поставок по мере роста спроса, хотя ожидается, что дисциплинированное управление запасами поможет поддерживать стабильную маржу.

Сообщается, что в III квартале 2026 финансового года (IV квартал 2025 календарного года) Lenovo продолжит развивать свою платформу «Гибридный ИИ для всех», объединяя интеллект на уровне устройств, оркестрацию периферийных устройств и ИИ корпоративного масштаба в единую архитектуру. Компания отмечает, что приоритеты пользователей смещаются в сторону персонализации, безопасности, конфиденциальности, устойчивого развития и эффективности — всё это ускоряет внедрение ИИ в её портфолио оборудования, ПО и сервисов.

Lenovo отметила, что продолжит развитие свою стратегии корпоративного ИИ, чтобы помочь клиентам превратить данные и знания в практическую аналитику и ценные идеи, подчеркнув, что имеет все возможности для стимулирования трансформации корпоративного ИИ и разработки ИИ-двойников для клиентов. Ожидается, что переход от облачного обучения ИИ-моделей к периферийному инференсу будет способствовать более активному росту рынка устройств и приложений ИИ, что ещё больше расширит общий целевой рынок компании.

Также Lenovo реализует свою концепцию «Один персональный ИИ, несколько устройств», чтобы обеспечить персонализированный опыт использования ИИ для всех форм-факторов. На корпоративном уровне компания углубляет внедрение гибридного ИИ, повышает эффективность использования данных и расширяет сервисы на базе ИИ, используя цифровое рабочее место, гибридное облако и решения для устойчивого развития.

Постоянный URL: http://servernews.ru/1132809
22.11.2025 [12:26], Сергей Карасёв

ASUS представила модульную ИИ-систему PE3000N на платформе NVIDIA Jetson Thor T5000

Компания ASUS IoT, подразделение ASUS по выпуску умных устройств для интернета вещей, анонсировала компьютер PE3000N — модульную систему для периферийных ИИ-задач. Устройство выполнено в корпусе повышенной прочности в соответствии со стандартом MIL-STD-810H, а диапазон рабочих температур простирается от -20 до +60 °C.

В основу новинки положен модуль NVIDIA Jetson Thor T5000. Изделие содержит CPU с 14 ядрами Arm Neoverse-V3AE (до 2,6 ГГц) и 2560-ядерный GPU на архитектуре Blackwell (до 1,57 ГГц). Имеется 128 Гбайт памяти LPDDR5X с пропускной способностью 273 Гбайт/с. ИИ-производительность достигает 2070 Тфлопс (FP4 Sparse). Встроенный VPU-блок способен осуществлять многопоточное декодирование видеоматериалов: 4 × 8Kp30 (H.265), 10 × 4Kp60 (H.265), 22 × 4Kp30 (H.265), 46 × 1080p60 (H.265), 92 × 1080p30 (H.265), 82 × 1080p30 (H.264) и 4 × 4Kp60 (H.264). Кодирование возможно в режимах 6 × 4Kp60 (H.265), 12 × 4Kp30 (H.265), 24 × 1080p60 (H.265), 50 × 1080p30 (H.265), 48 × 1080p30 (H.264) и 6 × 4Kp60 (H.264).

 Источник изображений: ASUS

Источник изображений: ASUS

Компьютер располагает коннектором M.2 M-key 2242/2260/2280 для SSD, разъёмом M.2 E-key 2230 для адаптера Wi-Fi/Bluetooth, коннектором M.2 B-key 3042/3052 для сотового модема 4G/5G (плюс слот для карты nano-SIM), а также разъёмом PCIe x4/x8. Есть сетевые порты 1GbE RJ45 и 10GbE RJ45, интерфейс HDMI 2.0, четыре порта USB 3.1 Type-A, по одному порту USB 3.1 Type-C и USB 3.1 Type-C OTG (OS Flash), два порт USB 2.0, аудиогнёзда на 3,5 мм. Могут быть также задействованы два последовательных порта RS-232/422/485 и четыре порта 25GbE. Реализован интерфейс MIPI CSI (16 линий; через коннектор AGX CSI) с возможностью подключения до 16 камер GMSL.

Дополнительные интерфейсные модули закрепляются в нижней части компьютера. Один из таких блоков содержит шесть портов 1GbE с поддержкой PoE, другой — четыре разъёма 10GbE M12 и два коннектора Fakra для GSML-камер. Габариты системы составляют 165 × 165 × 68 мм (165 × 165 × 97 мм с модулем расширения). Возможна подача питания в диапазоне 12–60 В. В качестве программной платформы применяется Ubuntu.

Постоянный URL: http://servernews.ru/1132790
22.11.2025 [12:23], Сергей Карасёв

В Microsoft Azure появились инстансы с Intel Xeon 6 и CXL-памятью

Корпорация Microsoft в партнёрстве с SAP и Intel запустила в облаке Azure новые виртуальные машины семейства M-Series с технологией Compute Express Link (CXL). В настоящее время эти инстансы работают в режиме закрытого тестирования.

Интерконнект CXL основан на интерфейсе PCIe: он обеспечивает высокоскоростную передачу данных с малой задержкой между хост-процессором и буферами памяти, акселераторами, устройствами ввода/вывода и пр. На днях была обнародована спецификация CXL 4.0, которая предусматривает поддержку линий с пропускной способности до 128 ГТ/с.

Новые инстансы Azure базируются на процессорах Intel Xeon 6500P и 6700P поколения Granite Rapids-SP. В этих чипах реализована технология CXL Flat Memory Mode, которая позволяет оптимизировать соотношение вычислительных мощностей и ресурсов памяти. Это обеспечивает улучшенную масштабируемость без ущерба для производительности, что важно при работе с приложениями, требовательными к объёму памяти.

 Источник изображения: Microsoft

Источник изображения: Microsoft

В случае представленных виртуальных машин Azure поддержка CXL способствует более эффективной работе SAP S/4HANA. В частности, достигается большая гибкость в плане конфигурирования платформы, что помогает удовлетворять потребности конкретных бизнес-пользователей при одновременном снижении совокупной стоимости владения.

«Инновационная архитектура инстансов с поддержкой CXL Flat Memory Mode ориентирована на повышение экономической эффективности и оптимизацию производительности программных решений SAP», — отмечает Intel.

Постоянный URL: http://servernews.ru/1132786
21.11.2025 [23:59], Сергей Карасёв

По-настоящему космический микроконтроллер STMicroelectronics STM32V8 пропишется в спутниках Starlink: 800 Мгц, защита от радиации и работа при +140 °C

Компания STMicroelectronics анонсировала микроконтроллер STM32V8 для индустриальной сферы. Среди возможных областей применения названы системы промышленной автоматизации, робототехника, оборудование для аэрокосмической отрасли и здравоохранения, устройства для умных городов и пр.

Изделие изготавливается по 18-нм техпроцессу FD-SOI в партнёрстве с Samsung Foundry. Основой служит 32-бит ядро Arm Cortex-M85 (до 800 МГц) с поддержкой Arm Helium, Arm MVE и TrustZone. По заявлениям STMicroelectronics, на сегодняшний день новинка является самым производительным микроконтроллером серии STM32.

Одной из особенностей STM32V8 является наличие 4 Мбайт (два блока по 2 Мбайт) энергонезависимой памяти на основе фазового перехода (РСМ). Она устойчива к воздействию радиации, что позволяет использовать микроконтроллер в том числе в космическом пространстве. Отмечается, что компания SpaceX будет применять изделие в своих спутниках системы Starlink. Еще одна особенность решения — широчайший диапазон рабочих температур, который простирается от -40 до +140 °C.

 Источник изображений: STMicroelectronics

Источник изображений: STMicroelectronics

В состав чипа входят графический блок Chrom-ART 2D GPU и аппаратный JPEG-ускоритель. Есть 1,5 Мбайт памяти System SRAM с поддержкой ECC и 8 Кбайт памяти Backup RAM. Реализованы интерфейсы внешней памяти Hexa-SPI, Octo-SPI, 2 × SD/SDIO/MMC, SDRAM, NAND. Упомянута поддержка 1GbE, 2 × SAI, 4 × I2S, S/PDIF Rx, 1 × USB HD, 1 × USB FS, UCPD (USB-C PD), 3 × I2C, 2 × I3C, 5 × USART, 5 × UART, 1 × LPUART, 3 × FD-CAN, 6 × SPI, 3 × ADC (12 бит), 1 × DAC (12 бит).

Для микроконтроллера доступны различные варианты исполнения, включая 68-pin VQFN (8 × 8 мм), 100-pin LQFP/TFBGA (14 × 14 или 8 × 8 мм), 144-pin LQFP (20 × 20 мм), 176-pin LQFP (24 × 24 мм), 176+25-pin UFBGA (10 × 10 мм) и 273-pin TFBGA (14 × 14 мм). Пробные поставки изделия избранным клиентам уже начались. Массовые отгрузки запланированы на следующий год.

Постоянный URL: http://servernews.ru/1132769
21.11.2025 [17:48], Андрей Крупин

«МойОфис» анонсировал более десятка новых технологий и продуктов для бизнеса

«МойОфис», российский разработчик программного обеспечения для совместной работы с документами и коммуникаций, представил ряд новых продуктов и технологических решений для корпоративного сегмента.

Анонс новинок был сделан в рамках проходившей в Москве IT-конференции «МойОфис: призма изменений». Все они сфокусированы на расширение функциональности программных продуктов экосистемы «МойОфис» — настольных и веб-редакторов, а также корпоративного мессенджера Squadus, и призваны повысить офисную продуктивность благодаря применению новейших технологий искусственного интеллекта в корпоративном контуре.

 Источник изображения: myoffice.ru/events/conference-prizma-2025

Источник изображения: myoffice.ru/events/conference-prizma-2025

Компанией были презентованы шесть новых продуктов.

«МойОфис Платформа AI». Решение для оркестрации больших языковых моделей (LLM). Позволяет разворачивать и масштабировать любые LLM на защищённом оборудовании заказчика и запускать на их основе кастомизированные ИИ-сервисы в корпоративном контуре. Интеллектуальное управление обеспечивает динамическое распределение ресурсов и автоматически оптимизирует нагрузку.

«МойОфис Чат AI». Универсальный ИИ-ассистент для сотрудников. Позволяет решать деловые задачи, готовить презентации, писать код, анализировать большие объёмы данных, выявлять в них тренды и аномалии, строить прогнозы на их основе. Продукт можно развернуть как в облаке, так и в IT-инфраструктуре организации.

«МойОфис Презентация AI». Сервис для автоматизированного создания профессиональных презентаций на основе искусственного интеллекта. Преобразует текстовые идеи и данные в слайды с продуманной структурой, адаптивным дизайном и релевантным визуальным контентом.

«МойОфис Голосовые Заметки AI». Инструмент, трансформирующий устную речь в готовые структурированные письма, списки дел и документы различного формата.

«МойОфис Документы Мобильные». Универсальное и безопасное корпоративное мобильное приложение для полноценной работы с текстовыми документами, таблицами, презентациями, включая просмотр и редактирование PDF-документов. Помогает сотрудникам оставаться продуктивными вне офиса: просматривать, редактировать и комментировать документы, работать совместно с коллегами с файлами из корпоративного хранилища «МойОфис Документы Онлайн», а также получать доступ к файлам из «Яндекс.Диск» и «Облако Mail».

«МойОфис Портал». No-code-платформа для создания веб-приложений. Обеспечивает совместную работу, хранение файлов, управление документами и автоматизацию бизнес-процессов с возможностями настройки маршрутов согласования и прав доступа, управления задачами в одном пространстве, создания баз знаний и интранет-порталов для эффективной работы команд.

В дополнение к этому были представлены новые технологические решения для экосистемы «МойОфис».

Интерпретатор VBA (входит в состав «МойОфис Документы Настольные»). Преобразует VBA-код в Lua — внутренний язык автоматизации «МойОфис» — и позволяет запускать макросы непосредственно в редакторе «МояТаблица». Исходный VBA-код при этом остаётся неизменным; интерпретированный в Lua код можно доработать под конкретные задачи.

«Диаграмма Pro» (входит в пакет «МойОфис Документы Настольные»). Плагин, предоставляющий доступ более чем к 40 типам визуализации данных, таким как диаграммы Ганта и Мекко, каскадные и пузырьковые, линейные и комбинированные.

Python в надстройках (доступен в составе «МойОфис Документы Настольные»). Позволяет использовать модули и библиотеки Python для расширения возможностей Lua-кода в надстройках табличного и текстового редакторов.

ИИ в настольных редакторах пакета «МойОфис Документы Настольные». Интеллектуальный помощник, анализирующий запросы пользователя на естественном языке и автоматически выполняющий соответствующие операции — от простого форматирования текста до сложного анализа данных с генерацией скриптов на Python.

Работа с облачными документами на доске (функция доступны в пакете «Документы Онлайн»). Расширяет возможности интерактивного онлайн-инструмента «МояДоска» для работы в командах, визуализации и организации идей и данных. Позволяет собрать всю информацию о проекте или задаче в едином виртуальном пространстве и взаимодействовать с облачными документами прямо на доске без перехода в другие приложения.

Приложение «МоиЗаметки» (входит в «Документы Онлайн»). Предназначено для быстрого создания, редактирования и систематизации заметок.

Средства транскрибации и суммаризации в Squadus. Расширяют возможности коммуникационной платформы и позволяют оперативно преобразовывать аудио- и видеозаписи встреч в текстовый формат и подводить ключевые итоги делового общения.

 Источник изображения: myoffice.ru/events/conference-prizma-2025

Источник изображения: myoffice.ru/events/conference-prizma-2025

Мультипродуктовая платформа «МойОфис» включает в себя набор необходимых настольных, мобильных и веб-приложений для общения и совместной работы с документами в любой точке мира. Решения разработчика обеспечивают полный контроль над данными, неприкосновенность личной и коммерческой информации, соответствуют отраслевым стандартам безопасности и требованиям российского законодательства. Продукты компании зарегистрированы в реестре отечественного ПО и подходят для использования в организациях любого размера.

Постоянный URL: http://servernews.ru/1132767
21.11.2025 [17:33], Владимир Мироненко

Рекордная выручка и оптимистичный прогноз NVIDIA снизили опасения по поводу растущего ИИ-пузыря

NVIDIA сообщила финансовые результаты за III квартал 2026 финансового года, завершившийся 26 октября 2025 года. Рекордная выручка и прибыль превзошли ожидания Уолл-стрит, а прогноз на IV квартал оказался выше ожиданий аналитиков. Как отметил ресурс The Guardian, внимание экспертов было приковано к отчёту NVIDIA, лидера ИИ-индустрии и самой дорогой публичной компании в мире. Аналитики и инвесторы надеялись, что прибыль производителя чипов за III квартал развеет опасения по поводу формирования пузыря в ИИ-секторе.

Дженсен Хуанг (Jensen Huang), основатель и генеральный директор NVIDIA, заявил, что в сфере ИИ происходят серьёзные перемены, и NVIDIA играет в этом ключевую роль. «Много говорят о пузыре ИИ, — сказал Хуанг. — С нашей точки зрения, мы видим нечто совершенно иное. Напомним, что NVIDIA не похожа ни на одну другую компанию-акселератор. Мы превосходим всех на каждом этапе развития ИИ — от подготовки и постобучения до инференса».

 Источник изображений: NVIDIA

Источник изображений: NVIDIA

NVIDIA сообщила о прибыли на разводнённую акцию в размере $1,30 при общей выручке в $57,01 млрд, превысившей прошлогодний результат на 62 %, также превзойдя прогнозы аналитиков, опрошенных LSEG, ожидавших $1,25 прибыли на акцию при выручке в $54,9 млрд (по данным CNBC).

В сегменте продуктов для ЦОД выручка составила $51,22 млрд, что на 66 % больше год к году и выше ожиданий аналитиков в размере $49,09 млрд. При этом выручка от поставки решений для вычислений выросла до $43,03 млрд с $28,64 млрд годом ранее. Компания заявила, что рост во многом был обусловлен продажами ускорителей GB300, а финансовый директор NVIDIA Колетт Кресс (Colette Kress) сообщила, что самым продаваемым семейством чипов компании теперь является Blackwell Ultra. Выручка от продаж сетевого оборудования выросла за квартал на 262 % до $8,19 млрд.

«Продажи Blackwell зашкаливают, а облачные GPU распроданы, — сообщил Хуанг в квартальном отчёте. — Спрос на вычислительные мощности продолжает расти и усложняться, как в сфере обучения, так и в сфере инференса, причём каждый растёт экспоненциально. Мы вступили в благотворный цикл развития ИИ. Экосистема ИИ быстро масштабируется — появляются новые разработчики базовых моделей, стартапы в сфере ИИ, присоединяются всё больше отраслей и стран. ИИ проникает повсюду, делает всё и сразу».

Хуанг отметил три крупных изменения в платформе: переход от вычислений общего назначения к ускоренным вычислениям; переход к генеративному ИИ и переход к агентному и физическому ИИ, например, роботам или автономным транспортным средствам. По его словам, это следует учитывать при рассмотрении инвестиций. Каждая из этих фундаментальных тенденций будет способствовать развитию инфраструктуры. И NVIDIA обеспечивает все три перехода, причем для любой формы или модальности ИИ, говорит Хуанг.

Кресс заявила, что компании не удалось реализовать значительные заказы на закупку в этом квартале из-за геополитических проблем и растущей конкуренции на китайском рынке. «Хотя мы разочарованы текущей ситуацией, которая не позволяет нам поставлять в Китай более конкурентоспособные вычислительные решения для ЦОД, мы стремимся к дальнейшему взаимодействию с правительствами США и Китая и будем продолжать отстаивать способность Америки конкурировать по всему миру», — отметила она.

В числе других направлений деятельности NVIDIA, выручка от игрового бизнеса за квартал выросла год к году на 30 % до $4,27 млрд. Автомобильное и робототехническое подразделение компании увеличило продажи год к году на 32 % до $592 млн. В сегменте профессиональной визуализации продажи выросли на 26 % до $760 млн.

Комментируя финансовые результаты NVIDIA, Томас Монтейро (Thomas Monteiro), старший аналитик Investing.com, выразил мнение, что ИИ-революция далека от своего пика. «В то время как инвесторы опасаются, что рост капитальных затрат вынудит компании замедлить циклы внедрения ИИ, NVIDIA продолжает доказывать, что масштабирование ЦОД — это не опциоя, а скорее основная потребность для любого технологического бизнеса в мире».

NVIDIA прогнозирует выручку в IV финансовом квартале в размере $65 млрд ± 2 %. Согласно прогнозу аналитиков, опрошенных LSEG, выручка за текущий квартал составит $61,66 млрд. Стивен Иннес (Stephen Innes) из SPI Asset Management заявил, что оптимистичный прогноз NVIDIA приглушил опасения по поводу ИИ-пузыря. «Но не заблуждайтесь: рынок всё ещё балансирует на грани между эйфорией от ИИ и реальностью, полной долгов», — предупредил он.

«Я не верю в то, что рост NVIDIA будет устойчивым в долгосрочной перспективе», — говорит старший аналитик Forrester Элвин Нгуен (Alvin Nguyen). «Спрос на ИИ беспрецедентен, но если произойдет коррекция рынка из-за удовлетворения спроса предложением или замедления темпов инноваций/привыкания бизнеса к этим темпам, я ожидаю, что дальнейший рост стоимости акций Nvidia замедлится», — прогнозирует он.

Согласно отчёту 10-Q для Комиссии по ценным бумагам и биржам США (SEC), к концу октября NVIDIA заключила многолетние соглашения на предоставление облачных услуг на общую сумму $26 млрд. Указанная сумма будет выплачена в течение ближайших шести лет. При этом многие провайдеры облачных услуг, с которыми заключены эти контракты, являются крупными клиентами самой NVIDIA, например, Lambda ($1,5 млрд на лизинг ускорителей) и CoreWeave ($6,3 млрд за нераспроданные мощности).

Компания отметила, что некоторые из соглашений могут быть «сокращены, расторгнуты или проданы другим поставщикам услуг», что уменьшит её обязательства. Ожидается, что эти соглашения помогут в «исследовательской и опытно-конструкторской деятельности и предложениях DGX Cloud».

Постоянный URL: http://servernews.ru/1132760
Система Orphus