Материалы по тегу: i
|
08.03.2026 [14:44], Владимир Мироненко
Huawei представила решения для оптических сетей нового поколения для ИИ-нагрузокHuawei провела на MWC 2026 презентацию продуктов и решений, в рамках которой Боб Чен (Bob Chen), президент подразделения оптических продуктов Huawei, представил продукты и решения для оптических сетей нового поколения, призванные способствовать синергии между ИИ и сетями, с упором на ориентированные на ИИ. Он отметил, что развитие ИИ открывает новые возможности для операторов, но также предъявляет более высокие требования к пропускной способности сети, задержке и надёжности, делая необходимой модернизацию оптических сетей для эпохи ИИ. Ведущие мировые операторы также ускоряют развертывание оптических сетей следующего поколения. Боб Чен заявил, что Huawei развивает решения для оптических сетей следующего поколения в двух направлениях: «ИИ для сетей» и «сети для ИИ». В рамках направления «ИИ для сетей» ИИ-технологии обеспечивают интеллектуальное обнаружение волоконно-оптических кабелей, повышают производительность сети и удобство использования, улучшают эффективность эксплуатации и технического обслуживания, а также снижают энергопотребление. В рамках направления «сети для ИИ» расширенные сетевые возможности помогают операторам создавать целевые оптические сети, ориентированные на ИИ, ускоряя внедрение ИИ в домах и на предприятиях.
Источник изображения: Huawei «ИИ для сетей»: повышение качества и эффективности сети
«Сети для ИИ»: ускорение популяризации ИИ
В области оптического доступа Huawei представила FAN-продукты следующего поколения, такие как технология FTTR (Fiber-to-the-Room), OLT (Optical Line Terminal), ONT (Optical Network Terminal) и ODN (Optical Distribution Network). В частности, Huawei выпустила продукты OTN (Optical Transport Network) следующего поколения для магистральных и метросетей, помогая операторам создавать агентные UBB-сети.
07.03.2026 [22:57], Владимир Мироненко
Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta✴Oracle и OpenAI отказались от планов расширения флагманского ИИ ЦОД в Абилине (Abilene, Техасе), одного из первый объектов проекта Stargate, сообщил Bloomberg. Строительство этого ЦОД на территории Clean Campus компании Lancium осуществляет разработчик проекта Crusoe Energy. Объект находится в ведении Oracle в интересах OpenAI. В сентябре прошлого года были введены в эксплуатацию два здания ЦОД, а в этом году планируется запуск ещё шести, в результате чего его мощность составит около 1,2 ГВт. Далее Oracle и OpenAI планировали увеличить мощность до 2 ГВт. Переговоры об этом между Oracle, Crusoe и OpenAI велись с середины 2025 года, но планы изменились. По словам источников, переговоры затянулись из-за проблем с финансированием, а также в связи с часто меняющимися прогнозами спроса OpenAI и изменением взглядов на Stargate, что в итоге привело к их срыву. Также на отношения между Oracle и Crusoe повлияли проблемы с надёжностью функционирования объекта. По словам источников, ранее в этом году ЦОД не функционировали в течение нескольких дней из-за зимней непогоды, повлиявшей на работу части оборудования жидкостного охлаждения. Вместе с тем, компании заверили что их партнёрство по-прежнему прочное, и что арендованная Oracle площадка в Абилине быстро развивается. «Crusoe и Oracle работают в тесном сотрудничестве, чтобы создать одну из крупнейших в мире ИИ-фабрик в Абилине, — говорится в заявлении Crusoe. — Наше сотрудничество позволяет создавать масштабную инфраструктуру быстрее, чем кто-либо другой в отрасли». Также в силе осталась договорённость OpenAI с Oracle, согласившейся поставить для неё 4,5 ГВт мощностей ЦОД. Как сообщает Bloomberg, эта сделка по-прежнему находится в процессе, и компании объявили о ряде проектов в других локациях, например, об объекте недалеко от Детройта, принадлежащем Related Digital. Что касается отказа от расширения проекта в Абилине, то после публикации статьи Bloomberg руководитель отдела инфраструктуры OpenAI Сачин Катти (Sachin Katti) сообщил в соцсетях следующее: «Наша флагманская площадка Stargate — один из крупнейших кампусов ИИ ЦОД в Соединённых Штатах. Мы рассматривали возможность дальнейшего расширения, но в конечном итоге решили разместить дополнительные мощности в других местах». «Сегодня у нас в разработке более полудюжины площадок в нескольких штатах, включая площадку, которую мы строим совместно с Oracle в Висконсине, где на этой неделе были установлены первые стальные балки», — добавил он, о чём сообщил Data Center Dynamics. По данным The Information, полноценное электроснабжение на площадке в Абилине будет доступно только через год, к тому времени OpenAI надеется использовать ускорители NVIDIA Vera Rubin вместо ускорителей Blackwell, которые будут установлены в Абилине, поэтому компания предпочла изменить планы. Кроме того, недалеко от первого техасского кампуса Stargate строится и второй — 1,4-ГВт ИИ ЦОД в округе Шакелфорд (Shackelford, Техас) возводится под началом Vantage Data Centers. Как рассказали источники, когда Crusoe начала подыскивать арендаторов для своего ЦОД в Абилине, к процессу подключилась NVIDIA. Чтобы избежать появления на этой площадке продукции конкурирующего разработчика чипов AMD, компания, как сообщается, внесла Crusoe депозит в размере $150 млн для обеспечения аренды площадки. Сообщается, что провал переговоров между Oracle и OpenAI создал возможность для Meta✴ по аренде запланированной для расширения площадки в Абилине, и NVIDIA ведёт с ней переговоры по этому поводу. Сделка между Crusoe и Meta✴ пока не подписана. Добавим, что только в этом году Meta✴ планирует направить на капитальные затраты до $135 млрд. В свою очередь, OpenAI намерена инвестировать в вычислительные мощности около $600 млрд к 2030 году, что гораздо меньше ранее заявленных $1,4 трлн к 2033 году. При этом до $300 млрд из этой суммы планируется выделить Oracle, которая сама испытывает трудности с финансированием строительства своих ЦОД, накапливает долги и планирует уволить тысячи сотрудников для снижения расходов.
06.03.2026 [08:58], Руслан Авдеев
Akamai развернёт тысячи ускорителей NVIDIA RTX Blackwell для распределённого инференсаОблачный провайдер Akamai анонсировал покупку «тысяч» ИИ-ускорителей для развития своей распределённой облачной инфраструктуры по всему миру. Развёртывание новых чипов позволит создать единую оптимизированную ИИ-платформу для быстрого и распределённого инференса в глобальной сети Akamai. По словам компании, она готовит базовую инфраструктуру для «физического» и «агентного» ИИ, где решения необходимо принимать в режиме реального времени. Ранее компания анонсировала проект Akamai Inference Cloud. Как заявляет Akamai, пока крупные облачные бизнесы расширяют проекты обучения ИИ, компания сосредоточилась на удовлетворении потребностей эпохи инференса. Централизованные ИИ-фабрики имеют важное значение для создания моделей, но для их масштабной эксплуатации необходима децентрализованная «нервная система». Внедрение NVIDIA Blackwell в распределённая инфраструктуру, как ожидается, позволит ИИ взаимодействовать с «физическим» миром на местах — с системами автономной доставки, умными энергосетями, роботами-хирургами, антифрод-системами т.п. — без географических и финансовых ограничений, характерных для классических облаков. Интеграция ускорителей Blackwell обеспечит:
Предоставляя инструментарий для выполнения задач ближе к конечным пользователям, Akamai обеспечивает высокую пропускную способность и, как утверждается, одновременно снижает задержку до 2,5 раз. Это позволит бизнесам экономить до 86 % на инференсе в сравнении с обычными облачными компаниями-гиперскейлерами. Платформа объединяет серверы на основе ускорителей NVIDIA RTX Pro 6000 Blackwell Server Edition с DPU NVIDIA BlueField-3 и распределённую облачную инфраструктуру Akamai с 4,4 тыс. точек присутствия. Cloudflare применяет платформу с «бессерверным» инференсом в более чем 200 городах. Её Workers AI обеспечивают глобальный инференс с задержкой менее 100 мс без специального выделения кластеров ускорителей. Fastly применяет платформу периферийных вычислений, но предлагает меньшее количество локальных точек присутствия (PoP) для выполнения задач на GPU/CPU.
04.03.2026 [16:49], Руслан Авдеев
Huawei начала глобальные продажи своих ИИ-решений для ЦОДНа фоне нарастающего бума ИИ-технологий покупатели готовы платить за самое разное оборудование, способное обрабатывать ИИ-токены. Теперь, помимо предложений американских гигантов вроде NVIDIA, AMD и Intel, у них появился и более экзотический вариант — решения на чипах Huawei, сообщает The Register. В Китае компания предлагает т.н. Intelligent Computing Platform, включающую хранилище данных, серверы на основе собственных CPU Kunpeng, а также ускорителей семейства Ascend, которые пока отстают по производительности от западных чипов. Тем не менее Huawei решила начать продажи своих систем за пределами КНР, обещая, что может подготовить и оснастить ЦОД за 4-6 мес., что на пару месяцев быстрее, чем обычно предлагают другие компании. Утверждается, что такое возможно благодаря умной интеграции источников питания, систем охлаждения и кабельной инфраструктуры. Также компания утверждает, что может поставить кластер из 1024 вычислительных узлов за 15 дней, а благодаря системам, замечающим ошибки до того, как они вызовут сбои, обеспечено 99,99 % времени безотказной работы. В ходе MWC 2025 китайский техногигант заявил, что предлагает приемлемый вариант для быстрого развёртывания ИИ-инфраструктуры. Такие заявления имеют под собой некоторую почву, поскольку компания может сослаться на опыт китайских пользователей, обучавших собственные модели только с помощью оборудования Huawei. При этом Huawei придётся справиться с проблемой неприятия компании на Западе. Власти многих государств неоднократно заявляли, что решения китайской компании угрожают их национальной безопасности. Впрочем, в мире немало стран, где компанию готовы радушно принять, поскольку в очереди на покупку ускорителей NVIDIA и AMD они стоят в самом конце (если вообще числятся в ней). Это означает, что Huawei может оказаться для них вполне приемлемым поставщиком. Так, небольшие неооблачные провайдеры готовы работать с обширным пулом поставщиков ускорителей, чтобы получить дефицитные вычислительные мощности. Выход Huawei на международный рынок происходит на фоне разрешения американскими властями продаж в Поднебесную ИИ-ускорителей NVIDIA H200, которые вполне вероятно, могут отнять у Huawei значительную часть китайского рынка, на котором компания долгое время доминировала, в многом благодаря американским санкциям. Ранее сообщалось, что компания уже пыталась продать свои ИИ-чипы Ascend в ОАЭ, пока США тянули с поставками чипов NVIDIA на Ближний Восток.
04.03.2026 [10:00], Сергей Карасёв
«Базис» создаёт собственный протокол передачи данных для удалённой работыКомпания «Базис», лидер российского рынка ПО управления динамической ИТ-инфраструктурой, разрабатывает собственный протокол для доступа к виртуальным рабочим местам — Basis Connect. Протокол станет частью VDI-платформы Basis Workplace версии 3.3 и обеспечит её пользователям качественную передачу изображения и быстрый отклик даже на медленных каналах связи. Первая версия Basis Connect будет доступна заказчикам для тестирования уже в I квартале этого года. Протокол передачи данных является важной частью инфраструктуры виртуальных рабочих столов, он должен обеспечивать быстрый отклик на действия пользователя, поддерживать периферийные устройства, передавать большие объёмы информации, не допускать потери качества аудио- и видеопотоков. От перечисленного зависит, сможет ли сотрудник комфортно взаимодействовать с ресурсоёмкими приложениями (графическими и видеоредакторами, инструментами 2D- и 3D-проектирования), использовать внешние и сетевые устройства, принимать участие в видеоконференциях. Вместе с ростом популярности VDI, растут и требования к продуктам, в том числе к качеству и скорости обмена данными между клиентом и сервером. Подключение сторонних протоколов создаёт ряд дополнительных сложностей при внедрении VDI-платформы: для использования проприетарных решений необходимо приобретать соответствующие лицензии, а протоколы с открытым исходным кодом требуют доработки под требования заказчика и сложны в поддержке. Наличие качественного собственного протокола, который является частью VDI-платформы и не требует дополнительного лицензирования, позволяет провести внедрение быстрее и с меньшим количеством сложностей. При разработке Basis Connect компания ориентируется на задачи, которые необходимо решать заказчикам, и требования, которые они предъявляют к присутствующим на рынке протоколам. В первой публичной версии Basis Connect будет реализована передача изображения, звука и содержимого буфера обмена (текст, файлы, папки, картинки), а также поддержка клавиатуры, мыши, принтеров, сканеров и других периферийных устройств, в том числе USB-токенов для использования сертификатов внутри виртуального рабочего места. В качестве серверной и клиентской ОС для работы с протоколом можно будет использовать популярные российские ОС: АLT Linux 10, Astra Linux 1.8, «РЕД ОС 8». По мере дальнейшего развития Basis Connect будут реализованы гибкие настройки самого протокола — например, в части разграничения прав пользователей — и ряд других возможностей. При этом «Базис» не будет отказываться от поддержки сторонних протоколов, поскольку это одно из преимуществ платформы Basis Workplace, востребованное у заказчиков. «Требования к отечественным VDI-решениям постоянно растут, и мы должны отвечать на вызовы рынка, быть гибкими и функциональными. Поэтому создание собственного протокола — важный шаг в развитии решения Basis Workplace. Мы даём заказчикам возможность использовать качественное совместимое решение без необходимости приобретать лицензии на проприетарные протоколы или дорабатывать протоколы с открытым исходным кодом. Создание Basis Connect потребовало значительных ресурсов, однако успешное решение этой задачи позволило не только улучшить наше продуктовое предложение, но и усилить компетенции команды», — отметил Дмитрий Сорокин, технический директор компании «Базис».
02.03.2026 [11:39], Сергей Карасёв
5G-платформа Qualcomm Dragonwing FWA Gen 5 Elite получила поддержку Wi-Fi 8 и встроенный ИИ-движокКомпания Qualcomm представила платформу Dragonwing FWA Gen 5 Elite, предназначенную для построения устройств, обеспечивающих фиксированный беспроводной доступ (FWA) в интернет через сотовую инфраструктуру. Решение рассчитано на работу в сетях 5G в диапазоне ниже 6 ГГц. В состав изделия входит модем Qualcomm X85 5G Modem-RF с поддержкой режима DSDA (Dual SIM Dual Active) — две активные SIM-карты. Пиковая скорость загрузки данных достигает 12,5 Гбит/с, скорость передачи информации в сторону базовой станции — 3,7 Гбит/с. Радиус доступности покрытия составляет до 14 км. Реализована поддержка TDD-TDD, FDD-FDD, FDDTDD, Dynamic Spectrum Sharing (DSS), LTE, LAA, GSM/EDGE, CBRS, 5G FDD, 5G TDD, 5G SA и 5G NSA, F + F ULCA, FDD UL MIMO. Платформа Dragonwing FWA Gen 5 Elite включает контроллер Wi-Fi 8 с частотными диапазонами 2,4, 5 и 6 ГГц. Кроме того, заявлена совместимость с Wi-Fi 7/6E/6/5/4 (стандарты 802.11bn/be/ax/ac/n/g/b/a). Упомянуты средства безопасности WPA3 Personal, WPA3 Enterprise, WPA3 Enhanced Open, WPA3 Easy Connect, WPA2, WPS, 802.11i security, PRNG, TKIP, WAPI2, WAPI1, WEP, шифрование AES-CCMP и AES-GCMP. Могут использоваться два сетевых порта 10GbE. Новинка получила движок Agentic AI Engine на основе нейропроцессорного модуля Qualcomm Hexagon NPU для выполнения ИИ-операций на периферии. Среди таких задач названы обеспечение безопасности, аналитика, автоматизация на основе данных об окружении, регистрация движений и пр. Заявлена совместимость с OpenWRT, RDK-B, prplOS.
02.03.2026 [11:36], Сергей Карасёв
Qualcomm представила Wi-Fi 8 платформу Dragonwing NPro A8 Elite с ИИ-движком и детектором передвижения людейКомпания Qualcomm анонсировала платформу Dragonwing NPro A8 Elite, предназначенную для построения беспроводных решений стандарта Wi-Fi 8 — высокопроизводительных точек доступа корпоративного класса и премиальных маршрутизаторов для домашнего использования. Изделие оснащено пятью вычислительными ядрами с тактовой частотой до 2 ГГц. Задействован движок Packet Processing Engine (PPE), спроектированный для сетей с ультравысокой пропускной способностью — в десятки Гбит/с. Кроме того, в оснащение входит нейропроцессорный модуль Qualcomm Hexagon NPU, обеспечивающий локальное выполнение ИИ-задач, таких как поддержание безопасности, аналитика, обнаружение движения и контекстно-ориентированная автоматизация. Заявлена поддержка Wi-Fi 4/5/6/6E/7/8 (стандарты IEEE 802.11a/b/g/n/ac/ax/be/bn/i/w/d/h/u/r/k/v/mc). Говорится о возможности использования частотных диапазонов 2,4, 5 и 6 ГГц. Кроме того, допускается работа в полосе 4,9 ГГц, которая предназначена для общественных служб безопасности (public safety) и критически важной инфраструктуры. Могут использоваться каналы на 320 МГц и до 20 антенн. Пиковое быстродействие достигает 33 Гбит/с; возможно обслуживание до 1500 клиентов одновременно. Реализованы функции шифрования AES-CCMP и AES-GCMP, а также средства безопасности WPA3 Enhanced Open, WPS, WPA2, WEP, TKIP, PRNG, WAPI2, WAPI1, 802.11i security, WPA3 Personal, WPA3 Enterprise и WPA3 Easy Connect. Упомянута технология 802.11az для отслеживания местоположения в сетях Wi-Fi. Вместе с тем инструмент Wi-Fi Sensing на базе стандарта 802.11bf позволяет Wi-Fi-устройствам функционировать в качестве датчиков для определения присутствия и количества людей, их перемещений и даже жестов. Платформа Dragonwing NPro A8 Elite даёт возможность использовать до шести Ethernet-портов в конфигурации 2 × 25GbE и 4 × 2.5GbE. Поддерживаются оперативная память DDR4/DDR5, флеш-память eMMC/NAND/NOR, интерфейсы USB 3.0, USB 2.0, UART, SPI, I2C, SDIO, GPIO. Возможности расширения включают 4G/5G FWA, 802.15.4 (Zigbee/Thread), Bluetooth. Версия платформы FiberPro A8 Elite также поддерживает XG(S)-PON/GPON,
28.02.2026 [23:59], Владимир Мироненко
Hyundai инвестирует более $6 млрд в ИИ ЦОД, роботов, водородную и солнечную энергетику
hardware
hyundai
nvidia
водород
ии
инвестиции
робототехника
солнечная энергия
финансы
цод
энергетика
южная корея
Hyundai Motor Group и правительство Южной Кореи подписали соглашение об инвестировании около ₩9 трлн ($6,26 млрд) с целью строительства объединённого инновационного центра в районе Сэмангым (Saemangeum) города Кунсан (Gunsan), который будет включать в себя ИИ ЦОД, завод по производству робототехники и производство водородной/солнечной энергии, сообщило агентство Reuters со ссылкой на министерство земельных ресурсов страны. По данным ведомства, около ₩5,8 трлн (около $4,04 млрд) Hyundai инвестирует в строительство ИИ ЦОД, в котором будет развёрнуто 50 тыс. NVIDIA Blackwell. ЦОД будет оснащён «массивным» хранилищем для хранения огромных массивов данных для обучения, разработки программно-определяемых транспортных средств (SDV) и внедрения «умных заводов», заявили в Hyundai. Ожидается, что интегрированная платформа позволит ускорить исследования и разработку продукции по всей цепочке создания стоимости. Ещё ₩400 млрд (около $278,8 млн) будет выделено на строительство завода по производству роботов, в том числе носимых (экзоскелетов). Также компания инвестирует ₩1 трлн (около $697,2 млн) в строительство электролизерной установки с протонообменной мембраной (Proton Exchange Membrane, PEM) мощностью 200 МВт для производства экологически чистого водорода с использованием возобновляемых источников энергии на месте. Hyundai планирует со временем достичь общей мощности электролизеров в 1 ГВт на внутреннем рынке. Hyundai утверждает, что её технология PEM достигла более чем 90 % локализации, что способствует технологической независимости Южной Кореи и расширению экспортных возможностей экологически чистого водорода, сообщил ресурс Data Center Knowledge. Оставшуюся часть суммы в размере ₩1,3 трлн (около $906,6 млн) компания направит в солнечную энергетику — строительство солнечных электростанций гигаваттного масштаба к 2035 году на основе действующей с 2021 года 99-МВт электростанции. Hyundai рассматривает ЦОД как «мозг» своей ИИ-экосистемы, объединяющий данные производства, логистики и эксплуатации транспортных средств для развития ИИ внутри страны. В центре также будет создан «умный город» с водородными технологиями на основе ИИ, который интегрирует технологии в единую экосистему. Строительство ЦОД, солнечной инфраструктуры и объекта по производству водорода планируется начать в 2027 году и завершить в 2029 году. По прогнозам Hyundai, эти инвестиции принесут экономический эффект в размере около ₩16 трлн (примерно $11 млрд) и позволят создать около 71 тыс. рабочих мест.
27.02.2026 [22:55], Владимир Мироненко
Amazon вложит в OpenAI $50 млрд, OpenAI в ответ потратит $100 млрд на 2 ГВт мощностей TrainiumOpenAI и Amazon объявили о заключении соглашения о стратегическом партнёрстве с целью ускорения инноваций в области ИИ для предприятий, стартапов и конечных потребителей по всему миру. В рамках многолетнего соглашения Amazon инвестирует в OpenAI $50 млрд — $15 млрд первым траншем, а затем еще $35 млрд в ближайшие месяцы при выполнении определённых условий. AWS и OpenAI совместно создадут среду выполнения с сохранением состояния (Stateful Runtime Environment) на базе моделей OpenAI, которая будет доступна в Amazon Bedrock для создания приложений и агентов генеративного ИИ. Подобное окружение позволяет разработчикам сохранять контекст, запоминать предыдущую работу, работать с различными программными инструментами и источниками данных, а также получать доступ к вычислительным ресурсам. Новинка будет интегрирована с Amazon Bedrock AgentCore и инфраструктурными сервисами, чтобы приложения и ИИ-агенты клиентов работали согласованно с остальными приложениями инфраструктуры, работающими в AWS. AWS также станет эксклюзивным сторонним поставщиком облачных услуг для платформы OpenAI Frontier, позволяющей компаниям создавать, развёртывать и управлять командами ИИ-агентов, работающих в реальных бизнес-системах с общим контекстом. По мере перехода компаний от экспериментов к внедрению ИИ в производство, Frontier упрощает быструю, безопасную и глобальную интеграцию ИИ-технологий в существующие рабочие процессы. Кроме того, OpenAI и Amazon будут сотрудничать в разработке пользовательских моделей для работы с приложениями Amazon, ориентированными на клиентов. AWS и OpenAI также сообщили о расширении ещё на $100 млрд более раннего соглашения о многолетнем стратегическом партнёрстве стоимостью $38 млрд, в рамках которого AWS обязалась предоставлять OpenAI в течение семи лет доступ к ускорителям NVIDIA. Расширенное соглашение со сроком действия 8 лет включает в себя обязательство OpenAI использовать около 2 ГВт мощностей на базе ускорителей Trainium, чтобы поддерживать спрос на Stateful Runtime, Frontier и другие рабочие нагрузки. Это обязательство распространяется как на чипы Trainium3, так и на чипы следующего поколения Trainium4, которые появятся в 2027 году и получат технологию NVIDIA NVLink. Сегодняшний день оказался богатым на события для OpenAI. Компания объявила о привлечении $110 млрд инвестиций в рамках раунда финансирования с предварительной оценкой её рыночной стоимости в $730 млрд, что значительно больше оценки в $500 млрд в октябре 2025 года. Лидером раунда стала Amazon с инвестициями в $50 млрд, за ней следуют NVIDIA и SoftBank, инвестировавшие по $30 млрд. Компания заявила, что ожидает, что к раунду присоединятся и другие инвесторы. Ранее Anthropic, ключевой конкурент OpenAI, закрыл раунд финансирования на $30 млрд, подняв капитализацию до $380 млрд. У компании долгие и тесные отношения с AWS, которая развернула для стартапа один из крупнейших в мире ИИ-кластеров Project Rainier. Впрочем, Anthropic тоже старается диверсифицировать поставки вычислительных мощностей — она заключила контракты с Microsoft (на чипы NVIDIA), а также с Google (на TPU).
25.02.2026 [19:13], Андрей Крупин
«Группа Астра» представила комплексное решение для создания VDI-инфраструктур«Группа Астра» сообщила о доступности заказчикам единой лицензии Termidesk Enterprise, позволяющей компаниям развернуть инфраструктуру виртуальных рабочих столов (Virtual Desktop Infrastructure, VDI) любой сложности на базе интегрированных продуктов виртуализации из экосистемы вендора. В составе Termidesk Enterprise представлены три программных продукта. Первый — мультиплатформенное решение Termidesk VDI для создания виртуальных рабочих мест с защищённым доступом к рабочим окружениям, корпоративным данным и приложениям. Второй — разработка класса Application Delivery Controller (ADC) Termidesk Connect, выполняющая функции безопасного шлюза доступа к инфраструктуре. Третий — это масштабируемая платформа управления аппаратной и контейнерной виртуализацией VMmanager. Она играет роль поставщика вычислительных ресурсов и позволяет сделать весь IT-ландшафт более устойчивым.
Источник изображения: ThisisEngineering / unsplash.com Инструментарий Termidesk Enterprise ориентирован на широкую аудиторию — от государственного сектора и крупных корпораций, реализующих программы импортозамещения ПО, до предприятий малого и среднего бизнеса. Решение может применяться как для развёртывания классических VDI- и высоконагруженных 3D-VDI-инфраструктур в корпоративной среде, так и для работы с терминальными серверами, организация безопасного удалённого доступа к физическим компьютерам без сторонних продуктов-аналогов TeamViewer и решения прочих задач. Представленные в составе Termidesk Enterprise продукты зарегистрированы в реестре российского ПО и могут использоваться с целью импортозамещения зарубежных софтверных решений. |
|


