Лента новостей

25.09.2025 [09:00], Андрей Крупин

«РТК-ЦОД» открыла новую площадку R&D-лаборатории на базе московского дата-центра

Компания «РТК-ЦОД» (входит в IT-кластер «Ростелекома») запустила в эксплуатацию новый испытательный программно-аппаратный комплекс на базе отечественного оборудования и ПО в центре обработки данных «Медведково».

Формирование площадки началось в конце 2024 года с целью модернизации и расширения существующей лаборатории «РТК-ЦОД». В новом R&D-комплексе организовано тестирование перспективных технических решений и развёртывание стендов для продуктовых решений и ключевых проектов компании, в числе которых — государственная единая облачная платформа (ГЕОП, «Гособлако»), инфраструктура электронного правительства (ИЭП), объекты критической информационной инфраструктуры (ОКИИ), единая цифровая платформа «ГосТех».

 ЦОД «Медведково» (источник изображения: «Ростелеком» / company.rt.ru)

ЦОД «Медведково» (источник изображения: «Ростелеком» / company.rt.ru)

Подчёркивается, что для создания испытательного комплекса были задействованы инфраструктурные компоненты отечественных производителей (серверы, сетевое оборудование, системы хранения данных, средства виртуализации, серверные стойки, блоки распределения питания и пр.), которые включены в реестры Минпромторга и Минцифры России. Лабораторию можно использовать в режиме Lab-as-a-Service (LabaaS), что позволяет заказчикам исследований разворачивать виртуальные тестовые стенды самостоятельно.

R&D-площадка «РТК-ЦОД» может быть востребована как производителями, выпускающими импортозамещённые компоненты, так и представителями бизнеса, а также государственными органами, которые выстраивают свою IT-инфраструктуру на базе новых технологических решений.

Постоянный URL: https://servernews.ru/1129810
25.09.2025 [07:58], Владимир Мироненко

Micron объявила о рекордной выручке за последний квартал и весь 2025 финансовый год

Компания Micron Technology опубликовала финансовые результаты за IV квартал и весь 2025 финансовый год, завершившийся 28 августа, показав рекордную выручку, увеличив валовую прибыль и превысив прогноз по прибыли на акцию. Годовая выручка выросла почти на 50 % до 37,4 млрд, что является новым рекордом для компании. Прибыль на акцию (Non-GAAP) за год достигла $8,29, что на 538 % больше, чем в предыдущем финансовом году.

Выручка за IV квартал выросла год к году на 46 % до рекордного значения $11,33 млрд, превысив консенсус-прогноз LSEG в размере $11,22 млрд, согласно данным CNBC. Скорректированная прибыль (Non-GAAP) на разводнённую акцию составила $3,03, что на 59 % больше, чем в предыдущем квартале, и на 157 % больше, чем годом ранее, а также больше консенсус-прогноза LSEG в размере $2,86. Чистая прибыль (GAAP) составила $3,2 млрд, или $2,83 на разводнённую акцию, против $887 млн, или $0,79 на акцию, годом ранее. Валовая прибыль за квартал выросла до 41 %, что на 17 п.п. больше, чем в предыдущем году.

 Источник изображений: Micron

Источник изображений: Micron

Micron изменила структуру отчётности своих бизнес-подразделений. До прошлого квартала у неё было в отчёте четыре бизнес-подразделения, включая Compute and Networking (CNBU), мобильное подразделение (Mobile, MBU) подразделение встраиваемых решений (Embedded, EBU) и подразделение решений для СХД (SBU). Теперь в отчёте указаны подразделения под названиями «Облачная память» (Cloud Memory, CMBU), «Основные данные» (Core Data, CDBU), «Мобильные устройства и клиентские устройства» (Mobile and Client, MCBU) и «Автомобильные и встраиваемые системы» (Auto and Embedded, AEBU). В связи с этим затрудняется анализ данных о производстве решений для СХД.

Продажи подразделения CMBU, поставляющего память, включая HBM, для облачных провайдеров, выросла год к году на 214 % до $4,54 млрд, составив 40 % от общей выручки компании. Валовая прибыль подразделения достигла 59 %, что на 120 п.п. больше, чем в предыдущем квартале. Вместе с тем выручка подразделения CDBU, поставляющего чипы памяти для ЦОД, сократилась на 22 % до $1,58 млрд с $2,05 млрд годом ранее.

Выручка от продаж DRAM в IV финансовом квартале достигла $8,98 млрд, что на 69 % больше, чем в предыдущем году, и составляет 79 % от общей выручки. Выручка от продаж NAND за IV квартал составила $2,25 млрд. Выручка от HBM за квартал достигла почти $2 млрд, что означает прогноз годовой доходности (ARR) почти в $8 млрд, благодаря стремительному росту продаж HBM3E. Как сообщает Blocks & Files, компания имеет соглашения практически со всеми клиентами на подавляющее большинство поставок HBM3E в 2026 календарном году. «Мы ведём активные переговоры с клиентами о спецификациях и объёмах поставок HBM4 и рассчитываем заключить соглашения о продаже оставшейся части общего объёма поставок HBM на 2026 календарный год в ближайшие месяцы», — сообщила Micron.

Micron Санджей Мехротра (Sanjay Mehrotra) заявил, что компания достигла значительного прогресса в строительстве завода по сборке и тестированию HBM в Сингапуре, что позволит увеличить поставки этой памяти с 2027 календарного года. Он также отметил, что техпроцесс 1γ достиг зрелости в рекордные сроки. «Мы стали первыми в отрасли, кто начал поставлять DRAM 1γ, и будем использовать 1γ во всем нашем портфеле DRAM. В этом квартале мы получили первый доход от клиента-гиперскейлера по нашим продуктам DRAM 1γ для серверов», — добавил он. Капитальные затраты компании за квартал составили $4,9 млрд, в основном из-за инвестиций в производство DRAM.

У Micron есть шесть клиентов-покупателей памяти HBM. Компания сообщила, что доля поставок HBM, вероятно, снова вырастет и будет соответствовать общей доле DRAM на рынке в III квартале этого календарного года. Поскольку ожидается, что объём рынка HBM в 2026 году составит $50–60 млрд, ожидаемая доля Micron в 22,5 % составит $12,58 млрд, то есть, по $3,1 млрд в квартал, подсчитал Blocks & Files. Micron заявила, что к 2030 году объём целевого рынка HBM достигнет $100 млрд. «Цена на HBM4 на самом деле значительно выше, чем на HBM3E», — сообщил агентству Reuters директор по развитию бизнеса Сумит Садана (Sumit Sadana). «Из-за очень напряженной ситуации в отрасли… мы ожидаем довольно высокой окупаемости инвестиций в наш бизнес HBM», — добавил он.

Micron прогнозирует продажи в I квартале 2026 финансового года в размере $12,50 млрд ± $300 млн, по сравнению со средним прогнозом аналитиков в $11,94 млрд, согласно данным, собранным LSEG. Micron также прогнозирует скорректированную валовую прибыль в размере 51,5 % ± 1,0 %, что значительно выше прогнозируемых аналитиками 45,9 %. Рост валовой прибыли обусловлен «лучшей, чем ожидалось, ценовой конъюнктурой», отметил Киннгай Чан (Kinngai Chan), аналитик Summit Insights. Micron заявила, что ожидает рост продаж решений для серверов в 2025 календарном году примерно на 10 %, что «выше предыдущих ожиданий на уровне нескольких процентов», при этом рост как в ИИ-сегментах, так и в сегментах традиционных серверов будет способствовать увеличению спроса на оперативную память.

Постоянный URL: https://servernews.ru/1129797
24.09.2025 [18:13], Руслан Авдеев

AI Pathfinder намерена потратить £18,4 млрд на два ИИ ЦОД в Великобритании

Компания AI Pathfinder, новичок на рынке ЦОД, объявила о намерении вложить до £18,4 млрд ($24,86 млрд) в цифровую инфраструктуру Великобритании. В частности, планируется строительство объектов в Англии и Шотландии, сообщает Datacenter Dynamics. Компания готовится потратить £3,4 млрд ($4,6 млрд) на дата-центр в графстве Нортгемптоншир (Northamptonshire). Первую фазу проекта намерены ввести в эксплуатацию ещё до конца текущего года. До £15 млрд ($20,2 млрд) пойдут на ЦОД в Эйршире (Ayrshire) в технопарке i3.

Хотя компания не раскрывает точное местоположение нового ЦОД в Англии, она сообщила, что тот будет готов к эксплуатации к декабрю 2025 года. Первый этап строительства включает создание «ИИ-фабрики» на решениях Dell и NVIDIA, способной выполнять сложные ИИ-задачи. В Шотландии первоначальные инвестиции намечены на 2026 год, там будет развёрнуто значительно количество ИИ-ускорителей. Ожидается, что площадка на 1 ГВт превратится в один из крупнейших узлов ИИ-инфраструктуры в Европе, с потенциалом масштабирования до 1,5 ГВт.

 Источник изображения: James Sullivan/unsplash.com

Источник изображения: James Sullivan/unsplash.com

По данным AI Pathfinder, компания будет использовать мощности для предоставления ИИ-сервисов клиентам из частных и государственных структур, без сдачи в аренду гиперскейлерам. В компании заявляют, что медленное внедрение ИИ может стать экзистенциальным риском для организаций всех профилей, а её платформа «ИИ как услуга» (AI-as-a-Service) позволит бизнесу, госслужбам и публичным сервисам внедрять инновации «со скоростью гиперскейлеров» без ущерба безопасности и конфиденциальности.

По некоторым данным, AI Pathfinder является дочерней структурой инвестиционной группы Salamanca Group, специализирующейся на недвижимости. Последний утверждает, что привлёк £14 млрд ($18,9 млрд) на финансирование своих проектов, в том числе не связанных с ЦОД. Обе компании имеют общий адрес в Лондоне, а также «делят» некоторых топ-менеджеров. Как будут финансироваться новые ЦОД и в какие сроки потратят все выделяемые средства, пока не разглашается.

На прошлой неделе также были анонсировании крупные инвестиции в ИИ-инфраструктуру Великобритании со стороны американских IT-компаний. Google потратит £5 млрд ($6,9 млрд), а BlackRock — $678 млн. Также об инвестициях в ИИ ЦОД в Великобритании на £1,5 млрд ($2 млрд) заявила CoreWeave, а OpenAI и NVIDIA объявили о запуске проекта Stargate UK совместно с Nscale.

Постоянный URL: https://servernews.ru/1129763
24.09.2025 [16:55], Владимир Мироненко

OpenAI арендует, а не купит чипы у NVIDIA в рамках $100-млрд сделки

В СМИ появились новые подробности о сделке NVIDIA и OpenAI, в рамках которой чипмейкер инвестирует в OpenAI $100 млрд. Как сообщает газета The Financial Times, переговоры прошли напрямую между гендиректором NVIDIA Дженсеном Хуангом (Jensen Huang) и главой OpenAI Сэмом Альтманом (Sam Altman). Главы компаний обсуждали подробности соглашения практически без официальных консультаций с банками, которые обычно выступают посредниками в подобных случаях.

По данным The Information, в числе обсуждаемых вопросов было применение новой бизнес-модели лизинга чипов. Вместо того чтобы напрямую приобретать ускорители NVIDIA, OpenAI фактически будет брать у NVIDIA чипы в аренду с постепенной оплатой, что потенциально снизит первоначальные затраты на 10–15 % в течение пяти лет. Точные условия аренды или лизинга не разглашаются. У кого останутся чипы после окончания срока действия договора, тоже не говорится.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Данный подход отражает более широкую тенденцию в ИИ-отрасли, где капиталоёмкая ИИ-инфраструктура рассматривается скорее как услуга, чем как основной актив. Такая бизнес-модель позволяют компаниям быстро масштабироваться без значительных капитальных затрат, в то время как NVIDIA обеспечивает себе долгосрочные источники дохода. Как отметил Альтман, сделка знаменует собой «новую модель финансирования <…>, при которой мы можем платить постепенно, а не покупать всё сразу». «Чипы и системы составляют огромную [долю] стоимости, и оплатить её авансом сложно», — добавил он.

По словам аналитиков, действия Хуанга, направленные на то, чтобы сделать NVIDIA «предпочтительным стратегическим партнёром OpenAI в области вычислений и сетевых технологий», затруднят переход ИИ-разработчиков на конкурирующие чипы. Также укрепляет позиции компании в отрасли программная платформа NVIDIA CUDA, ставшая стандартным инструментом написания ИИ-приложений. Удерживая ИИ-разработчиков в своей экосистеме, Хуанг инвестирует в OpenAI, а также в десятки других стартапов, занимающихся ИИ-приложениями, облачными вычислениями, робототехникой и здравоохранением, что «многократно окупится для NVIDIA в будущем», говорят эксперты.

Постоянный URL: https://servernews.ru/1129770
24.09.2025 [15:33], Руслан Авдеев

«Яндекс» строит во Владимирской области новый ЦОД, где разместится новая зона доступности Yandex Cloud

Yandex Cloud намерена запустить в начале 2026 года новую зону доступности на базе дата-центра компании, сообщают «Ведомости». Это уже шестой ЦОД «Яндекса», его мощность составит более 40 МВт. Новый объект разместят неподалёку от уже действующего дата-центра «Яндекса». По данным пресс-службы «Яндекса», зона будет обеспечивать (минимальную) задержку до соседней зоны менее 1 мс, а общая ёмкость канала составит 25,6 Тбит/с.

В компании подчёркивают, что такие показатели позволят ускорить работу критически важных для банков, ритейлеров и других крупных клиентов сервисов, требующих транзакций, бронирования и запросов во внутренние базы данных. Новая зона доступности получит независимые каналы для связи с другими зонами, что повысит общую надёжность системы.

В «Яндексе» подчеркнули, что спрос на облака только увеличивается, в I полугодии 2025-го спрос на vCPU в Yandex Cloud вырос на 29,6 % год к году. Также в компании утверждают, что она первой в России запустила инструменты для проведения учений по отказоустойчивости инфраструктуры. PUE нового объекта будет на уровне 1,1 — благодаря использованию фрикулинга в течение всего года.

 Источник изображения: Яндекс

Источник изображения: Яндекс

Как сообщают «Ведомости», по оценкам экспертов Apple Hills Digital, инвестиции в проект превышают 15–20 млрд руб. Новая зона доступности будет драйвером потребления сервисов текущими клиентами «Яндекса». Эксперты предполагают, что новое решение усилит позиции компании на рынке отечественных облаков. На фоне высокой фрагментированности российского облачного рынка у «Яндекса» сильная позиция, которую дополнительно укрепит открытие новой зоны доступности. В апреле сообщалось, что в Можайском округе Московской области построят очередной дата-центр «Яндекса» с инвестициями в объёме $16 млрд. Ввод в эксплуатацию запланирован на 2027 год.

Постоянный URL: https://servernews.ru/1129768
24.09.2025 [15:21], Андрей Крупин

Платформа «Астра Мониторинг» дополнилась средствами контроля инфраструктуры «1С»

«Группа Астра» объявила о выпуске обновлённого программного комплекса «Астра Мониторинг» 1.0.

«Астра Мониторинг» представляет собой решение для сбора и анализа информации о состоянии узлов IT-инфраструктуры с целью их диагностики, своевременного обнаружения неполадок и повышения стабильности работы. Платформа масштабируема и может охватывать как несколько устройств, например, с SNMP-интерфейсом, так и географически распределённые сети с тысячами высоконагруженных нод. Техническая реализация продукта построена на взаимодействии двух частей — клиентской, выполняющей непосредственный сбор диагностической информации, и центральной, отвечающей за обработку полученных данных. На клиентской части с объектов мониторинга собираются метрики, логи и сигналы, которые сохраняются в центре обработки и формируются в события и проблемы, несущие полезную информацию о возникающих состояниях объектов наблюдения.

 Источник изображения: astra.ru

Источник изображения: astra.ru

Ключевым нововведением «Астра Мониторинг» 1.0 стала функция мониторинга информационных баз на платформе «1С», позволяющая контролировать производительность систем, оптимизировать процессы и сокращать затраты на обслуживание. Также в программном комплексе реализована модель разграничения доступа на основе ролей (RBAC), обеспечивающая гибкое управление правами пользователей при создании и редактировании ресурсов.

Платформа «Астра Мониторинг» зарегистрирована в реестре российского ПО, в полной мере отвечает задачам импортозамещения и может использоваться заказчиками при реализации программ по переходу на отечественные продукты с решений зарубежных разработчиков.

Постоянный URL: https://servernews.ru/1129771
24.09.2025 [13:37], Сергей Карасёв

Raspberry Pi готовит вычислительный модуль CM0 с поддержкой Wi-Fi 4 и Bluetooth 4.2 LE

Компания Raspberry Pi, по сообщениям сетевых источников, продемонстрировала в Китае на мероприятии China International Industrial Expo вычислительный модуль Compute Module 0 (CM0). Ожидается, что новинка поступит в продажу по ориентировочной цене от $18.

Основой решения служит система Raspberry Pi RP3A0 SiP (System-in-Package), которая содержит процессор Broadcom BCM2710A1 и 512 Мбайт оперативной памяти LPDDR2. В свою очередь, чип BCM2710A1 объединяет четыре вычислительных ядра Arm Cortex-A53 с частотой 1 ГГц, графический ускоритель VideoCore IV с поддержкой OpenGL ES 1.1/2.0 и VPU-блок с возможностью декодирования материалов H.264/MPEG-4 1080p30 и кодирования H.264 1080p30.

 Источник изображений: CNX Software

Источник изображений: CNX Software

Новинка будет доступна в модификациях без встроенной флеш-памяти (Raspberry Pi CM0 Lite), а также с накопителем eMMC вместимостью 8 или 16 Гбайт. В оснащение опционально могут быть включены контроллеры Wi-Fi 4 (802.11b/g/n) и Bluetooth 4.2 LE. Говорится о поддержке интерфейсов SDIO (только Raspberry Pi CM0 Lite), HDMI, TV DAC, MIPI DSI (4 линии), DPI (Display Parallel Interface), MIPI CSI (4 линии), PCM, USB 2.0, 28 × GPIO, UART, SPI, 2 × I2C. Размеры вычислительного модуля составляют 39 × 33 мм. Диапазон рабочих температур простирается от -20 до +85 °C.

Для новинки будет доступна дополнительная интерфейсная плата Raspberry Pi CM0 I/O Board. Она оснащена разъёмом HDMI, двумя портами Micro-USB (питание и данные), коннекторами MIPI-DSI и MIPI-CSI, слотом для карты microSD и 40-контактной колодкой GPIO. Решение, как отмечает CNX Software, по всей видимости, сможет работать под управлением Raspberry Pi OS.

Постоянный URL: https://servernews.ru/1129746
24.09.2025 [12:52], Руслан Авдеев

Гигаватт в неделю: OpenAI задумала развернуть крупнейшее производство ИИ-инфраструктуры

По словам главы OpenAI Сэма Альтмана (Sam Altman), ИИ-сервисы растут удивительными темпами, а в будущем они будут ещё более впечатляющими. По его мнению, по мере того как искусственный интеллект становится всё «умнее», доступ к нему становится базовым драйвером экономики и, в конце концов, такой доступ, возможно, признают одним из фундаментальных прав человека. Практически каждый захочет, чтобы ИИ всё больше работал от его имени.

Для того, чтобы обеспечить мировые потребности в инференсе и обучении ИИ-моделей для их дальнейшего совершенствования, уже сегодня закладываются основы для значительного расширения строительства ИИ-инфраструктуры. Как утверждает Альтман, если ИИ останется на той траектории развития, которую прогнозируют в компании, пользователям будут доступны весьма впечатляющие возможности. Возможно, обладая 10 ГВт вычислительных мощностей, ИИ сможет найти способ лечения рака или оптимизировать процесс получения знаний для каждого учащегося в мире персонально.

Если же человечество будет ограничено в вычислительных мощностях, придётся выбирать, чему отдать приоритет. При этом никто не хочет делать такой сложный выбор, поэтому стоит наращивать вычислительную инфраструктуру. Год назад Альтман убеждал власти США в необходимости постройки целой сети 5-ГВт ЦОД для обеспечения национальной безопасности.

 Источник изображения: Jeriden Villegas/unsplash.com

Источник изображения: Jeriden Villegas/unsplash.com

OpenAI рассчитывает создать производство, способное создавать 1 ГВт ИИ-инфраструктуры еженедельно. Выполнить этот план будет нелегко, на это уйдут годы и потребуются инновации на всех уровнях, от чипов до энергетики, строительства и робототехники. Тем не менее бизнес активно работает по всем этим направлениям и считает эпохальные изменения возможными.

В OpenAI считают, что речь идёт о самом важном инфраструктурном проекте за всю историю, причём компания немало делает в США уже сегодня. При этом Альтман отметил, что «прямо сейчас» некоторые страны строят заводы по производству чипов и новые энергетические мощности намного быстрее, чем в США, но Альтман и его единомышленники намерены изменить такое положение дел.

В следующую пару месяцев компания намерена раскрыть некоторые из своих планов, чтобы претворить их в жизнь. Позже в этом году компания расскажет и про финансовую сторону вопроса. С учётом того, что увеличение вычислительных мощностей способствует росту выручки, у компании уже есть некоторые «интересные новые идеи». На днях сообщалось, что OpenAI потратит $100 млрд на аренду резервных ИИ-серверов у облачных провайдеров, а чуть позже появились данные, что NVIDIA инвестирует в OpenAI $100 млрд, в основном пойдут на покупку её же ускорителей.

Постоянный URL: https://servernews.ru/1129748
24.09.2025 [12:27], Руслан Авдеев

OpenAI, Oracle и SoftBank построят в США ещё пять ИИ ЦОД для проекта Stargate

OpenAI, Oracle и SoftBank объявили о намерении построить пять новых дата-центров для ИИ-проекта Stargate, реализуемого в США, сообщает Reuters. По-видимому, партнёрам удалось преодолеть препятствия, которые мешали активному развитию проекта. По словам главы OpenAI Сэма Альтмана (Sam Altman), ИИ сможет выполнить своё предназначение только если создать для него вычислительную базу.

Сообщается об открытии трёх новых дата-центров совместно с Oracle в округах Шакелфорд (Shackelford,Техас), Донья-Ана (Doña Ana, Нью-Мексико) и где-то на Среднем Западе. Ещё два ЦОД построят в Лордстауне (Lordstown, Огайо) и округе Майлам (Milam, Техас) будут построены OpenAI, SoftBank и её дочерней структурой.

Новые площадки, расширение кампуса Oracle-OpenAI в Абилине (Abilene, Техас) и совместные проекты с CoreWeave позволят в следующие три года довести общую мощность ЦОД Stargate до почти 7 ГВт, а инвестиции должны превысить $400 млрд. В целом проект предполагал строительство ЦОД мощностью 10 ГВт за $500 млрд. Ранее глава OpenAI заявил, что компания готова потратить триллионы долларов на ИИ-инфраструктуру.

 Источник изображения: Mohamed Nohassi/unsplash.com

Источник изображения: Mohamed Nohassi/unsplash.com

Альтман также сообщил о намерении создать в США фабрику для производства 1 ГВт ИИ-инфраструктуры в неделю. Ранее NVIDIA объявила о намерении инвестировать в OpenAI $100 млрд в обмен на закупки её ИИ-чипов. Но по словам, источников, знакомых с вопросом, OpenAI и партнёры намерены использовать и заёмное финансирование для аренды ИИ-ускорителей в рамках проекта Stargate.

Постоянный URL: https://servernews.ru/1129755
24.09.2025 [11:25], Сергей Карасёв

Luckfox представила PicoKVM — миниатюрный IP-KVM с сенсорным дисплеем и ИИ-блоком

Компания Luckfox, по сообщению ресурса CNX Software, начала приём заказов на устройство PicoKVM, предназначенное для удалённого управления персональными компьютерами, рабочими станциями и серверами. Новинка выполнена на аппаратной платформе Rockchip с прошивкой Buildroot (Linux 5.10.160 и U-Boot).

Решение заключено в миниатюрный корпус с размерами 48,5 × 48,5 × 29 мм. В верхней части располагается небольшой информационный дисплей с диагональю 1,54″ и разрешением 240 × 240 пикселей; реализовано сенсорное управление. PicoKVM также предлагается в виде платы (44 × 42 × 23,6 мм) без корпуса и экрана.

 Источник изображений: CNX Software

Источник изображений: CNX Software

Основой служит процессор Rockchip RV1106G3, который содержит ядра Arm Cortex-A7 (1,2 ГГц) и RISC-V. В состав изделия входит NPU-модуль с производительностью до 1 TOPS для ускорения операций, связанных с ИИ. Встроенный блок VPU способен декодировать видеоматериалы в форматах H.265/H.264 с разрешением 3072 × 1728 точек и скоростью 30 к/с. Объём оперативной памяти DDR3L составляет 256 Мбайт. В оснащение входит флеш-чип eMMC вместимостью 8 Гбайт с возможностью расширения при помощи карты microSD.

Устройство наделено сетевым портом 10/100MbE с разъёмом RJ45, интерфейсом HDMI, а также портом USB Type-C для подачи питания, программирования и эмулирования клавиатуры/мыши/USB-накопителей. Предусмотрен дополнительный I/O-разъём с поддержкой GPIO, UART, I2C и пр.

Отмечается, что основная часть программного обеспечения PicoKVM (прошивка, SDK и т. д.) имеет открытый исходный код, но некоторые драйверы и медиабиблиотеки являются проприетарными. Стоимость PicoKVM составляет около $60 с корпусом и сенсорным дисплеем, тогда как модификацию в виде платы можно приобрести за $35.

Постоянный URL: https://servernews.ru/1129742
Система Orphus