Материалы по тегу: ии
|
16.08.2025 [15:16], Сергей Карасёв
Inspur представила суперускоритель Metabrain SD200 для ИИ-моделей с триллионами параметровКитайская компания Inspur создала суперускоритель Metabrain SD200 для наиболее ресурсоёмких задач ИИ. Система, как утверждается, может работать с моделями, насчитывающими более 1 трлн параметров. Платформа Metabrain SD200 объединяет 64 карты в единый суперузел с унифицированной памятью. В основу положены открытая архитектура 3D Mesh и проприетарные коммутаторы Open Fabric Switch. Иными словами, ускорители на базе GPU, распределённые по разным серверам, объединяются посредством высокоскоростного интерконнекта в единый домен. Суперускоритель предоставляет доступ к 4 Тбайт VRAM и 64 Тбайт основной RAM. Благодаря этому возможен одновременный запуск четырёх китайских ИИ-моделей с открытым исходным кодом, включая DeepSeek R1 и Kimi K2. Кроме того, поддерживается совместная работа нескольких ИИ-агентов в режиме реального времени. Для Metabrain SD200 заявлена низкая задержка при передаче данных, которая исчисляется «сотнями наносекунд». В распространённых сценариях инференса, предполагающих обработку небольших пакетов данных, по величине задержки система превосходит распространённые отраслевые решения. В составе новой платформы задействованы средства оптимизации. В частности, инструмент Smart Fabric Manager автоматически формирует оптимальные маршруты данных на основе характеристик нагрузки. Metabrain SD200 совместим с распространёнными фреймворками, такими как PyTorch, vllm и SGLang: благодаря этому возможен быстрый перенос существующих моделей и ИИ-агентов без необходимости переписывать программный код с нуля. Таким образом, значительно снижается стоимость миграции. В целом, реализованная технология удалённого vGPU позволяет ускорителям, распределённым по разным серверам, взаимодействовать столь же эффективно, как если бы они находились на одном хосте. При этом достигается восьмикратное расширение адресного пространства, что обеспечивает полную загрузку ресурсов и эффективную работу даже при использовании ИИ-моделей с триллионами параметров.
15.08.2025 [18:15], Руслан Авдеев
Саудовская center3 потратит $10 млрд на ЦОД общей мощностью 1 ГВтКомпания center3 из Саудовской Аравии, принадлежащая STC (Saudi Telecom) и занимающаяся строительством дата-центров, к 2030 году намерена довести мощность своих ЦОД до 1 ГВт — в дополнение к уже потраченным на дата-центры $3 млрд будут инвестированы ещё $10 млрд, сообщает Datacenter Dynamics. Center3, основанная в 2022 году, является дочерней структурой STC. Компания строит и эксплуатирует в Саудовской Аравии за её пределами, в том числе в Бахрейне, около 20 дата-центров. Согласно её планам, общая установленная мощность к 2027 году должна достичь 300 МВт. Подробности о том, как именно компания намерена инвестировать $10 млрд и где именно разместятся новые дата-центры, пока не разглашаются.
Источник изображения: SALEH/unsplash.com По словам генерального директора center3 Фахада Аль-Хаджери (Fahad AlHajeri), речь идёт не просто о расширении портфолио дата-центров, но и о создании условий для развития цифровой экономики будущего. Как заявил глава компании, выбор мощности в 1 ГВт закладывает основу для ИИ-проектов, облачных вычислений и выполнения рабочих нагрузок гиперскейл-уровня. Это гарантирует Саудовской Аравии и всему региону создание инфраструктуры мирового класса, которая позволит пробиться в мировые лидеры в ходе следующей волны глобальных инноваций. В 2024 году компания расширила кампус ЦОД Khurais Riyadh в Эр-Рияде, увеличив его мощность на 9,6 МВт. В августе 2024 года Oracle объявила о размещении своего облачного региона в дата-центре center3. В ЦОД center3 размещается и облачный регион Huawei. В октябре center3 объявила о партнёрстве с саудовским строителем дата-центров DataVolt.
15.08.2025 [17:41], Сергей Карасёв
ИИ-стартап Rivos, успевший посудиться с Apple, ищет $500 млн, чтобы побороться с NVIDIAАмериканский стартап Rivos, по сообщению ресурса The Information, намерен получить финансирование в объеме до $500 млн, что увеличит его рыночную стоимость до $2 млрд. Средства в случае их привлечения помогут ускорить вывод на рынок ИИ-ускорителей нового типа, которые, как ожидается, смогут составить конкуренцию изделиям NVIDIA. Фирма Rivos, базирующаяся в Санта-Кларе (Калифорния, США), основана в 2021 году. Она занимается проектированием чипов на открытой архитектуре RISC-V: отсюда и название стартапа — RISC-V Open Source. Создаваемые изделия предназначены для приложений ИИ и больших языковых моделей (LLM). Штат Rivos насчитывает приблизительно 450 сотрудников. Компания уже завершила разработку первого RISC-V-ускорителя: чип передан в опытное производство на предприятие TSMC. Осведомлённые источники утверждают, что массовый выпуск новинки может быть организован в 2026-м. Rivos якобы планирует сотрудничать с некой «крупной публичной компанией по созданию микрочипов» для разработки будущих ускорителей. Кроме того, стартап близок к заключению сделки по поставкам своей продукции неназванному партнёру. На сегодняшний день компания привлекла около $370 млн финансирования. В частности, $250 млн было получено в апреле 2024 года в ходе инвестиционного раунда Series-A3, в котором приняли участие Matrix Capital Management, Intel Capital, Dell Technologies Capital, MediaTek и др. В 2022-м Rivos столкнулся с судебным иском со стороны Apple. Компания из Купертино обвинила стартап в том, что он нанял на работу ряд бывших инженеров Apple, а затем использовал полученную от них конфиденциальную информацию для разработки собственных изделий. Rivos отвергла обвинения и подала встречный иск. Однако, как сообщалось, в ходе разбирательства компания уволила около 6 % своих сотрудников и отложила раунд финансирования Series A. Стороны окончательно урегулировали претензии в феврале 2024 года.
15.08.2025 [15:15], Руслан Авдеев
Расходы гиперскейлеров на дата-центры превысили ВВП целых странУровень современных инвестиций в новую инфраструктуру операторами дата-центров оказался сопоставим с ВВП некоторых государств, причём не самых маленьких. Так, в Omdia подсчитали, что капиталовложения Amazon в ЦОД за год сейчас превышают $100 млрд — это сопоставимо с ВВП Коста-Рики и значительно больше ВВП Люксембурга или Литвы, сообщает The Register. Схожим образом ситуация обстоит и с другими игроками облачного рынка. Так, капитальные вложения Google составляют $82 млрд — выше объёма экономики Словении, а в случае с Microsoft речь идёт об $75 млрд, это выше ВВП Уганды. На долю Meta✴ приходится $69 млрд — больше, чем ВВП Бахрейна. По оценкам экспертов, капитальные затраты на ЦОД превысят в 2025 году $657 млрд. Это означает, что расходы выросли почти вдвое с 2023 года, когда речь шла об $330 млрд. Во многом такие расходы объясняются стремлением гиперскейлеров наращивать мощности для развития ИИ в надежде на то, что когда-то это окупится. Например, xAI, даже не будучи гиперскейлером, тратит по $1 млрд в месяц, рассчитывая на будущую отдачу. Согласно отчёту McKinsey & Company, многие топ-менеджеры скептически относятся к предположениям, что огромные сумму, расходуемые на ИИ, обеспечат соизмеримую отдачу в ближайшем будущем. Например, в отчёте за II квартал 2025 года Meta✴ отметила, что прибыль приносят традиционные модели машинного обучения — основа её рекомендательных систем, а не проекты, связанные с генеративным ИИ. Впрочем, облачные операторы с готовностью предлагают свои сервисы клиентам, желающим получить больше ИИ-инфраструктуры.
Источник изображения: Samuel Regan-Asante/unsplash.com В последнем обзоре рынков облаков и ЦОД Omdia отмечает, что в ближайшей перспективе вычислительные ИИ-ресурсы будут в дефиците. Разработка более масштабных и «прожорливых» моделей вроде недавно представленной GPT-5, стимулирует спрос на вычислительные мощности. В то же время широкое внедрение ИИ стимулирует спрос на инференс. По данным Omdia, значительная часть населения развитых стран так или иначе использует ИИ. Только ChatGPT пользуется более 700 млн человек, а ежедневно — более 120 млн. Анализируя инвестиции в ЦОД, Omdia отмечает, что несмотря на то, что IT-оборудование останется самой крупной статьёй расходов на ЦОД в ближайшие годы, затраты на физическую инфраструктуру (электроснабжение, распределение энергии и системы охлаждения) будут расти быстрее. Это связано с растущим спросом на мощные серверы. Плотность вычислений в стойках сегодня растёт экспоненциально, это требует «значительных и постоянных инноваций» в сфере систем охлаждения и электроснабжения. В то же время растущие потребности всей этой IT-инфраструктуры в энергии, вероятно, вынудит операторов инвестировать в локальные генерирующие мощности и «микросети как услугу», что отчасти происходит уже сегодня, и даже в крупных масштабах. В Omdia ожидают, что темпы строительства дата-центров увеличатся, а мощность крупнейших площадок вырастет, появятся и объекты от гигаватта в США, Индии и других странах. Крупные проекты уже находятся в стадии реализации. Meta✴ сообщила о нескольких кампусах на несколько гигаватт, которые она намерена запускать с 2026 года. В недавнем отчёте Deloitte Insights утверждается, что мощность некоторых площадок, находящиеся на ранних стадиях планирования, может превысить 5 ГВт.
14.08.2025 [17:29], Руслан Авдеев
Умнее, но прожорливее: GPT-5 потребляет до 20 раз больше энергии, чем предыдущие моделиНедавно представленной модели OpenAI GPT-5 в сравнении с ChatGPT образца середины 2023 года для обработки идентичного запроса потребуется до 20 раз больше энергии, сообщает The Guardian. Официальную информацию об энергопотреблении OpenAI, как и большинство её конкурентов, не публикует. В июне 2025 года глава компании Сэм Альтман (Sam Altman) сообщил, что речь идёт о 0,34 Вт∙ч и 0,00032176 л на запрос, но о какой именно модели идёт речь, не сообщалось. Документальные подтверждения этих данных тоже отсутствуют. По словам представителя Университета штата Иллинойс (University of Illinois), GPT-5 будет потреблять намного больше энергии в сравнении с моделями-предшественницами как при обучении, так и при инференсе. Более того, в день премьеры GPT-5 исследователи из Университета Род-Айленда (University of Rhode Island) выяснили, что модель может потреблять до 40 Вт∙ч для генерации ответа средней длины из приблизительно 1 тыс. токенов. Для сравнения, в 2023 году на обработку одного запроса уходило порядка 2 Вт∙ч. Сейчас среднее потребление GPT-5 составляет чуть более 18 Вт∙ч на запрос, что выше, чем у любых других сравнивавшихся учёными моделей, за исключением апрельской версии «рассуждающей» o3 и DeepSeek R1. Предыдущая модель GPT-4o потребляет значительно меньше. 18 Вт∙ч эквивалентны 18 минутам работы лампочки накаливания. С учётом того, что ChatGPT обрабатывает около 2,5 млрд запросов ежедневно, за сутки тратится энергии, достаточной для снабжения 1,5 млн домохозяйств в США. В целом учёные не удивлены, поскольку GPT-5 в разы производительнее своих предшественниц. Летом 2025 года ИИ-стартап Mistral опубликовал данные, в которых выявлена «сильная корреляция» между масштабом модели и её энергопотреблением. По её данным, GPT-5 использует на порядок больше ресурсов, чем GPT-3. При этом многие предполагают, что даже GPT-4 в 10 раз больше GPT-3. Впрочем, есть и дополнительные факторы, влияющие на потребление ресурсов. Так, GPT-5 использует более эффективное оборудование и новую, более экономичную экспертную архитектуру с оптимизацией расхода ресурсов на ответы, что в совокупности должно снизить энергопотребление. С другой стороны, в случае с GPT-5 речь идёт о «рассуждающей» модели, способной работать с видео и изображениями, поэтому реальное потребление ресурсов, вероятно, будет очень высоким. Особенно в случае длительных рассуждений. Чтобы посчитать энергопотребление, группа из Университета Род-Айленда умножила среднее время, необходимое модели для ответа на запрос на среднюю мощность, потребляемую моделью в ходе работы. Важно отметить, что это только примерные оценки, поскольку достоверную информацию об использовании моделями конкретных чипов и распределении запросов найти очень трудно. Озвученная Альтманом цифра в 0,34 Вт∙ч практически совпадает с данными, рассчитанными для GPT-4o. Учёные подчёркивают необходимость большей прозрачности со стороны ИИ-бизнесов по мере выпуска всё более производительных моделей. В университете считают, что OpenAI и её конкуренты должны публично раскрыть информацию о воздействии GPT-5 на окружающую среду. Ещё в 2023 году сообщалось, что на обучение модели уровня GPT-3 требуется около 700 тыс. л воды, а на диалог из 20-50 вопросов в ChatGPT уходило около 500 мл. В 2024 году сообщалось, что на генерацию ста слов у GPT-4 уходит до трёх бутылок воды.
14.08.2025 [16:17], Сергей Карасёв
Arenadata и Selectel представили отечественный ПАК для высоконагруженной аналитикиКомпания Selectel и группа Arenadata сообщили о выпуске совместного программно-аппаратного комплекса (ПАК), предназначенного для построения отказоустойчивых платформ для высоконагруженной аналитики и корпоративных хранилищ данных. Решение, как утверждается, ориентировано на крупный бизнес с повышенными требованиями к безопасности и устойчивости IT-инфраструктуры. Аппаратная составляющая платформы базируется на оборудовании Selectel, включая серверы собственной разработки. Эта компания также обеспечивает поддержку. Программная часть выполнена на основе аналитической СУБД Arenadata DB (ADB). Кроме того, предоставляются инструменты, упрощающие запуск, масштабирование и эксплуатацию инфраструктуры. Партнёры отмечают, что все компоненты ПАК прошли предварительное тестирование на совместимость — это «гарантирует стабильную и предсказуемую работу». Кроме того, говорится о полной локализации. Решение может быть развёрнуто на собственной площадке клиента или в дата-центрах Selectel. Возможна организация гибридной модели использования.
Источник изображения: Selectel В качестве потенциальных заказчиков ПАК названы телекоммуникационные компании, финансовые организации, промышленные предприятия, логистические операторы, энергетические структуры и пр. Разработчики утверждают, что платформа гибко адаптируется под специфические требования бизнеса, обеспечивая в числе прочего поддержку ИИ-нагрузок. Среди преимуществ решения названы сокращение технических и организационных издержек, уменьшение сроков развёртывания аналитических систем и минимизация рисков при внедрении. Подчеркивается, что система обеспечивает минимальные задержки благодаря встроенным механизмам работы с непрерывными потоками данных, что может быть важно при реализации определённых проектов в IoT-области.
14.08.2025 [15:48], Владимир Мироненко
Вместе, а не вместо: российские компании не спешат отказываться от зарубежных систем управления проектами, сочетая их с отечественнымиПочти треть (28 %) крупных российских компаний продолжает использовать иностранные решения для управления проектами, например, продукты Microsoft, Oracle или Atlassian, пишут «Ведомости» со ссылкой на исследование компании Naumen, опросившей представителей 60 компаний крупного бизнеса, средняя выручка которых составила 360 млрд руб. Четверть (около 25 %) респондентов вообще не использует никаких решений такого класса, а 12 % пользуется самописными разработками. В 2021 году весь рынок подобных решений составлял 5,8 млрд руб., из этой суммы 4,3 млрд руб. приходилось на иностранных разработки (около 74 %). В 2022 году объём рынка сократился до 4,9 млрд руб., а в 2023 году вырос до 5,4 млрд руб., затем составив в 2024 году 6,0 млрд руб. На фоне этой динамики выручка от российских решений последовательно росла с 2,1 млрд руб. в 2022 год, до 3,3 млрд в 2023 году и 4,4 млрд — в 2024 году. Совокупный среднегодовой темп роста (CAGR) российских решений в 2020–2024 гг. составил 46 %, а доля рынка российских решений увеличилась до 73 %. Согласно прогнозу Naumen, в 2025 году объём рынка может составить 6,6 млрд руб., из которых 5,4 млрд придётся на российские решения., т.е. их выручка вырастет сразу на 1 млрд руб. Тем не менее, бизнес предпочитает совмещать зарубежные и отечественные продукты. 10–15 % крупных компаний после импортозамещения продолжают использовать иностранное ПО, так как оно в этом классе систем остается признанным стандартом, а полного доверия отечественным решениям всё ещё нет. В Naumen отметили, что на российском рынке решений для управления проектами распространены монопродуктовые компании, такие как Yougile, Kaiten и Advanta, для которых продукт является основным или единственным — они заняли почти половину рынка в 2024 году (около 2 млрд руб.). На мультипродуктовые компании пришлось 1,8 млрд руб., а третье место заняли бигтех-компании (600 млн руб.). Сегмент крупного бизнеса и госсектора резко снизил долю в 2022 году из-за ухода иностранных компаний, и она до сих пор до конца не восстановилась. Освоение отечественных решений крупным бизнесом и госсектором началось только в 2024 году. Опрошенные «Ведомостями» эксперты отмечают, что перенос процессов с зарубежных решений является сложной и дорогой задачей, на которую могут уйти годы. Поэтому даже во время тестирования российского ПО компании продолжают использовать иностранные продукты, стараясь до конца использовать действующие лицензии или выбирая бесплатные версии. Кроме того, российские решения могут внедряться в новых проектах, тогда как старые по-прежнему полагаются на уже имеющееся ПО. В любом случае доля отечественных решений продолжает расти.
13.08.2025 [14:39], Руслан Авдеев
Нужно больше меди: рост дата-центров усугубит нехватку и так дефицитного металлаПо мнению экспертов BloombergNEF (BNEF), устойчивый рост спроса со стороны дата-центров ускорит потенциальное возникновение существенного дефицита на мировом рынке меди уже во второй половине текущего десятилетия. При этом к 2035 году дефицит, вероятно, достигнет 6 млн т. Аналитики BNEF заявили, что для строительства ИИ ЦОД требуется всё больше меди, при этом поставки металла, являющегося ключевым компонентом в самых разных продуктах, от сантехники до силовых кабелей и электромобилей, ограничены из-за многолетнего недофинансирования. Как следует из отчёта, около 6 % капитальных затрат ЦОД может приходиться именно на медь. Цена этого металла, к 2028 году, вероятно, достигнет пика и составит $13,5 тыс. за тонну. По мнению экспертов, расширение мощностей ИИ ЦОД усиливает давление на рынок, на котором и без того сложилась напряжённая ситуация. Проблема ещё и в том, что использование меди в секторах вроде передачи электроэнергии и ветроэнергетики должно удвоиться к 2035 году, а предложение на рынке растёт медленнее, чем необходимо.
Источник изображения: Joanna Kosinska/unsplash.com Согласно докладу BloombergNEF, спрос на медь (косвенно со стороны ЦОД) в течение следующего десятилетия будет составлять 400 тыс. т ежегодно. Пик на уровне 572 тыс. т будет достигнут в 2028 году. В течение следующего десятилетия общий объём использования меди в ЦОД, вероятно, превысит 4,3 млн т. В то же время предложение к 2035 году достигнет 29 млн т — на 6 млн т меньше ожидаемого спроса. В апреле 2024 года появилась информация, что рост ИИ и ЦОД увеличит потребление дорожающего металла на 1 млн т в 2030 году. В ноябре того же года эксперты заявили, что развитие генеративного ИИ всё больше зависит от доступности качественных данных, пресной воды, электроэнергии и, что немаловажно, чистой меди, рост дефицита которой прогнозировался уже тогда.
13.08.2025 [13:24], Руслан Авдеев
Южнокорейский разработчик ИИ-чипов DeepX объединился с Baidu для выхода на рынок КНРЮжнокорейская DeepX, разрабатывающая ИИ-ускорители, заключила соглашение с китайским гиперскейлером Baidu. Компании намерены оптимизировать разрабатываемую Bailu ИИ-платформу Ernie LLM для оборудования DeepX, сообщает EE Times. В DeepX заявляют, что речь идёт о первом официальном сотрудничестве компании с одной из ключевых китайских ИИ-экосистем. Интеграция ускорителей DeepX с моделями Baidu PaddlePaddle и Ernie позволят южнокорейской компании получить прямой доступ к одному из крупнейших сообществ разработчиков ИИ в Китае. Это ускорит выход стартапа на китайский рынок и обеспечит надёжную проверку его технологий одним из мировых лидеров в сфере искусственного интеллекта. Недавно компания привлекла Morgan Stanley для управления очередным раундом финансирвоания. В прошлом году в ходе раунда финансирования серии C компания привлекла порядка $80 млн, теперь, по данным Bloomberg, она намерена получить значительно больше — незадолго до выхода на IPO в 2027 году. Компания считает себя конкурентом NVIDIA в некоторых секторах. PaddlePaddle представляет собой открытую платформу для глубокого обучения, разработанную компанией Baidu. Она является ключевым фреймворком для ИИ в Китае и представляет собой аналог западным решениям вроде PyTorch или Jax. PaddlePaddle включает готовые предобученные модели, инструменты для разработки и оптимизации ИИ-приложений. В экосистеме PaddlePaddle более 10 млн разработчиков и 200 тыс. предприятий, которые работают над сценариями использования ИИ для обработки зрения, речи и естественного языка. Также предлагается «бесшовная интеграция» с китайскими облачными платформами.
Источник изображения: DeepX Китай — один из крупнейших быстрорастущих рынков ИИ в мире, особенно в сфере промышленного ИИ, робототехники и умных устройств. Выход на китайский рынок при поддержке Baidu даёт DeepX возможность быстро масштабировать внедрение. Поэтому изначально партнёрство в рамках технологической системы PaddlePaddle будет сосредоточено на промышленном ИИ. Планируется, что компании станут совместно разрабатывать промышленные продукты, обеспечив совместимость технологий. Сообщается, что компании сосредоточатся на промышленных приложениях для распознавания символов (OCR), дронов, робототехники, также изучаются и варианты инновационного использования — в умных городах, автопромышленности и потребительской электронике. Сотрудничество закладывает основу для широкого внедрения ИИ в секторах, где энергоэффективность имеет критически важное значение. Перед подписанием соглашения DeepX продемонстрировала работу ускорителя DX-M1 с моделями Baidu — PP-OCR пятого поколения и VLM. Теперь команды Baidu, включая PaddlePaddle и Ernie, будут адаптировать свои модели для чипов DX-M1 и будущего DX-M2. Прототипы DX-M2, выполненные по 2-нм техпроцессу Samsung, собираются использовать для демонстрации крупной модели ERNIE-4.5-VL-28B-A3B. DeepX также собрала 10 моделей на базе OpenVino для DX-M1, чтобы их можно было использовать совместно с экосистемой PaddlePaddle. По имеющимся данным, существующие клиенты DeepX в Китае работают в сфере промышленных ПК, робототехники и модулей интеллектуальных камер. Благодаря экосистеме Baidu предполагается ускорить коммерческое внедрение, начиная с текущего года.
12.08.2025 [23:54], Андрей Крупин
ИБ-платформа Security Vision 5 получила множество доработокКомпания «Интеллектуальная безопасность» объявила о выпуске нового релиза актуальной на сегодняшний день версии платформы Security Vision 5. Security Vision позволяет автоматизировать большинство прикладных задач оператора информационной безопасности. Представленные в составе программного комплекса продукты охватывают такие рабочие процессы, как управление активами, уязвимостями и рисками кибербезопасности, выявление атак на ранних стадиях, консолидация оперативной информации и её анализ в реальном времени для расследования инцидентов ИБ, обеспечение соответствия IT-инфраструктуры требованиям ФЗ-187, а также двустороннее взаимодействие с ЦБ и НКЦКИ. Платформа предусматривает множество произвольных вариантов установки компонентов на отдельные серверные мощности, в том числе с размещением разных компонентов в разных сегментах сети организации. За счёт микросервисной архитектуры отдельные элементы Security Vision могут быть размещены на отдельных серверах и виртуальных машинах.
Источник изображения: securityvision.ru Новый релиз платформы Security Vision 5 включает значительное количество функциональных доработок, улучшений интерфейса и оптимизаций, направленных на упрощение работы специалистов и повышение эффективности рабочих процессов. В частности, сообщается о доработках инструмента фильтрации данных, расширении возможностей работы с графами и карточками объектов, реализации функции динамического автозаполнения таблиц, упрощении механизмов аутентификации с использованием FreeIPA, а также отладки и контроля выполнения сценариев. С полным списком изменений можно ознакомиться по приведённой выше ссылке. Платформа Security Vision зарегистрирована в реестре отечественного ПО и сертифицирована ФСТЭК России по 4 уровню доверия. Решение может использоваться в значимых объектах критической информационной инфраструктуры 1 категории, в государственных информационных системах 1 класса защищённости, в информационных системах общего пользования II класса, в информационных системах персональных данных при необходимости обеспечения 1 уровня защищённости, в автоматизированных системах управления производственными и технологическими процессами 1 класса защищённости. |
|
