Материалы по тегу: ocp

04.10.2023 [16:29], Руслан Авдеев

Open Compute Project (OCP) запустил программу Startup Membership для привлечения стартапов

Сообщество Open Compute Project (OCP), включающее крупнейших игроков рынка ЦОД, объявило о появлении особого «тарифа» для стартапов. OCP будет приглашать к сотрудничеству молодые компании, имеющие в портфолио сильные технологические решения, для того чтобы те могли внести вклад в программы совместного использования аппаратных и программных наработок для ЦОД гиепрскейлеров. Это позволит заявить о себе в индустрии.

OCP делает общедоступными инновационные решения, разработанные для дата-центров. В организации уже созрело мнение о необходимости привлечь молодые перспективные компании для сохранения роли OCP Community в качестве доминирующей силы, меняющей рынок ЦОД.

 Источник изображения: geralt/pixabay.com

Источник изображения: geralt/pixabay.com

Организация уже давно экспериментирует с различными схемами членства для того, чтобы поощрять реальный вклад в общее дело развития рынка ЦОД. Например, сейчас предлагается система, при которой более «высокоранговые» участники платят меньше, но их вклад должен быть выше, чем обеспечивают обычные члены OCP. Предлагаются варианты членства Gold, Silver и Platinum, стоящие $60 тыс., $50 тыс. или $40 тыс. в год соответственно. Но для получения рангов такого уровня нужно делиться с сообществом спецификациями, дизайном, документацией и другими наработками. Кроме того, есть даже вариант за $5 тыс. для отдельных людей, возглавляющих OCP-проекты.

 Источник: OCP

Источник: OCP

Пока стоимость участия в проекте для стартапов неизвестна. Утверждается, что она будет соответствовать уровню их финансовых возможностей. Приглашения будут направляться на основе «первичной оценки», а вопрос дальнейшего членства стартапов будет заново оцениваться ежегодно. Как заявляют в OCP, организация должна обеспечивать честный подход для всех, и цены для участников будут формироваться в соответствии с целом рядом критериев.

Программа Startup Membership обеспечивает доступ к OCP Community для обеспечения связи с потенциальными партнёрами, клиентами и менторами. Также OCP поможет стартапам стать более заметными на рынке ЦОД и устранить технологические барьеры, сдерживающие их рост. Кроме того, OCP рассчитывает на привлечение к деятельности организации инвесторов, включая «бизнес-ангелов», а также подразделений действительных членов OCP, занимающихся инвестициями.

Постоянный URL: http://servernews.ru/1093995
21.08.2023 [16:17], Сергей Карасёв

GAGAR>N представила JBOF-массивы PCIe 3.0: 48 × U.2 или 96 × M.2

Российская компания GAGAR>N («Гагар.ИН») анонсировала массивы JBOF (Just a Bunch of Flash) на базе открытого стандарта Open Compute Project (OCP). Дисковая полка формата 2OU вмещает в себя три JBOF-модуля, каждый из которых может нести на борту 16 SFF-накопителей U.2 NVMe.

 Источник изображения: GAGAR>N

Источник изображения: GAGAR>N

Таким образом, в общей сложности в составе полки можно задействовать 48 устройств хранения. Вместо SFF-накопителей можно монтировать SSD стандарта M.2 2280 (NVMe): в этом случае каждый из трёх JBOF-модулей способен нести 32 накопителя М.2 (96 шт. полку).

На фронтальную панель JBOF-модуля могут быть выведены восемь портов Mini-SAS HD (PCIe 3.0 x4). Также есть 1GbE-разъём RJ-45 для удалённого управления и мониторинга — задействован BMC ASPEED AST2600. Габариты составляют 723 × 174,5 × 89 мм, вес — 6,7 кг без накопителей. В системе охлаждения применяются два вентилятора диаметром 60 мм. В продаже новинка появится в октябре нынешнего года.

 Источник изображения: GAGAR>N

Источник изображения: GAGAR>N

«Особенность архитектуры по стандарту OCP в том, что на переднюю панель сервера нужно выводить и карты расширения, и диски. Поэтому клиенты, которым нужно работать с большими объёмами данных без потери скорости, могут выбрать решения с подключением внешних дисковых массивов JBOF. Сервер в этом случае видит дополнительные диски как свои собственные. Наш продукт при этом ещё и максимально гибкий. Можно выстраивать различные сценарии: например, подключать один JBOF к одному или нескольким серверам», — отметили в GAGAR>N.

Постоянный URL: http://servernews.ru/1091791
06.05.2023 [19:25], Сергей Карасёв

Delta Computers представила российский ПАК для виртуализации рабочих мест

Компания Delta Computers, российский производитель IT-оборудования и поставщик ПО, анонсировала отечественный программно-аппаратный комплекс (ПАК) для развёртывания виртуальных рабочих мест (VDI). Решение, как утверждается, поможет заказчикам упростить администрирование компьютеров и снизить расходы на поддержание IT-инфраструктуры.

В основу платформы положено российское оборудование. Это серверы Delta Tioga Pass, комплектующиеся процессорами Intel Xeon SkyLake-SP и Cascade Lake-SP и оперативной памятью DDR4-2933 (до 4 Тбайт). Применены серверное шасси Delta Akturu и модуль хранения Delta Argut с возможностью использования до 30 NVMe-накопителей.

Набор ПО включает ОС Astra Linux Special Edition 1.7, средства виртуализации «Брест» и решение для создания инфраструктуры виртуальных рабочих мест Termidesk for Astra. Кроме того, задействованы система мониторинга, управления и анализа инфраструктуры дата-центров Delta DCM и микропрограммное обеспечение Delta BMC. Отмечается, что Astra Linux и Delta BMC имеют сертификацию ФСТЭК.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Среди ключевых преимуществ комплекса VDI компания Delta Computers выделяет централизованное администрирование ИТ-инфраструктуры, высокий уровень безопасности приложений и пользовательских сервисов, оперативное создание новых рабочих мест и оптимизацию затрат. В настоящее время ПАК уже пользуются 5 тыс. сотрудников концерна «Росэнергоатом», в перспективе их количество увеличится.

Постоянный URL: http://servernews.ru/1086295
26.04.2023 [15:19], Сергей Карасёв

Российские OCP-серверы GAGAR>N Оракул Gen2.0 получили чипы Intel Xeon Ice Lake-SP

Российская компания GAGAR>N («Гагар.ИН») анонсировала серверы Оракул Gen2.0, которые, как утверждается, могут применяться для решения широкого круга задач, в том числе в корпоративном сегменте. В основу систем положена аппаратная платформа Intel Xeon Ice Lake-SP.

По сравнению с моделями первого поколения новинки стали производительнее: они содержат до 80 вычислительных ядер на систему. Объём оперативной памяти может достигать 8 Тбайт в виде 32 модулей DIMM. Серверы поддерживают до восьми накопителей NVMe SSD. Плюс к этому можно установить четыре NVMe-устройства в дополнительной корзине, а также два модуля M.2. Кроме того, увеличилось количество PCIe-слотов, что даёт возможность установить большее число адаптеров для подключения к устройствам ввода-вывода.

 Источник изображения: GAGAR>N

Источник изображения: GAGAR>N

Новинки выполнены в модульном форм-факторе, предусматривающем установку двух узлов в шасси высотой 2OU, и рассчитаны на монтаж в шкаф стандарта OCP v2.0 с консолидированной шиной питания 12 В. Это позволяет обеспечить энергоэффективность, простоту в обслуживании и масштабируемость серверных инфраструктур. Причём монтажные шкафы и централизованные полки питания также разработаны и производятся компанией GAGAR>N.

«Серверы GAGAR>N Оракул Gen2.0 выдерживают самые высокие нагрузки и оптимально подходят для решения задач, связанных с работой систем и приложений с большим количеством пользователей, большими объёмами обрабатываемых данных, а также сложными расчетами и вычислениями», — заявляет разработчик.

Кроме того, компания GAGAR>N представила систему питания для OCP-шасси. Шесть блоков по 3 кВт каждый обеспечивают резервируемое питание по схеме 3+3, либо 5+1. Система будет поставляться в составе серверного шкафа GAGAR>Nс стандарта OCP Open Rack v2. Диапазон рабочих температур — от 0 до +50 ºС.

Приём предварительных заказов на серверы GAGAR>N Оракул Gen2.0 начнётся в мае. Серийное производство новой системы питания будет организовано в III квартале 2023 года.

Постоянный URL: http://servernews.ru/1085720
19.04.2023 [20:56], Татьяна Золотова

Сервер GAGAR>N Оракул Gen1 получил статус OCP Accepted

Сервер GAGAR>N Оракул Gen1, созданный на базе открытой архитектуры OCP Tioga Pass, получил сертификат OCP Accepted и будет представлен в маркетплейсе глобального OCP-сообщества. Как отмечают в компании, сертификация подтверждает зрелость продукта, его открытость, совместимость с другими ИТ-решениями в рамках стандартов OCP и качество аппаратного и программного обеспечения.

Для прохождения сертификации GAGAR>N предоставил документацию на сервер, а также программное обеспечение UEFI и BMC. У GAGAR>N уже есть аккредитованная сообществом OCP лаборатория. В ноябре 2022 года компания открыла Центр экспертизы, получивший официальный статус OCP Experience Center. Это один из шести подобных центров в регионе EMEA. В декабре 2022 года «Гагар.ИН», также первой в России, получила статус Solution Provider от OCP, подтверждающий, что ее операции, включая производство, логистику и поддержку выполняются в соответствии с глобальным OCP-стандартом.

 Фото: GAGAR>N

Фото: GAGAR>N

Сообщество Open Compute Project (OCP), созданное десять лет назад, объединяет производителей и потребителей оборудования и ПО для центров обработки данных со всего мира. Участники прорабатывают открытые тиражируемые решения, предназначенные для повышения эффективности ЦОД, упрощения эксплуатации оборудования и снижения совокупной стоимости владения. Помимо GAGAR>N развитием OCP-оборудования в России также занимается Delta Computers.

Постоянный URL: http://servernews.ru/1085320
26.03.2022 [00:48], Владимир Агапов

Микро-ЦОД вместо котельной — Qarnot предложила отапливать дома б/у серверами

«Зелёная» экономика, переход на которую стремится осуществить всё больше стран, требует радикального сокращения вредного воздействия техносферы на окружающую среду. Один из эффективных способов достижения этой задачи связан с включением в полезный оборот побочных продуктов экономической деятельности. В случае дата-центров таким продуктом является тепло.

Великобритания, Дания и другие страны направляют тепло от ЦОД в отопительные системы домов, а Норвегия обогревает им омаровые фермы и планирует обязать дата-центры отдавать «мусорное» тепло на общественные нужды. Французская компания Qarnot решила посмотреть на эту задачу под другим углом, разработав в 2017 г. концепцию электрообогревателя для жилых и офисных помещений на процессорах AMD и Intel.

 Изображение: Qarnot (via DataCenterDynamics)

Изображение: Qarnot (via DataCenterDynamics)

В 2018 г. Qarnot продолжила изыскания и выпустила криптообогреватель QC-1. А недавно она порадовала своих заказчиков следующим поколением отопительных устройств QB, которое создано в сотрудничестве с ITRenew. Новые модули используют OCP-серверы, которые ранее работали в дата-центрах гиперскейлеров. Оснащённые водяным охлаждением, они обогревают помещения пользователей и обеспечивают дополнительные мощности для периферийных облачных вычислений.

Система отводит 96% тепла, производимого кластером серверов, которое попадает в систему циркуляции воды. IT-часть состоит из процессоров AMD EPYC/Ryzen или Intel Xeon E5 в составе OCP-платформ Leopard, Tioga Pass или Capri с показателем PUE, который, по словам разработчиков, стремится к 1,0. При этом вся система практически бесшумная, поскольку вентиляторы отсутствуют.

В компании заявляют, что с февраля уже развёрнуто 12 000 ядер, и планируется довести их число до 100 000 в течении 2022 года. Среди предыдущих заказчиков систем отопления Qarnot числятся жилищные проекты во Франции и Финляндии, а также банк BNP и клиенты, занимающиеся цифровой обработкой изображений.

По словам технического директора Qarnot Клемента Пеллегрини (Clement Pellegrini), QB приносит двойную пользу экологии, используя не только «мусорное» тепло, но и оборудование, которое обычно утилизируется. У ITRenew уже есть очень похожий совместный проект с Blockheating по обогреву теплиц такими же б/у серверами гиперскейлеров.

Постоянный URL: http://servernews.ru/1062792
14.11.2021 [21:11], Владимир Мироненко

LiquidStack и Microsoft продемонстрировали ИИ-серверы с двухфазным иммерсионным охлаждением

LiquidStack, дочернее предприятие BitFury, специализирующееся на разработке иммерсионных СЖО, и Microsoft продемонстрировали на OCP Global Summit стандартизированное решение с двухфазным погружным жидкостным охлаждением. Демо-серверы Wiwynn, разработанные в соответствии со спецификациями OCP Open Accelerator Infrastructure (OAI), были погружены в бак LiquidStack DataTank 4U, способный отводить порядка 3 кВт/1U (эквивалент 126 кВт на стойку).

LiquidStack сообщила, что она впервые оптимизировала серверы OCP OAI для охлаждения путем погружения в жидкость. По словам компании, её двухфазные иммерсионные СЖО DataTank предоставляют наиболее эффективное решение, которое требует немного пространства и потребляет меньше энергии, чем другие системы охлаждения, и вместе с тем повышает плотность размещения компонентов и их производительность.

 Фото: LiquidStack

Фото: LiquidStack

В демо-серверах использовались ИИ-ускорители Intel Habana Gaudi, погружённые в жидкий диэлектрик (от 3M) с низкой температурой кипения, который наиболее эффективно отводит тепло благодаря фазовому переходу. Данное решение должно помочь достижению показателя PUE в пределах от 1,02 до 1,03, поскольку оно практически не потребляет энергию. LiquidStack утверждает, что у её СЖО эффективность теплоотвода примерно в 16 раз выше, чем у типичных систем воздушного охлаждения.

 Фото: LiquidStack

Фото: LiquidStack

По мнению компании, системы высокопроизводительных вычислений (HPC) уже сейчас слишком энергоёмки, чтобы их можно было охлаждать воздухом. Поэтому следует использовать платы, специально предназначенные для жидкостного охлаждения, а не пытаться адаптировать те, что были созданы с расчётом на воздушные системы — при использовании СЖО вычислительная инфраструктура может занимать на 60% меньше места.

 Изображение: Microsoft

Изображение: Microsoft

LiquidStack и Wiwynn являются партнёрами. В апреле Wiwynn инвестировала в LiquidStack $10 млн. Также Wiwynn протестировала серверы с погружным жидкостным охлаждением в центре обработки данных Microsoft Azure в Куинси (штат Вашингтон). Microsoft, как и другие гиперскейлеры, уже некоторое время изучает возможности иммерсионных СЖО.

Постоянный URL: http://servernews.ru/1053696
06.10.2021 [13:07], Сергей Карасёв

«Яндекс», «ЛАНИТ», Gigabyte и ВТБ вложат 1 млрд руб. в российский завод по выпуску серверов

В России неподалёку от Рязани, на территории индустриального парка «Рязанский», началось строительство нового завода по производству серверов. Проект реализуется совместным предприятием, созданным «Яндексом», группой компаний «ЛАНИТ», разработчиком компьютерной техники Gigabyte и банком ВТБ.

На заводе будет выпускаться оборудование под торговой маркой Openyard. В частности, планируется организовать производство серверов, систем хранения данных, шлюзов и компонентов умных устройств.

Участники проекта на начальном этапе вложат в новую производственную площадку более миллиарда рублей. Пуско-наладочные работы намечены на третий квартал следующего года: их выполнят специалисты Gigabyte. Первый сервер со сборочных линий должен сойти до конца 2022-го.

«Первая очередь будет включать производственные линии, лаборатории и тестовые зоны. Здесь будут выполняться все операции, начиная от поверхностного монтажа компонентов и заканчивая испытаниями готовой продукции», — говорится в сообщении.

 Фото: Яндекс

Фото: Яндекс

Производимые в Рязани серверы будут спроектированы на основе разработок и технологий «Яндекса». Отмечается, что выбор места для строительства завода продиктован хорошей транспортной доступностью, наличием необходимых коммуникаций и близостью учебных заведений, которые готовят профильных специалистов.

Постоянный URL: http://servernews.ru/1050683
26.08.2021 [03:07], Алексей Степин

Получены первые образцы 1000-ядерного суперкомпьютера-на-чипе Esperanto ET-SoC-1

Рекомендательные системы, активно используемые социальными сетями, рекламными платформами и т.д. имеют специфические особенности. От них требуется высокая скорость отклика, но вместе с тем их ИИ-модели весьма объёмны, порядка 100 Гбайт или более. А для их эффективной работы нужен ещё и довольно большой кеш. Для инференса чаще всего используется либо CPU (много памяти, но относительно низкая скорость) или GPU (высокая скорость, но мало памяти), но они не слишком эффективны для этой задачи.

При этом существуют ещё и физические ограничения со стороны гиперскейлеров: в сервере не так много полноценных PCIe-слотов и свободного места + есть жёсткие ограничения по энергопотреблению и охлаждению (чаще всего воздушному). Всё это было учтено компанией Esperanto, чьей специализацией является разработка чипов на базе архитектуры RISC-V. На днях она получила первые образцы ИИ-ускорителя ET-SoC-1, который она сама называет суперкомпьютером-на-чипе (Supercomputer-on-Chip).

Новинка предназначена для инференса рекомендательных систем, в том числе на периферии, где на первый план выходит экономичность. Компания поставила для себя непростую задачу — весь комплекс ускорителей с памятью и служебной обвязкой должен потреблять не более 120 Вт. Для решения этой задачи пришлось применить немало ухищрений. Самое первое и очевидное — создание относительно небольшого, но универсального чипа, который можно было бы объединять с другими такими же чипами с линейным ростом производительности.

Для достижения высокой степени параллелизма основой такого чипа должны стать небольшие, но энергоэффективные ядра. Именно поэтому выбор пал на 64-бит ядра RISC-V, поскольку они «просты» не только с точки зрения ISA, но и по транзисторному бюджету. Чип ET-SoC-1 сочетает в себе два типа ядер RISC-V: классических «больших» ядер (ET-Maxion) с внеочередным выполнением у него всего 4, зато «малых» ядер (ET-Minion) с поддержкой тензорных и векторных вычислений — целых 1088.

На комплекс ядер ET-Maxion возлагаются задачи общего назначения и в ИИ-вычислениях он напрямую не участвует, зато позволяет быть ET-SoC-1 полностью автономным, так как прямо на нём можно запустить Linux. Помогает ему в этом ещё один служебный RISC-V процессор для периферии. А вот ядра ET-Minion довольно простые: внеочередного исполнения инструкций в них нет, зато есть поддержка SMT2 и целый набор новых инструкций для INT- и FP-операций с векторами и тензорами.

За каждый такт ядро ET-Minion способно выполнять 128 INT8-операций с сохранением INT32-результата, 16 FP32-операций или 32 — FP16. «Длинные» тензорные операции могут непрерывно исполняться в течение 512 циклов (до 64 тыс. операций), при этом целочисленные блоки в это время отключаются для экономии питания. Система кешей устроена несколько непривычным образом. На ядро приходится 4 банка памяти, которые можно использовать как L1-кеш для данных и как быструю универсальную память (scratchpad).

Восемь ядер ET-Minion формируют «квартал» вокруг общего для них кеша инструкций, так как на таких задачах велика вероятность того, что инструкции для всех ядер действительно будут одни и те же. Кроме того, это энергоэффективнее, чем восемь индивидуальных кешей, и позволяет получать и отправлять данные большими блоками, снижая нагрузку на L2-кеш. Восемь «кварталов» формируют «микрорайон» с коммутатором и четырьмя банками SRAM объёмом по 1 Мбайт, которые можно использовать как приватный L2-кеш, как часть общего L3-кеша или как scratchpad.

Посредством mesh-сети «микрорайоны» общаются между собой и с другими блоками: ET-Maxion, восемь двухканальных контроллеров памяти, два root-комплекса PCIe 4.0 x8, аппаратный RoT. Суммарно на чип приходится порядка 160 Мбайт SRAM. Контроллеры оперативной памяти поддерживают модули LPDDR4x-4267 ECC (256 бит, до 137 Гбайт/с). Тактовая частота ET-Minion варьируется в пределах от 500 МГц до 1,5 ГГц, а ET-Maxion — от 500 МГц до 2 ГГц.

В рамках OCP-блока Glacier Point V2 компания объединила на одной плате шесть ET-SoC-1 (всего 6558 ядер RISC-V), снабдив их 192 Гбайт памяти (822 Гбайт/с) — это больше, нежели у NVIDIA A100 (80 Гбайт). Такая связка развивает более 800 Топс, требуя всего 120 Вт. В среднем же она составляет 100 ‒ 200 Топс на один чип с потреблением менее 20 Вт. Это позволяет создать компактный M.2-модуль или же наоборот масштабировать систему далее. Шасси Yosemite v2 может вместить 64 чипа, а стойка — уже 384 чипа.

В тесте MLPerf для рекомендательных систем производительность указанной выше связки из шести чипов в пересчёте на Ватт оказалась в 123 раза выше, чем у Intel Xeon Platinum 8380H (250 Вт), и в два-три раза выше, чем у NVIDIA A10 (150 Вт) и T4 (70 Вт). В «неудобном» для чипа тесте ResNet-50 разница с CPU и ускорителем Habana Goya уже не так велика, а вот с решениями NVIDIA, напротив, более заметна.

При этом о поддержке со стороны ПО разработчики также подумали: чипы Esperanto могут работать с широко распространёнными фреймворками PyTorch, TensorFlow, MXNet и Caffe2, а также принимать готовые ONNX-модели. Есть и SDK для C++, а также драйверы для x86-хостов.

Опытные образцы изготовлены на TSMC по 7-нм техпроцессу. Кристалл площадью 570 мм2 содержит 24 млрд транзисторов. Чип имеет упаковку BGA2494 размерами 45 × 45 мм2. Энергопотребление (а вместе с ним и производительность) настраивается в диапазоне от 10 до 60+ Ватт. Потенциальным заказчикам тестовые чипы станут доступны до конца года. Компания также готова адаптировать ET-SoC-1 под другие техпроцессы и фабрики, но демо на базе OCP-платформы и сравнение с Cooper Lake — это недвусмысленный намёк для Facebook, что Esperanto будет рада видеть её в числе первых клиентов.

Постоянный URL: http://servernews.ru/1047568
27.09.2019 [09:36], Владимир Мироненко

LEGO для ускорителей: Inspur представила референсную OCP-систему для модулей OAM

Компания Inspur анонсировала 26 сентября на саммите OCP Regional Summit в Амстердаме новую референсую платформу с UBB-платой (Universal Baseboard) для ускорителей в форм-факторе Open Accelerator Module (OAM).

OAM был представлен Facebook в марте этого года. Он очень похож на слегка увеличенный (102 × 165 мм) модуль NVIDIA SXM2: «плиточка» с группами контактов на дне и радиатором на верхней крышке.

Ключевые спецификации модуля OAM:

  • Линии питания 12 В (до 350 Вт) и 48 В (до 700 Вт )
  • Поддержка модулем одной или нескольких ASIC
  • Хост-подключение: 1 или 2 PCI-E x16
  • Межмодульное соединение: до 7 x16 или x20
  • Поддержка систем как воздушного, так жидкостного охлаждения
  • Объединение до 8 модулей в одной системе

OAM, в отличие от классических карт PCI-E, позволяет повысить плотнсть размещения ускорителей в системе без ущерба их охлаждению, а также увеличить скорость обмена данными между модулями, благодаря легко настраиваемой топологии соединений между ними. В числе поддержавших проект OCP Accelerator Module такие компании, как Intel, AMD, NVIDIA, Google,Microsoft, Baidu и Huawei.

Inspur приступил к разработке референс-системы для ускорителей OAM в связи растущими требованиями, предъявляемыми к приложениям ИИ и необходимостью обеспечения взаимодействия между несколькими модулями на основе ASIC или GPU.

Данная платформа представляет собой 21" шасси стандарта Open Rack V2 с BBU для восьми модулей OAM. Плата BBU снабжена восемью коннекторами QSFP-DD для прямого подключения к другим BBU.

Система Inspur OAM позволяет создавать кластеры из 16, 32, 64 и 128 модулей OAM и имеет гибкую архитектуру для поддержки инфраструктур с несколькими хостами. По требованию заказчика Inspur также может поставлять 19-дюймовые системы OAM.

Одной из первых преимущества новинки для задач, связанных с ИИ и машинным обучением, оценила китайская Baidu, продемонстрировавшая собственное серверное решение X-Man 4.0 на базе платформы Inspur и восьми ускорителей.

Постоянный URL: http://servernews.ru/994713

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus