Лента новостей

21.06.2024 [12:05], Сергей Карасёв

«ИИ-гигафабрику» для xAI построят Dell и Supermicro

Оборудование для мощнейшего ИИ-суперкомпьютера компании xAI, курируемой Илоном Маском (Elon Musk), как сообщает Datacenter Dynamics, будут поставлять Dell и Supermicro. Речь идёт о серверах, оборудованных высокопроизводительными ускорителями NVIDIA. После анонса акции обеих компаний выросли в цене.

Напомним, что xAI реализует проект по созданию самого мощного в мире вычислительного комплекса, ориентированного на задачи ИИ. Строительство суперкомпьютера будет осуществляться в несколько этапов. Так, в ближайшее время должна быть запущена система, содержащая 100 тыс. ускорителей NVIDIA H100. А летом 2025 года планируется ввести в эксплуатацию кластер из 300 тыс. новейших ускорителей NVIDIA B200.

О том, что участие в масштабном проекте xAI принимает корпорация Dell, сообщил её генеральный директор Майкл Делл (Michael Dell). Эти сведения подтвердил и сам Маск: по его словам, Dell «соберёт половину стоек, которые войдут в состав суперкомпьютера». За строительство оставшейся части системы будет отвечать Supermicro.

По имеющейся информации, огромный дата-центр xAI, прозванный «ИИ-гигафабрикой», расположится в окрестностях Мемфиса (штат Теннесси). О том, в какой пропорции работы по строительству машины будут распределены между Dell и Supermicro, на данный момент нет. Стоимость проекта оценивается в миллиарды долларов.

 Фото: Michael Dell

Фото: Michael Dell

xAI в настоящее время арендует около 16 тыс. ускорителей NVIDIA H100 в облаке Oracle Cloud, а также использует веб-сервисы Amazon и свободные мощности на ЦОД-площадках X/Twitter. В мае 2024 года стартап осуществил раунд финансирования Series B, в ходе которого было привлечено $6 млрд. В результате, рыночная стоимость xAI достигла $24 млрд. Создаваемый суперкомпьютер будет использоваться в том числе для поддержания работы чат-бота xAI Grok следующего поколения.

Постоянный URL: https://servernews.ru/1106831
21.06.2024 [11:46], Сергей Карасёв

Квартальные поставки SSD упали на 6 %, но их суммарная вместимость снова выросла

По итогам I квартала 2024 года на мировом рынке было реализовано приблизительно 82,79 млн SSD разных типов, что на 6,2 % меньше по сравнению с последней четвертью 2023-го. Уточненные данные, как сообщает ресурс StorageNewsletter, обнародовала аналитическая компания TrendFocus. Отмечается, что, несмотря на сокращение продаж в штучном выражении, суммарная вместимость отгруженных за три месяца SSD поднялась в квартальном исчислении на 2,0 %, достигнув 86,99 Эбайт.

В рейтинге крупнейших игроков мирового рынка лидирует Samsung с долей 30,4 %. Вторую позицию удерживает Western Digital с 18,7 %, а замыкает тройку SK hynix с 10,4 %. В плане общей ёмкости реализованных накопителей Samsung контролирует 34,0 % мирового рынка SSD. Затем идут Western Digital с 15,8 % и Solidigm с 15,2 %.

 Источник изображения: TrendFocus / StorageNewsletter

Источник изображения: TrendFocus / StorageNewsletter

Поставки корпоративных SSD с интерфейсом PCle поднялись квартал к кварталу на 31,6 % — до 7,09 млн, а их суммарная вместимость выросла на 31,8 %, составив около 30,53 Эбайт. Продажи твердотельных SAS-устройств сократились в I квартале 2024 года на 5,8 % в штуках — до 0,88 млн единиц, но их общая ёмкость увеличилась на 1,7 % — до 3,26 Эбайт. Говорится также, что отгрузки корпоративных SSD с интерфейсом SATA поднялись до 4,03 млн штук, но их общая вместимость снизилась в квартальном исчислении на 6,3 % из-за более высокого спроса на изделия с меньшим объёмом.

В клиентском сегменте поставки SSD сократились квартал к кварталу на 10,5 % в штучном выражении и на 12,1 % в ёмкостном — до 64,87 млн единиц и 43,39 Эбайт.

Постоянный URL: https://servernews.ru/1106832
21.06.2024 [09:31], Владимир Мироненко

HPE представила собственное решение для виртуализации и уверяет, что вовсе не собирается конкурировать с VMware

HPE представила собственное решение для виртуализации, которое, по словам главного операционного директора HPE по гибридному облаку Ханга Тана (Hang Tan), не несёт прямой угрозы решениям VMware. Он пояснил ресурсу The Register, что это было сделано вовсе не из-за конъюнктурных соображений, а в ответ на запросы клиентов.

Решение HPE использует KVM на базе Ubuntu вместе с ПО для оркестрации в рамках платформы HPE Private Cloud. Как и другое ПО HPE Private Cloud, новое решение может работать в гибридной среде или автономно.

После поглощения VMware в конце прошлого года Broadcom внесла изменения в порядок лицензирования, после чего многие клиенты стали жаловаться на рост затрат на использование её продуктов. И хотя Broadcom настаивает на том, что изменения также включали снижение цен на некоторые продукты и в целом несут выгоду клиентам, конкуренты VMware спешат воспользоваться создавшейся ситуацией и переманить недовольных новой политикой чипмейкера.

 Источник изображения: HPE

Источник изображения: HPE

Тан сообщил The Register, что появление виртуализации в HPE Private Cloud было естественным развитием гибридной стратегии, которую гендиректор Антонио Нери (Antonio Neri) продвигает на протяжении многих лет. Он отметил, что в рамках реализации стратегии HPE занялась контейнеризацией, управлением облачными данными и AIOps, в основном закрывая направления путём поглощения специализированных компаний. В конце концов HPE задалась вопросом, чего ещё не хватает для комплексного обслуживания клиентов. И ответом стала виртуализация.

Так что объявление HPE о собственном продукте виртуализации в сложное для Broadcom время является исключительно совпадением. HPE по-прежнему предлагает продукты VMware, которые, по словам Тана, она рассматривает как дополнение к собственным предложениям HPE по виртуализации. Какими будут расценки на новое предложение HPE, пока не сообщается. По всей видимости, они станут известны во II половине 2024 года, когда новый продукт станет доступен в составе HPE Private Cloud Business Edition. Затем решение будет добавлено и в другие версии HPE Private Cloud.

Постоянный URL: https://servernews.ru/1106823
20.06.2024 [22:47], Владимир Мироненко

ИИ для ИИ: Pure Storage обновила программную платформу своих СХД и добавила новые SLA

Компания Pure Storage объявила об обновлении своей платформы хранения данных, включая улучшение управления парком массивов, использование ИИ для выявления аномалий и новые соглашения SLA.

Решение Pure Fusion, которое автоматизирует оркестрацию и размещение рабочих нагрузок, теперь встроено в среду Purity. Решение объединяет массивы и оптимизирует пулы хранения «на лету» для структурированных и неструктурированных данных, как локально, так и в облаке, используя машинное обучение для оптимизации работы. Pure Fusion повится на всех платформах Pure Storage.

 Источник изображений: Pure Storage via Blocks&Files

Источник изображений: Pure Storage via Blocks&Files

Также компания представила первый в индустрии (по её словам) интеллектуальный помощник для СХД — GenAI Copilot for storage, который «представляет собой радикально новый способ управления и защиты данных с использованием естественного языка». Он прошёл обучение на данных десятков тысяч клиентов Pure Storage и может оказать действенную помощь в работе команд по обслуживанию СХД при исследовании проблем с производительностью и управлением, а также для упреждения инцидентов безопасности. Эта функция использует несколько LLM в фоновом режиме, а также данные телеметрии от хранилищ пользователя.

Также Pure анонсировала три соглашения об уровне обслуживания (SLA) Evergreen//One Storage as-a-Service (STAaS), включая гарантию AI StaaS, восстановление после кибератаки и обеспечение устойчивости, а также возможность перераспределения обязательств по использованию хранилищ. Кроме того, используется новая система оценки безопасности и улучшенное обнаружение аномалий доступа к данным с помощью ИИ.

Соглашение об уровне обслуживания Evergreen//One AI Storage as-a-Service гарантирует, что производительности хранилища, обслуживающего ускорители, будет достаточно для поддержки рабочих нагрузок обучения, инференса и HPC. Более того, теперь можно не просто оплачивать только необходимые уровни производительности и пропускной способности, но и динамически менять их в зависимости от сиюминутных потребностей. А Site Rebalance SLA позволит раз в год перераспределять уже приобретённые ресурсы между несколькими площадками, если, например, одной из них более не требуется изначальный уровень обслуживания, а другой уже не хватает ресурсов.

Также компания расширила возможности Cyber Recovery and Resilience SLA — теперь заказчикам доступна услугу аварийного восстановление. Pure разработает индивидуальный план восстановления, а при наступлении «страхового случая» в заданные сроки доставит новое оборудование, развернёт его и поможет перенести данные.

А чтобы свести к минимуму различные инциденты, Pure Storage внедрила новую оценку рисков безопасности на уровне всего парка хранилищ. Компания даст практические рекомендации по максимизации киберустойчивости, основываясь на анализе более чем 10 тыс. эксплуатируемых массивов Pure, и будет обновлять их минимум ежеквартально, а также поможет клиентам соблюсти правила различных регуляторов. А AI Copilot позволит оценить защищённость и безопасность развёрнутых хранилищ.

 Источник изображений: Pure Storage via StorageReview

Источник изображений: Pure Storage via StorageReview

Дополнительно Pure теперь предоставляет защищённые рабочие пространства для приложений с тщательным контролем доступа. Основная цель — простая и безопасная автоматизированная интеграция данных с кластерами ИИ без потери производительности, управляемости и защищённости. Новые функции обнаружения аномалий используют машинное обучение на исторических данных о работе хранилищ заказчика для обнаружения атак программ-вымогателей, вредоносной активности и DoS путём непрерывного мониторинга аномалий производительности. В случае атаки можно будет быстро найти последний незатронутый снимок данных и быстро восстановить работу.

Наконец, Pure Storage объявила о прохождении сертификации для работы с NVIDIA DGX BasePOD и NVIDIA OVX, а к концу года компания намерена провести сертификацию своих СХД и для работы с NVIDIA DGX SuperPOD. Компания утверждает, что у её массивов лучшая в отрасли энергоэффективность и что её СХД потребляют на 85 % меньше энергии, чем альтернативные All-Flash платформы. И именно это может помочь клиентам преодолеть ограничения по мощности в ЦОД, обслуживающих крупные ИИ-кластеры.

Постоянный URL: https://servernews.ru/1106820
20.06.2024 [20:53], Руслан Авдеев

Nubes заканчивает возведение в Москве своего второго ЦОД — Strato

Осенью 2024 года облачный оператор Nubes (НУБЕС) намерен ввести в эксплуатацию новый дата-центр Nubes Strato. По данным пресс-службы компании, вычислительные ресурсы нового ЦОД предполагается использовать для развития облака NGcloud и собственных облачных сервисов. Часть стоек будет доступна клиентам, желающим применять гибридные решения.

Защищённое, уже функционирующее облако NGcloud построено на базе первого дата-центра Nubes Alto уровня Tier III. На базе того же ЦОД базируются сервисы оператора, связанные с обеспечением информационной безопасности, решения для удалённой работы и хранения информации. Nubes Alto активно используется и клиентами, желающими разметить на его площадке собственное серверное оборудование и телекоммуникационные модули по колокейшн-схеме.

 Источник изображения: Nubes

Источник изображения: Nubes

Новый дата-центр на 198 стоек строится в Москве в районе м. Царицыно и поблизости от Nubes Alto, запущенного в 2022 году. Запуск Strato намечен на сентябрь 2024 года, пока же в помещениях объекта ведётся установка инженерной инфраструктуры. Ожидается, что скоро там же смонтируют источники бесперебойного и гарантированного электроснабжения. Пока ведётся строительство и монтаж, провайдер ЦОД занят закупками вычислительной техники и сетевого оборудования.

В компании добавляют, что ЦОД строится и для масштабирования возможностей по предоставлению гибридных решений клиентам. Кроме того, появление Nubes Strato будет способствовать расширению облака NGcloud. Гибридная природа проекта позволит клиентам не только размещать на площадке собственное оборудование, но и интегрировать его с облаком компании.

Постоянный URL: https://servernews.ru/1106791
20.06.2024 [17:32], Руслан Авдеев

Дата-центры, склады, роботы и ИИ: Amazon потратит ещё €10 млрд на развитие бизнеса в Германии

Amazon потратит €10 млрд ($10,7 млрд) на обновление дата-центров и модернизацию логистической сети в Германии, передаёт Silicon Angle. Всего несколько недель назад облако Amazon Web Services (AWS) объявила о намерении потратить €7,8 млрд ($8,36 млрд) в той же Германии на суверенную облачную платформу AWS European Sovereign Cloud.

Часть из €10 млрд Amazon потратит на найм ещё 4 тыс. сотрудников в центры обработки заказов в нескольких немецких городах, в результате чего общий штат сотрудников в Германии вырастет до более 40 тыс. человек. Amazon также управляет в Германии сетью из четырёх инжиниринговых центров — компания объявила о намерении расширить свой берлинский кампус. Целью является поддержка работ, связанных с робототехникой и ИИ.

Другая часть инвестиций будет использована для «постройки, поддержки и обслуживания» кластера облачных дата-центров в районе Франкфурта. Сейчас франкфуртский облачный регион AWS включает три зоны доступности, изолированные друг от друга на физическом уровне, и две т.н. «локальные зоны», расположенные ближе к потребителям.

 Истчоник изображения: Igor Flek/unsplash.com

Истчоник изображения: Igor Flek/unsplash.com

Для AWS European Sovereign Cloud будет построен дата-центр в земле Бранденбург, он заработает к концу следующего года. Предполагается, что эти облачные мощности будут обслуживаться только персоналом из Евросоюза. Ранее компания уже сообщала о том, что метаданные пользователей из ЕС будут храниться на территории блока. Год назад схожий проект реализовала в регионе компания Oracle.

Постоянный URL: https://servernews.ru/1106788
20.06.2024 [16:29], Руслан Авдеев

И посчитать, и погреться: HPE и Danfoss представили микро-ЦОД, способный отапливать здания

По мере роста энергопотребления ЦОД развиваются и решения, способные компенсировать ущерб окружающей среде. Network World сообщает, что компании Hewlett Packard Enterprise (HPE) и датская Danfoss запустили серию усовершенствованных модульных дата-центров, позволяющих использовать тепло, генерируемое в процессе их работы, в любых целях. За основу была взята система утилизации «мусорного» тепла, применяемая в штаб-квартире Danfoss в Дании.

По данным Международного энергетического агентства (IEA), к 2026 году ИИ-индустрия будет потреблять на порядок больше электроэнергии, чем в 2023 году. Дата-центры всегда вырабатывали много тепла, причём по мере роста вычислительных мощностей растёт и отдача тепловой энергии. Поэтому HPE и датская инжиниринговая компания Danfoss создали готовое решение в рамках HPE IT Sustainability Services — модульную систему Data Center Heat Recovery.

Решение включает модульный дата-центр HPE (Modular Data Center) — компактный контейнер с высокой плотностью размещения оборудования с прямым жидкостным охлаждением, который, как заявляют в HPE, может быть развёрнут практически везде и позволит снизить общее потребление энергии на 20 %. Danfoss же предоставила модули отбора тепла для его передачи ближайшим зданиям и промышленным объектам. Безмасляные компрессоры Turbocor повышают эффективность систем охлаждения ЦОД при оптимистичном сценарии на целых 30 %.

 Источник изображения: Danfoss

Источник изображения: Danfoss

Выгода для пользователей очевидна, говорят компании, поскольку захваченное тепло позволяет не генерировать его специально. В HPE даже предложили измерять сэкономленное тепло в «негаваттах», т.к. затраты на его генерацию в данном случае отрицательны. С учётом огромных объёмов потребляемого ЦОД электричества, экономия 30 % энергии может стать существенной.

Впрочем, технология имеет определённые ограничения и пригодится не всем. Если обогревать окружающие здания нет необходимости, то никакой экономии энергии и не будет. Подобные технологии уже активно применяют как в Северной Америке, так и в Европе и других регионах. Особенно эффективны они в странах с прохладным климатом. Впрочем, такие системы пока довольно дороги, а иногда и вовсе не имеют смысла по целому ряду причин, в том числе экономических.

Постоянный URL: https://servernews.ru/1106781
20.06.2024 [15:13], Сергей Карасёв

Orange Pi представила одноплатный компьютер KunPeng Pro на чипе Huawei с NPU

В ассортименте Orange Pi, по сообщению ресурса CNX Software, появился одноплатный компьютер под названием KunPeng Pro на аппаратной платформе Huawei. Новинка, использующая Linux-дистрибутив openEuler, предназначена для решения различных задач, связанных с ИИ.

В основу решения положен неназванный Arm-процессор Kunpeng с четырьмя ядрами и встроенным ИИ-движком, обеспечивающим производительность до 8 TOPS. Объём памяти LPDDR4X может составлять 8 или 16 Гбайт.

Оснащение включает чип SPI-флеш ёмкостью 32 Мбайт, модуль eMMC вместимостью 32, 64, 128 или 256 Гбайт, а также слот microSD. Дополнительно может быть установлен SSD формата M.2 2280 с интерфейсом SATA/NVMe. Есть контроллер 1GbE, адаптеры Wi-Fi 5 и Bluetooth 4.2. Размеры составляют 107 × 68 мм, масса — 82 г.

 Источник изображения: Orange Pi

Источник изображения: Orange Pi

Одноплатный компьютер располагает двумя коннекторами HDMI 2.0 с поддержкой видео до 4Kp60, двумя портами USB 3.0 Type-A, 3,5-мм аудиогнездом, гнездом RJ-45 для сетевого кабеля, а также двумя портами USB Type-C, один из которых служит для подачи питания (до 65 Вт). Присутствуют также интерфейсы MIPI DSI (2 линии) и 2 × MIPI CSI, 40-контактная колодка GPIO (UART, I2C, SPI, I2S, PWM), коннекторы для вентилятора охлаждения и батарейки. Приобрести Orange Pi KunPeng Pro можно по ориентировочной цене от $173.

Нужно отметить, что ранее команда Orange Pi анонсировала другой одноплатный компьютер с процессором Huawei — модель AIPro. Это решение получило чип Ascend с четырьмя 64-битными ядрами и ИИ-ускорителем с быстродействием до 8/20 TOPS на операциях INT8 (FP16).

Постоянный URL: https://servernews.ru/1106789
20.06.2024 [14:54], Владимир Мироненко

HPE и NVIDIA представили совместные решения для ускорения внедрения ИИ

Hewlett Packard Enterprise (HPE) и NVIDIA представили платформу NVIDIA AI Computing by HPE — портфель совместно разработанных решений для ускорения внедрения генеративного ИИ.

Ключевым в портфеле является предложение HPE Private Cloud AI. Как указано в пресс-релизе, это первое в своём роде комплексное решение, которое обеспечивает самую глубокую на сегодняшний день интеграцию вычислительных технологий, сетей и ПО NVIDIA с хранилищем, вычислительными ресурсами и облачной платформой HPE GreenLake. Решение предоставляет предприятиям любого размера возможность быстрой и эффективной разработки и развёртывания приложений генеративного ИИ.

Решение HPE Private Cloud AI с новой функцией OpsRamp AI Copilot, которая позволяет повысить эффективность ИТ-операций и обработки рабочих нагрузок, включает в себя облачную среду самообслуживания с полным управлением жизненным циклом. Оно доступно в четырёх конфигурациях (Small, Medium, Large и Extra Large) для поддержки рабочих нагрузок ИИ различной сложности.

 Источник изображения: SiliconANGLE

Источник изображения: SiliconANGLE

HPE Private Cloud AI также поддерживает инференс, точную настройку моделей и их дообучение посредством RAG с использованием собственных данных. Решение сочетает в себе средства контроля конфиденциальности, безопасности, прозрачности и управления данными, в том числе средства ITOps и AIOps. AIOps использует машинное обучение и анализ данных для автоматизации и улучшения ИТ-операций. ITOps включает в себя ряд инструментов, обеспечивающих бесперебойное функционирование ИТ-инфраструктуры организации.

 Источник изображения: The Next Platform

Источник изображения: The Next Platform

Конфигурация HPE Private Cloud AI Small, предназначенная для инференса, включает от четырёх до восьми ускорителей NVIDIA L40S, до 248 Тбайт дискового пространства и 100GbE-подключение в стойке мощностью 8 кВт. Конфигурация Medium, предназначенная для инференса и RAG, включает до 16 ускорителей NVIDIA L40S, до 390 Тбайт дискового пространства и 200GbE-подключение в стойке мощностью 17,7 кВт.

 Источник изображения: The Next Platform

Источник изображения: The Next Platform

Конфигурации Large и Extra Large предлагают дополнительные возможности по обработке нагрузок ИИ и ML, а также тонкой настройке ИИ-модели. Конфигурация Large включает до 32 ускорителей NVIDIA H100 NVL, до 1,1 Пбайта дискового пространства и 400GbE-интерконнект в двух стойках мощностью 25 кВт каждая. В свою очередь, конфигурация Extra Large включает до 24 ускорителей NVIDIA GH200 NVL2, до 1,1 Пбайта дискового пространства и 800GbE-интeрконнект в двух стойках мощностью 25 кВт каждая.

Стойки могут управляться клиентом самостоятельно или обслуживаться HPE. Каждая конфигурация может работать как автономное локальное решение ИИ или в составе гибридного облака. Используется программная платформа NVIDIA AI Enterprise, включающая микросервисы инференса NIM. Её дополняет ПО HPE AI Essentials.

Кроме того, поддержку новых ускорителей NVIDIA получили три аппаратные платформы:

  • базовая модель HPE ProLiant Compute DL384 Gen12 с NVIDIA GH200 NVL2 предназначена для заказчиков, использующих достаточно крупные ИИ-модели или RAG.
  • сервер среднего уровня HPE ProLiant DL380a Gen12 включает до восьми ускорителей NVIDIA H200 NVL и подходит тем, кому нужна гибкость в масштабировании рабочих нагрузок генеративного ИИ;
  • топовая модель HPE Cray XD670 с узлами на базе восьми ускорителей NVIDIA H200 NVL называется идеальной для разработки LLM.

HPE также объявила, что её облачная платформа HPE GreenLake for File Storage прошла сертификацию Nvidia DGX BasePOD и валидацию хранилища NVIDIA OVX, HPE Private Cloud AI, а также анонсированное оборудование будут доступны этой осенью за исключением платформы Cray XD670 на базе NVIDIA H200 NVL, который поступит в продажу этим летом. А после станут доступны и решения на базе Blackwell.

Постоянный URL: https://servernews.ru/1106757
20.06.2024 [12:38], Руслан Авдеев

Британский регулятор заинтересовался $14-млрд сделкой между HPE и Juniper Networks

У антимонопольного Управления по конкуренции и рынкам Великобритании (CMA) могут возникнуть вопросы к сделке между HPE и Juniper Networks, пишет The Register — IT-гигант намерен купить одного из крупнейших производителей сетевого оборудования за $14 млрд, но только если регуляторы одобрят сделку. Информация о покупке Juniper по цене в $40 за акцию появилась в январе, а уже в феврале был подан первый иск, в котором Juniper обвинили в сокрытии информации от инвесторов и акционеров.

Теперь CMA, неоднократно нарушавшая планы гигантов вроде Meta, AWS, Microsoft и NVIDIA, начала расследование предстоящей покупки. В частности, сейчас регулятор собирает комментарии от «любой заинтересованной стороны», включая конкурентов и клиентов, чтобы оценить возможные эффекты от сделки. Как заявляют в CMA, они хотят выяснить, не приведёт ли слияние к подавлению конкуренции на любых рынках товаров и услуг в Великобритании. Проще говоря, регулятор проводит антимонопольную проверку в соответствии с законом Enterprise Act 2002 года.

 Источник изображения: Jurica Koletić/unsplash.com

Источник изображения: Jurica Koletić/unsplash.com

Ранее в HPE заявляли, что покупка Juniper позволит удвоить сетевой бизнес компании и обеспечит более половины операционной прибыли. HPE рассчитывает, что решения Juniper помогут ей укрепить позиции на рынке ИИ-платформ. В 2015 году HPE потратила $3 млрд на покупку компании Aruba Networks, а в 2009 году она купила за $2,7 млрд бизнес 3Com.

Представители HPE говорят, что речь идёт о стандартном процессе рассмотрения сделки регулятором и компания принимает все меры, чтобы одобрение было получено. До 14 августа CMA должно решить, переходить ли ко второму этапу расследования сделки. HPE, в свою очередь, хочет закрыть сделку как можно раньше, хотя вероятность завершения процесса в конце этого или начале следующего года после вмешательства CMA несколько снизилась.

Постоянный URL: https://servernews.ru/1106772

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus