Лента новостей

29.11.2023 [12:57], Сергей Карасёв

HPE увеличила чистую годовую прибыль более чем в два раза

Компания Hewlett Packard Enterprise (HPE) опубликовала отчёт о работе в последней четверти и 2023 финансовом году в целом, который был закрыт 31 октября. Поставщик оборудования значительно улучшил показатели чистой прибыли, что объясняется растущим спросом на НРС-платформы и стремительным развитием сегмента ИИ.

Квартальная выручка составила $7,35 млрд, что находится в середине собственного прогнозного диапазона HPE. Однако это примерно на 7 % меньше прошлогоднего результата, когда компания получила $7,87 млрд. Чистая прибыль составила $642 млн, тогда как годом ранее были продемонстрированы чистые убытки в размере $304 млн.

 Источник изображений: HPE

Источник изображений: HPE

Подразделение Intelligent Edge, отвечающее в числе прочего за продажи продукции для Интернета вещей и сетевой бизнес Aruba, принесло $1,36 млрд, что на 41 % больше, чем годом ранее. Выручка в сегменте ИИ и высокопроизводительных вычислений (HPC & AI) составила $1,18 млрд — это на 37 % больше по сравнению с III четвертью 2022 финансового года. В сфере СХД квартальный объём продаж составил $1,1 млрд, что на 13 % меньше, чем годом ранее. Поступления от платформ для вычислений упали на 31 % год к году — до $2,6 млрд.

По итогам 2023 финансового года в целом HPE показала выручку в размере $29,14 млрд против $28,50 млрд в 2022-м. Таким образом, рост оказался на отметке 2 %. При этом чистая прибыль подскочила более чем в два раза — с $868 млн до $2,03 млрд. Годовая выручка подразделения Intelligent Edge поднялась на 42 %, достигнув $5,20 млрд. Бизнес HPC & AI принёс $3,91 млрд, что на 23 % больше прошлогоднего результата. По направлению СХД продажи зафиксированы на отметке $4,42 млрд — минус 4 % год к году. Выручка в сегменте вычислений сократилась на 11 %, составив $11,44 млрд.

В I квартале 2024 финансового года HPE ожидает показать выручку от $6,9 до $7,3 млрд, а чистая прибыль составит от 42 до 50 центов на акцию. В целом, в 2024 финансовом году компания намерена получить прибыль от $1,82 до $2,02 на ценную бумагу.

Постоянный URL: https://servernews.ru/1096655
29.11.2023 [12:52], Сергей Карасёв

Квартальная прибыль NetApp рухнула втрое, выручка тоже сократилась

Компания NetApp, специализирующаяся на разработке решений для хранения и управления данными, раскрыла показатели деятельности во II четверти 2024 финансового года, которая была закрыта 27 октября. По ключевым показателям зафиксирована отрицательная динамика.

За трёхмесячный период NetApp получила $1,56 млрд выручки против $1,66 млрд годом ранее. Таким образом, зафиксировано сокращение на 6 %. Чистая прибыль рухнула более чем в три раза — с $750 млн до $233 млн. Прибыль в пересчёте на одну ценную бумагу составила $1,10 против $3,41 во II квартале 2023 финансового года.

 Источник изображения: NetApp

Источник изображения: NetApp

Отмечается, что основная часть выручки NetApp теперь поступает от облачных услуг благодаря партнёрству с такими крупными провайдерами, как Amazon Web Services (AWS), Google Cloud и Microsoft Azure. Причём публичное облако сейчас составляет около десятой части доходов NetApp.

В сегменте гибридного облака выручка оказалась на отметке $1,41 млрд, что меньше прошлогоднего результата в $1,52 млрд. Сервисы публичного облака принесли $154 млн, тогда как во II четверти предыдущего финансового года показатель равнялся $142 млн, а показатель ARR вырос с $603 до $609 млн. Для флеш-массивов показатель ARR в годовом исчислении увеличился на 1 % — с $3,1 млрд до $3,2 млрд.

По итогам III четверти 2024 финансового года NetApp рассчитывает получить выручку от $1,51 млрд до $1,67 млрд, тогда как чистая прибыль прогнозируется в диапазоне от $1,17 до $1,27 в пересчёте на одну ценную бумагу. По итогам года в целом ожидается прибыль в размере $4,15–$4,35 на акцию.

Постоянный URL: https://servernews.ru/1096656
29.11.2023 [09:09], Алексей Степин

Экологичные GPU-серверы: HOSTKEY развернула новую площадку в Исландии на базе «зелёного» ЦОД Verne Global

Компания HOSTKEY, оказывающая услуги по размещению, аренде и обслуживанию серверного оборудования, объявила о запуске новой хост-площадки, на этот раз не совсем обычной. Речь идёт о дата-центре Verne Global уровня Tier III в Исландии, полностью запитанному от возобновляемых источников энергии.

Благодаря тому, что исландский ЦОД питается исключительно от ГЭС и геотермальных станций с низкой стоимостью электроэнергии, а относительно низкая «забортная» температура упрощает и удешевляет охлаждение, его можно назвать действительно «зелёным». Сочетание этих качеств позволяет без лишних затрат размещать в ЦОД мощные серверы, в том числе с ускорителями для ИИ и HPC-задач. Собственно говоря, именно это теперь и предлагает HOSTKEY, причём, как и прежде, она готова принимать оплату в рублях.

Речь идёт о серверах — как выделенных (VDS), так и виртуальных (VPS) — с графическими ускорителями. В настоящее время сообщается только о решениях NVIDIA, но спектр доступных GPU достаточно широк — в него входят как игровые видеокарты GeForce RTX 3080/3090/4090, так и профессиональные RTX A4000/A5000/A6000. Некоторые конфигурации включают до четырёх GPU, в том числе с NVLink-подключением.

 Источник: Verne Global

Источник: Verne Global

Объём оперативной памяти стартует с отметки 32 Гбайт (VPS) и может достигать 384 Гбайт (выделенный сервер), количество выделенных ядер в VPS-варианте — от 8. Все системы оснащены SSD, а в старших конфигурациях предлагаются NVMe-накопители. В зависимости от конфигурации в системе могут быть использованы процессоры Intel Core i9, AMD Ryzen или AMD EPYC. Доступны индивидуальные конфигурации, а выделенные серверы оснащены IPMI.

 Источник: Verne Global

Источник: Verne Global

Кроме того, есть и традиционные VPS без ускорителей: 1–32 ядра (Intel Xeon E5-26xx или Cascade Lake-SP Refresh 6226R), 1–32 Гбайт RAM, 15–480 Гбайт SSD (в том числе NVMe). Время развёртывания для VPS, по словам HOSTKEY, начинается от 15 минут, а для выделенных вариантов со сложной конфигурации оно не превышает 4 часов. GPU-серверам по умолчанию полагается подключение 1 Гбит/с и 50 Тбайт трафика ежемесячно, а обычным VPS — такое же подключение, но только 3 Тбайт трафика. Как и во всех других регионах, в Исландии доступен маркетплейс, который позволяет быстро развернуть различное ПО.

ЦОД Verne Global оснащён системой резервного питания по схеме N+1, предусмотрено двойное резервирование (2N) от источника питания до стойки. Также Verne Global говорит, что на площадке развёрнуты высокочувствительная система HSSD/VESDA с газовым тушением, система круглосуточного наблюдения и обнаружения вторжения, а также предусмотрен зональный контроль доступа. Кампус подключён к кабельным системам DANICE, FARICE-1, Greenland Connect, Hibernia Express, Iceland Connect и Sea-Me-We 5. Заявлена защита от DDoS-атак.

Постоянный URL: https://servernews.ru/1096382
29.11.2023 [03:43], Владимир Мироненко

AWS представила 96-ядерный Arm-процессор Graviton4 и ИИ-ускоритель Trainium2

Amazon Web Services представила Arm-процессор нового поколения Graviton4 и ИИ-ускоритель Trainium2, предназначенный для обучения нейронных сетей. Всего к текущему моменту компания выпустила уже 2 млн Arm-процессоров Graviton, которыми пользуются более 50 тыс. клиентов.

 Amazon Graviton4 (Изображение: AWS)

Amazon Graviton4 (Изображение: AWS)

«Graviton4 представляет собой четвёртое поколение процессоров, которое мы выпустили всего за пять лет, и это самый мощный и энергоэффективный чип, который мы когда-либо создавали для широкого спектра рабочих нагрузок», — отметил Дэвид Браун (David Brown), вице-президент по вычислениям и сетям AWS. По сравнению с Graviton3 новый чип производительнее на 30 %, включает на 50 % больше ядер и имеет на 75 % выше пропускную способность памяти.

 Изображение: AWS

Изображение: AWS

Graviton4 будет иметь до 96 ядер Neoverse V2 Demeter (2 Мбайт L2-кеша на ядро) и 12 каналов DDR5-5600. Кроме того, новый чип получит поддержку шифрования трафика для всех своих аппаратных интерфейсов. Процессор изготавливается по 4-нм техпроцессу TSMC и, вероятно, имеет чиплетную компоновку. Возможно, это первый CPU компании, ориентированный на работу в двухсокетных платформах.

 Изображение: AWS

Изображение: AWS

Поначалу Graviton4 будет доступен в инстансах R8g (пока в статусе превью), оптимизированных для приложений, интенсивно использующих ресурсы памяти — высокопроизводительные базы данных, in-memory кеши и Big Data. Эти инстансы будут поддерживать более крупные конфигурации, иметь в три раза больше vCPU и в три раза больше памяти по сравнению с инстансами Rg7, которые имели до 64 vCPU и 512 Гбайт ОЗУ.

 Amazon Trainium2 (Изображение: AWS)

Amazon Trainium2 (Изображение: AWS)

В свою очередь, Trainium 2 предназначен для обучения больших языковых моделей (LLM) и базовых моделей. Сообщается, что ускоритель в сравнении с Trainium 1 вчетверо производительнее и при этом имеет в 3 раза больший объём памяти и в 2 раза более высокую энергоэффективность. Инстансы EC2 Trn2 получат 16 ИИ-ускорителей с возможностью масштабирования до 100 тыс. единиц в составе EC2 UltraCluster, которые суммарно дадут 65 Эфлопс, то есть по 650 Тфлопс на ускоритель. Как утверждает Amazon это позволит обучать LLM с 300 млрд параметров за недели вместо месяцев.

Со временем на Graviton4 заработает SAP HANA Cloud, портированием и оптимизацией этой платформы уже занимаются. Oracle также перенесла свою СУБД на Arm, а заодно перевела все свои облачные сервисы на чипы Ampere, в которую в своё время инвестировала. Microsoft же пошла по пути AWS и недавно анонсировала 128-ядерый Arm-процессор (Neoverse N2) Cobalt 100 и ИИ-ускоритель Maia 100 собственной разработки. Всё это может представлять отдалённую угрозу для AMD и Intel. С NVIDIA же все всё равно пока что продолжают дружбу — именно в инфраструктуре AWS, как ожидается, появится самый мощный в мире ИИ-суперкомпьютер на базе новых GH200.

Постоянный URL: https://servernews.ru/1096651
29.11.2023 [01:21], Руслан Авдеев

Cerebras, критиковавшая NVIDIA за сотрудничество с Китаем, сама оказалась связана с компанией, ведущей дела с Пекином

Хотя стартап Cerebras, занимающийся разработкой чипов, раскритиковал NVIDIA за попытки обойти санкционные ограничения в отношении Китая и призвал соблюдать не букву, но дух американского закона, у компании, похоже, нашлись свои скелеты в шкафу. Как сообщает The Register, сейчас в США расследуют деятельность клиента Cerebras — группы G42, возможно, помогавшей Поднебесной обходить санкционные ограничения.

Американские спецслужбы подозревают, что базирующаяся в ОАЭ многопрофильная компания G42 поставляет в Китай передовые технологии. Для своих ИИ-исследований компания обратилась к Cerebras с целью постройки суперкомпьютерного кластера Condor Galaxy за $100 млн, а всего стартап намерен построить девять подобных объектов на $900 млн. При этом узлы кластера используют разработанные Cerebras чипы WSE-2, подходящие для обучения ИИ-систем.

 Источник изображения:  Arthur Wang/unsplash.com

Источник изображения: Arthur Wang/unsplash.com

Как показывают предварительные результаты расследования американских журналистов, властей и спецслужб, G42 пытается сотрудничать с Пекином и работает с китайскими компаниями вроде Huawei, давно находящимися под санкциями. В самой G42 утверждают, что принимают все меры для того, чтобы соблюдать американские ограничения. При этом, по данным журналистов, G42 считают прокси-компанией для работы в интересах КНР, помогающей Пекину получать вычислительные ресурсы и подсанкционные технологии.

По словам главы Cerebras Эндрю Фельдмана (Andrew Feldman), его компания точно не будет вести бизнес с Китаем. Бизнесмен попал в неловкую ситуацию после того, как появилась информация о тесных связях G42 с Пекином. На запрос журналистов в Cerebras заявили, что кластеры Condor Galaxy находятся в США, а G42 получает к ним облачный доступ, так что любая активность контролируется и соответствует американским законам — государства-противники не имеют прямого доступа к ИИ-системам. Фельдман якобы не знал о сомнительном статусе G42, а в стартапе подчеркнули, что не комментируют слухи.

Бюро промышленности и безопасности США уже обратилось к поставщикам облачных инфраструктур для консультаций о целесообразности дополнительных ограничений доступа к их услугам из некоторых стран. В частности, бюро интересует, как операторы намерены выявлять разработчиков ИИ-моделей, вызывающих обеспокоеность властей и что можно предпринять для устранения угроз. Кроме того, президент США предложил новые правила, согласно которым облакам потребуется докладывать о деятельности иностранцев, связанной с обучением больших языковых моделей (LLM).

Постоянный URL: https://servernews.ru/1096627
28.11.2023 [22:20], Игорь Осколков

NVIDIA анонсировала суперускоритель GH200 NVL32 и очередной самый мощный в мире ИИ-суперкомпьютер Project Ceiba

AWS и NVIDIA анонсировали сразу несколько новых совместно разработанных решений для генеративного ИИ. Основным анонсом формально является появление ИИ-облака DGX Cloud в инфраструктуре AWS, вот только облако это отличается от немногочисленных представленных ранее платформ DGX Cloud тем, что оно первом получило гибридные суперчипах GH200 (Grace Hoppper), причём в необычной конфигурации.

 Изображения: NVIDIA

Изображения: NVIDIA

В основе AWS DGX Cloud лежит платформа GH200 NVL32, но это уже не какой-нибудь сдвоенный акселератор вроде H100 NVL, а целая, готовая к развёртыванию стойка, включающая сразу 32 ускорителя GH200, провязанных 900-Гбайт/с интерконнектом NVLink. В состав такого суперускорителя входят 9 коммутаторов NVSwitch и 16 двухчиповых узлов с жидкостным охлаждением. По словам NVIDIA, GH200 NVL32 идеально подходит как для обучения, так и для инференса действительно больших LLM с 1 трлн параметров.

Простым перемножением количества GH200 на характеристики каждого ускорителя получаются впечатляющие показатели: 128 Пфлопс (FP8), 20 Тбайт оперативной памяти, из которых 4,5 Тбайт приходится на HBM3e с суммарной ПСП 157 Тбайтс, и агрегированная скорость NVLink 57,6 Тбайт/с. И всё это с составе одного EC2-инстанса! Да, новая платформа использует фирменные DPU AWS Nitro и EFA-подключение (400 Гбит/с на каждый GH200). Новые инстансы, пока что безымянные, можно объединять в кластеры EC2 UltraClasters.

Одним из таких кластеров станет Project Ceiba, очередной самый мощный в мире ИИ-суперкомпьютер с FP8-производительность 65 Эфлопс, объединяющий сразу 16 384 ускорителя GH200 и имеющий 9,1 Пбайт памяти, а также агрегированную пропускную способность интерконнекта на уровне 410 Тбайт/с (28,8 Тбайт/с NVLink). Он и станет частью облака AWS DGX Cloud, которое будет доступно в начале 2024 года. В скором времени появятся и EC2-инстансы попроще: P5e с NVIDIA H200, G6e с L40S и G6 с L4.

Постоянный URL: https://servernews.ru/1096645
28.11.2023 [18:34], Руслан Авдеев

Vertiv представила деревянные модульные ЦОД TimberMod

Компания Vertiv представила образец деревянного дата-центра. Как сообщает Datacenter Konwledge, такое решение призвано помочь операторам ЦОД снизить углеродные выбросы и достичь поставленных целей устойчивого развития. С учётом того, что на производство цемента в мире приходится около 8 % мировых углеродных выбросов, деревянные ЦОД могут стать экологичной альтернативой традиционным кампусам.

Вопросы экобезопасности в индустрии ЦОД приобретают всё большее значение, поскольку только в США спрос на дата-центры, как ожидается, будет расти на 10 % ежегодно до 2030 года. Это заставит бизнес строить всё новые объекты, причём сегодня они в основном возводятся из стали и бетона. Для того, чтобы решить экологические проблемы клиентов, Vertiv построила образец TimberMod, а на основе предложенной концепции, вероятно, будут создаваться и другие ЦОД.

 Источник изображения: Vertiv

Источник изображения: Vertiv

Решение TimberMod доступно в качестве экобезопасной опции при создания готовых модульных ЦОД серий Power Module и SmartMod. Для строительства применяется древесина, заготовленная с учётом требований к устойчивым методам ведения хозяйства. При этом конструкция модулей устойчива к землетрясениям и ветрам и пожаробезопасна.

Хотя деревянные ЦОД кажутся довольно необычной концепцией, Vertiv — не первая компания, которая использует древесину для возведения таких объектов. Например, шведский оператор EcoDataCenter ещё в 2019 году открыл один из первых в мире экоустойчивых ЦОД. Центр не только на 100 % снабжается электричеством за счёт энергии ветра и воды, но и выполнен из «самозатухающей» кросс-ламинированной древесины, способной противостоять огню десятки минут.

 Источник изображения: Vertiv

Источник изображения: Vertiv

В самой EcoDataCenter заявили, что на севере дерево веками используется в качестве строительного материала, а в Швеции применяется для возведения объектов самого разного назначения и сегодня. Так, на новый ЦОД EcoDataCenter 2 потрачено 3200 м3 леса — такой объём в Швеции вырастает всего за 14 минут.

Аналитики Omdia подчеркивают, что деревянные дата-центры не являются такой уж новинкой, но благодаря модульным решениям Vertiv они стали доступнее. Модульные ЦОД позволяют сократить время строительства на 40–80 %, причём деревянные модули создаются даже быстрее аналогов из бетона, стали и композитных материалов, а углеродный выброс при строительстве можно снизить на ⅔.

Постоянный URL: https://servernews.ru/1096633
28.11.2023 [18:11], Руслан Авдеев

NVIDIA продала более 500 тыс. ИИ-ускорителей H100, но менее дефицитными они не стали

В III квартале 2024 фискального года, завершившегося в октябре 2023-го, компания NVIDIA заработала впечатляющие $14,5 млрд на решениях для дата-центров. Как сообщает Tom’s Hardware, значительная часть выручки приходится на передовые ускорители H100 для ИИ и HPC-систем.

Данные опубликовала компания Omdia, отслеживающая активность на рынке IT-решений. Согласно её анализу, крупнейшими покупателями ускорителей H100 стали гиперскейлеры вроде Meta и Microsoft, значительно обогнавших по объёмам закупок Google, Amazon, Oracle и Tencent. Если Microsoft и Meta приобрели по 150 тыс. ускорителей, то их «коллеги» по IT-рынку — по 50 тыс. При этом гиперскейлерам отдаётся очевидный приоритет при выполнении заказов.

В Omdia пришли к выводу, что до конца года будет поставлено почти 650 тыс. H100. В то же время срок выполнения новых заказов на серверы на базе ускорителей компании вырос с 36 до 52 недель. Так, Dell, HPE и Lenovo не могут полностью удовлетворить свои потребности в ускорителях для своих серверов в кратчайшие сроки. В итоге год к году поставки серверов в количественном выражении рухнут на 17–20 %, однако общая выручка поднимется на 6–8 %.

 Источник изображения: Omdia

Источник изображения: Omdia

В 2027 году рынок серверов должен вырасти до $195,6 млрд, причём основное предпочтение будет отдаваться специализированным вариантам под конкретные задачи, оснащённым специальными сопроцессорами. Запрос на серверы с кастомными конфигурациями становится новой нормой по мере того, как заказчики осознали экономическую эффективность применения сопроцессоров и ускорителей. Пионерами в этой сфере стали компании, связанные с ИИ и медиаконтентом, но привлекательность таких решений, как ожидается, в ближайшем будущем будет оценена и в других секторах.

Постоянный URL: https://servernews.ru/1096597
28.11.2023 [16:28], Владимир Мироненко

896 vCPU и 32 Тбайт RAM: AWS анонсировала самые крупные инстансы EC2 U7i для in-memory баз данных

Облачная платформа AWS представила инстансы Amazon EC2 U7i, предназначенные для поддержки крупных in-memory СУБД, включая SAP HANA, Oracle и SQL Server. Новые инстансы используют кастомные процессоры Intel Xeon Sapphire Rapids и обеспечивают по сравнению с инстансами EC2 High Memory первого поколения до 125 % большую вычислительную производительность и до 120 % большую производительность памяти.

EC2 U7i также обеспечивают в 2,5 раза большую пропускную способность EBS-томов, позволяя наполнять базы данных in-memory со скоростью до 44 Тбайт/час. Инстанс U7i поддерживает подключение до 128 томов EBS gp2/gp3 или io1/io2. Каждый том io2 Block Express может иметь размер до 64 ТиБ и обеспечивать производительность до 256 тыс. IOPS со скоростью до 32 Гбит/с.

Инстансы поддерживают адаптеры ENA Express, обеспечивающем пропускную способность до 25 Гбит/с на каждый сетевой поток. Всего же каждый инстанс может получить 100-Гбит/с подключение для работы с сетью и EBS. Максимальная конфигурация включает 896 vCPU и 32768 ГиБ оперативной памяти. В число поддерживаемых U7i операционных систем входят Red Hat Enterprise Linux и SUSE Enterprise Linux Server. Инстансы U7i в виде превью доступны в регионах US West (Орегон), Азиатско-Тихоокеанском (Сеул) и Европейском (Франкфурт).

Постоянный URL: https://servernews.ru/1096578
28.11.2023 [15:41], Сергей Карасёв

Omdia: по итогам года поставки серверов в штучном выражении рухнут на 20 %, но выручка вырастет

Компания Omdia обнародовала предварительную статистику по мировому серверному рынку в 2023 году. Аналитики отмечают, что отрасль претерпевает трансформацию, что объясняется стремительным развитием технологий ИИ, растущей потребностью в системах со специализированными ускорителями и пр.

Специалисты Omdia называют наблюдающуюся тенденцию гипергетерогенными вычислениями (hyper heterogeneous computing). Речь идёт об увеличении спроса на серверы, которые оборудованы аппаратными компонентами для ускорения выполнения определённых задач. Это могут быть сопроцессоры для инференса, например, изделия NeuReality или карты для ускорения обработки сервисов, скажем, Nebulon Medusa2.

 Источник изображения: Microsoft

Источник изображения: Microsoft

По оценкам Omdia, в 2023 году глобальные поставки серверов в штучном выражении рухнут на 17–20 % по сравнению с прошлым годом. Вместе с тем из-за роста стоимости систем в связи с добавлением дополнительных аппаратных компонентов общая выручка поднимется на 6–8 %.

Аналитики полагают, что в свете развития гипергетерогенных вычислений к 2027 году на CPU и специализированные сопроцессоры будет приходиться более 30 % расходов дата-центров на оборудование по сравнению с менее чем 20 % десятью годами ранее. Если рассматривать сегмент GPU-серверов, то Microsoft и Meta Platforms являются ведущими заказчиками: ожидается, что эти компании к концу 2023-го получат более 150 тыс. изделий NVIDIA H100. Это в три раза больше по сравнению с объёмом закупок Google, Amazon и Oracle.

 Источник: Omdia (via aibusiness.com)

Источник: Omdia (via aibusiness.com)

В отчёте Omdia также отмечается, что спрос на GPU-системы со стороны гиперскейлеров настолько высок, что традиционные поставщики в лице Dell, Lenovo и HPE попросту не в состоянии выполнять заказы на поставки серверов с ускорителями H100 из-за дефицита этих изделий. Время ожидания для клиентов может достигать 36–52 недель.

Из-за необходимости использования более мощных серверов операторам ЦОД приходится тратить больше денег на инфраструктуру электропитания и охлаждения. Так, выручка от стоечных средств распределения питания подскочила на 17 % в I полугодии 2023-го, а расходы на системы охлаждения увеличились на 7 % в годовом исчислении. При этом объём сегмента прямого жидкостного охлаждения вырастет на 80 % в нынешнем году.

Постоянный URL: https://servernews.ru/1096592

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus