Лента новостей

16.11.2023 [21:33], Андрей Крупин

Positive Technologies представила PT Cloud Application Firewall — облачный продукт для защиты веб-приложений

Компания Positive Technologies выпустила на рынок межсетевой экран уровня веб-приложений PT Cloud Application Firewall, доступный из облака и предлагаемый заинтересованным организациям по подписочной модели.

В основу облачного брандмауэра положен программный комплекс PT Application Firewall, обеспечивающий комплексную защиту от известных угроз и атак нулевого дня, эксплуатации злоумышленниками уязвимостей в бизнес-логике приложений и онлайновых сервисов, DDoS-атак уровня L7 и вредоносных ботов. Также решение упрощает соблюдение требований PCI DSS и других международных, государственных и корпоративных стандартов безопасности.

 Сценарии использования PT Cloud Application Firewall

Сценарии использования PT Cloud Application Firewall

Решение PT Cloud Application Firewall ориентировано на организации малого и среднего бизнеса. Облачная версия продукта предоставляется по ежемесячной подписке, что позволяет выбрать оптимальный тариф в зависимости от загруженности веб-ресурса, не требует вложений в аппаратное обеспечение и привлечение специалистов по информационной безопасности. Установка, настройка и запуск брандмауэра осуществляются через партнёров Positive Technologies, а управлять им можно из любой точки мира.

«По итогам девяти месяцев 2023 года доля PT Application Firewall в объёме отгрузок компании составила 16 %. За год продукт показал двукратный рост продаж. Сейчас за более чем 10 лет существования PT Application Firewall его пользователями являются около 2000 российских компаний из разных отраслей экономики. При этом мы не можем останавливаться в развитии, несмотря на тот факт, что сейчас продукт — лидер в своём классе. Сегодня мы выпускаем облачную версию PT Application Firewall, чтобы сделать защиту веб-приложений доступной для всех организаций. Но и это только первый шаг компании к переходу на cloud-native-платформу безопасной разработки, которая будет включать в себя и другие средства защиты», — говорится в заявлении Positive Technologies.

Постоянный URL: https://servernews.ru/1096104
16.11.2023 [21:31], Сергей Карасёв

Суперкомпьютер ISEG отделившейся от «Яндекса» компании Nebius стал одним из самых мощных в мире

Компания Nebius N.V. со штаб-квартирой в Нидерландах, созданная бывшими сотрудниками «Яндекса», вошла в первую двадцатку ноябрьского рейтинга мощнейших суперкомпьютеров мира TOP500 со своей НРС-системой ISEG. Этот вычислительный комплекс, названный в честь сооснователя «Яндекса» Ильи Сегаловича, расположился на 16-й строке списка.

 Источник изображения: Nebius

Источник изображения: Nebius

В основу ISEG положены HGX-узлы Gigabyte G593-SD0 с двумя процессорами Intel Xeon Sapphire Rapids и восемью ускорителями NVIDIA H100 (SXM). В частности, задействованы чипы Platinum 8468 (48 ядер; 96 потоков; 2,1–3,8 ГГц; 350 Вт). Общее количество ядер в составе суперкомпьютера достигает 218 880. Применён интерконнект Infiniband NDR400.

Производительность ISEG достигает 46,54 Пфлопс (FP64), пиковое быстродействие — 86,79 Пфлопс. С такими показателями система оставляет далеко позади все российские суперкомпьютеры. В частности, самый мощный НРС-комплекс РФ — «Червоненкис» компании «Яндекс» — располагается только на 36-й позиции с результатом 21,53 Пфлопс. Таким образом, по быстродействию этот суперкомпьютер уступает системе ISEG более чем в два раза.

 Источник изображения: Nebius

Источник изображения: Nebius

Forbes отмечает, что в процессе создания ISEG интеллектуальная собственность и технологии «Яндекса» не использовались. Тестирование суперкомпьютера для рейтинга TOP500 проводилось с ОС Ubuntu Linux 20.04. Энергопотребление системы составило 1,32 МВт. В списке Green500 машина занимает 15-е место.

Постоянный URL: https://servernews.ru/1096087
16.11.2023 [19:35], Руслан Авдеев

Японские Ni–Zn аккумуляторы FDK готовы для использования в ИБП дата-центров

Японский производитель аккумуляторов FDK, поддерживаемый Fujitsu, заявил о пригодности усовершенствованных никель-цинковых элементов питания для использования в ИБП дата-центров. Как сообщает The Register, в компании считают их достаточно надёжными для практического применения на столь важных объектах. Производитель настолько уверен в этой технологии, что готов обновить производственные мощности для массового выпуска АКБ нового типа.

 Изображение: FDK

Изображение: FDK

Дебютировавшие в марте варианты батарей подверглись длительному тестированию, доказав возможность сохранять 70 % ёмкости после 800 циклов зарядки/разрядки. Как сообщают в FDK, это показатель вдвое лучше, чем у обычных свинцово-кислотных АКБ. Кроме того, они легче и экологичнее. Аккумуляторы также прошли ряд тестов, предусматривавших размещение в уличных шкафах при температурах от 0 до +50 °C — они продолжали безопасно работать без потери ёмкости.

 Источник изображения: Roberto Sorin/unsplash.com

Источник изображения: Roberto Sorin/unsplash.com

В прошлом Ni–Zn аккумуляторы имели короткий жизненный цикл из-за быстрого роста цинковых «дендритов», способных вызвать замыкание. Однако новейшие разработки вроде добавления присадок в анод и электролит и совершенствование сепаратора позволили значительно усовершенствовать технологию. При этом удалось сохранить высокую плотность хранения энергии и возможность быстрого заряда, что для оборудования вроде ИБП дата-центров, чем длительность жизненного цикла.

 Источник изображения: FDK

Источник изображения: FDK

В компании считают, что Ni–Zn элементы являются самыми многообещающими для стационарных решений, включая системы резервного питания и энергохранения. Они используют водные электролиты, дешевле литиевых вариантов и ёмче свинцово-кислотных. Однако, например, для электромобилей они не очень подходят, поскольку плотность энергии у них всё-таки значительно ниже, чем у литий-ионных альтернатив.

Постоянный URL: https://servernews.ru/1096005
16.11.2023 [19:11], Андрей Крупин

Первая и единственная: выпущена экспериментальная сборка российской ОС «Альт» для китайской архитектуры Loongarch64

Компания «Базальт СПО» выпустила сборку операционных систем «Альт» на базе китайских процессоров с архитектурой Loongarch64. Утверждается, что в настоящий момент это первая и единственная российская ОС, работающая с данной аппаратной платформой.

Сборка выполнена с графической средой Xfce на базе нестабильной (экспериментальной) ветки репозитория проекта «Сизиф». Подчёркивается, что на адаптацию программного кода ОС «Альт» для архитектуры Loongarch64 ушло всего девять месяцев. Такой быстрый результат стал возможен благодаря автоматизации сборочного процесса с помощью технологии догоняющей сборки пакетов.

«Наша компания представила первую в России операционную систему для архитектуры Loongarch64. Процессоры на её основе появились на отечественном рынке совсем недавно, а значит, организациям и предприятиям предстоит масштабная работа по адаптации программного обеспечения к работе с китайской архитектурой. Операционные системы «Альт» могут стать платформой для тестирования таких продуктов», — сообщил генеральный директор «Базальт СПО».

 Источник изображения: «Базальт СПО»

Источник изображения: «Базальт СПО»

Операционные системы «Альт» работают на 8 архитектурах: основных — i586, x86_64, aarch64, armh, ppc64le, и «догоняющих» — «Эльбрус», mipsel, riscv64. Опыт создания ОС для этих аппаратных платформ был использован при портировании на Loongarch64. В дальнейшем планируется релиз дистрибутивов ОС семейства «Альт» для китайской процессорной архитектуры.

Постоянный URL: https://servernews.ru/1096085
16.11.2023 [17:12], Руслан Авдеев

Игры кончились: облачные игровые сервисы помогут пережить дефицит ускорителей для ИИ

По мере того, как генеративный ИИ становится всё популярнее, растёт и дефицит вычислительных ресурсов, что создаёт значимые барьеры для новичков, желающих заняться бизнесом в этой сфере. Как сообщает DigiTimes, проблему, возможно, помогут решить облачные игровые сервисы, располагающие огромным числом высокопроизводительных ускорителей, которые можно использовать для ИИ-проектов.

Например, тайваньское подразделение японского сервис-провайдера Ubitus располагает десятками тысяч ускорителей — столько имеют немногие бизнесы в IT-отрасли. По мнению некоторых экспертов, облачные игровые сервисы скоро могут принять участие в разработках, связанных с генеративным ИИ. По классификации SemiAnalysis IT-компании делились на две группы: «богатые» ускорителями и «бедные». В первую группу входят немногочисленные компании, владеющие более 20 тыс. ускорителей A100 или H100, например, Google, Anthropic, X, Meta, Inflection и OpenAI, причём у некоторых есть и более 100 тыс. ускорителей.

 Изображение: NVIDIA

Изображение: NVIDIA

В первой половине ноября 2023 года Ubitus объявила о сотрудничестве с Национальным университетом Тайваня в области ИИ-вычислений — компания, возможно, является крупнейшим на острове оператором ускорителей, изначально предназначенных для облачных игровых проектов. Фактически излишки ресурсов уже направляются на работу с большими языковыми моделями (LLM), в частности, на китайском языке. По некоторым данным, IT-гиганты вроде Google уже предлагали компании рассмотреть возможность участия в развитии ИИ-отрасли на Тайване.

При этом тайваньские эксперты подчёркивают, что для облачных игр обычно применяют флагманские GPU серии RTX — они гораздо менее производительны в ИИ-задачах, но и на порядок дешевле специализированных ускорителей. Впрочем, в Ubitus утверждают, что преимущественно используют ускорители именно такого типа, включая H100, A100 и L40S в PCIe-исполнении.

Постоянный URL: https://servernews.ru/1095946
16.11.2023 [16:23], Сергей Карасёв

В облаке Microsoft Azure появились первые в отрасли ИИ-инстансы на базе NVIDIA H100 NVL

Корпорация Microsoft объявила о том, что на базе облака Azure стали доступны виртуальные машины NC H100 v5 для HPC-вычислений и нагрузок ИИ. Это, как отмечается, первые в отрасли облачные инстансы на базе ускорителей NVIDIA H100 NVL. Данное решение объединяет два PCIe-ускорителя H100, соединённых посредством NVIDIA NVLink. Объём памяти HBM3 составляет 188 Гбайт, а заявленная FP8-производительность (с разреженностью) достигает почти 4 Пфлопс.

Инстансы H100 v5 основаны на платформе AMD EPYC Genoa. В зависимости от реализации, доступны 40 или 80 vCPU и 320 и 640 Гбайт памяти соответственно. В первом случае задействован один ускоритель NVIDIA H100 NVL с 94 Гбайт памяти HBM3, во втором — два ускорителя с суммарно 188 Гбайт памяти HBM3. Пропускная способность сетевого подключения — 40 и 80 Гбит/с.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

В отличие от виртуальных машин серии ND, рассчитанных на самые крупные модели ИИ, инстансы NC оптимизированы для обучения и инференса моделей меньшего размера, которым не требуются сверхмасштабные массивы данных. Виртуальные машины Azure NC H100 v5 также хорошо подходят для определённых НРС-нагрузок: это гидродинамика, молекулярная динамика, квантовая химия, прогнозирование погоды и моделирование климата, а также финансовая аналитика.

В 2024 году Microsoft добавит в облако Azure виртуальные машины с новейшими ускорителями NVIDIA H200: оно смогут обрабатывать более крупные модели ИИ без увеличения задержки. А уже сейчас клиентам Azure стал доступен сервис DGX Cloud.

Постоянный URL: https://servernews.ru/1096056
16.11.2023 [16:15], Сергей Карасёв

iXsystems представила двухконтроллерные All-Flash СХД TrueNAS F-Series на базе NVMe SSD

Компания iXsystems анонсировала СХД семейства TrueNAS F-Series в форм-факторе 2U. Устройства выполнены на основе NVMe SSD и оснащены двумя контроллерами, а заявленная доступность достигает 99,999 %. Изделия подходят для решения задач в области ИИ, машинного обучения, виртуализации и пр.

В серию вошли модификации F60 и F100. Они выполнены в корпусе глубиной 686 мм. Допускается установка 24 накопителей SFF. Каждый из контроллеров наделён 512 Гбайт DRAM-кеша. Предусмотрены два сетевых порта 10GbE и порт управления. Модель TrueNAS F60 располагает четырьмя оптическими портами 40/100GbE, модификация TrueNAS F100 — шестью. Максимальная пропускная способность хранилищ составляет соответственно 20 Гбайт/с и 30 Гбайт/с.

 Источник изображения: iXsystems

Источник изображения: iXsystems

Вместимость достигает 720 Тбайт при использовании SSD на 30 Тбайт. При использовании СХД и дополнительных полок максимальная общая ёмкость составляет 2,1 Пбайт у F60 (две полки) и 3,5 Пбайт у F100 (четыре полки), а эффективная ёмкость послек компресии и дедупликации — 4 Пбайт и 7 Пбайт соответственно.

 Источник изображения: iXsystems

Источник изображения: iXsystems

Реализована поддержка SMB v1/2/3, NFSv3/v4, AFP, FTP, WebDAV, iSCSI, OpenStack Cinder, S3, Minio. Для СХД доступно обновлённое ПО TrueNAS SCALE версии 23.10, основанное на ядре Linux 6.1 и OpenZFS 2.2. Оно предлагает возможности виртуализации KVM, поддержку контейнеров, интеграцию с Kubernetes и функции масштабирования до 1200 накопителей. В версии TrueNAS SCALE 23.10 улучшен пользовательский интерфейс.

Габариты СХД составляют 686 × 483 × 89 мм, вес — 19,5 кг без установленных накопителей. Диапазон рабочих температур — от +5 до +35 °C. Пробные поставки СХД TrueNAS F-Series уже начались. Стоимость версии F60 начинается с $60 тыс., модификации F100 — со $100 тыс.

Постоянный URL: https://servernews.ru/1096050
16.11.2023 [16:10], Андрей Крупин

UserGate представила релиз-кандидат ОС UGOS 7.1, а также новые ИБ-решения класса SIEM и EDR

Российская компания UserGate объявила о релиз-кандидате версии 7.1 операционной системы UGOS, которая является основой для экосистемы UserGate SUMMA, включающей все необходимые инструменты для комплексной защиты современной IT-инфраструктуры.

Платформа UGOS 7.1 Release Candidate получила поддержку технологии UserID с расширенными возможностями идентификации пользователей, новый движок IPSv3 модуля обнаружения вторжений и доработанные средства контроля сетевого трафика на уровне приложений L7 по модели OSI с возможностью создания пользовательских сигнатур. Помимо этого, ОС дополнилась поддержкой протокола VPN IKEv2 и технологии UpStream Proxy, позволяющей предоставлять безопасный доступ в интернет там, где он по умолчанию не предусмотрен — например, для обновления продуктов ИБ, находящихся в закрытых сегментах сети.

 Экосистема продуктов безопасности UserGate SUMMA

Экосистема продуктов безопасности UserGate SUMMA

В рамках релиз-кандидата UGOS 7.1 компания также представила два новых продукта — UserGate Client и UserGate SIEM Light.

UserGate Client — программное обеспечение класса Endpoint Detection & Response (EDR) для конечных станций. Оно обеспечивает безопасное удалённое соединение посредством VPN, контролирует доступ в сеть на основе политик соответствия требованиям (Network Access Control), реализует подключение к корпоративной сети, построенное на принципах сетевого доступа с нулевым доверием (Zero Trust Network Access), и решает прочие задачи по обеспечению защиты пользовательских устройств.

 Функции UserGate Client

Функции UserGate Client

UserGate SIEM Light — система управления событиями информационной безопасности (Security Information and Event Management), отвечающая за сбор информации из различных источников и приведение их к единому формату для удобства последующего разбора и анализа инцидентов. Платформа обладает функциональностью решений класса IRP/SOAR, позволяет анализировать поведение различных процессов, выявлять риски и автоматически обеспечивать на основе этого анализа адекватную реакцию, защищать от угроз или аномального поведения на самой ранней стадии, а также управлять процессами реагирования на инциденты информационной безопасности.

Оба решения входят в экосистему UserGate SUMMA. Все продукты UserGate реализованы как в виде программно-аппаратных комплексов, так и в виртуальном исполнении с поддержкой всех существующих на рынке гипервизоров, а также с возможностью развёртывания в облачном окружении.

Постоянный URL: https://servernews.ru/1096081
16.11.2023 [15:29], Сергей Карасёв

В Microsoft Azure появились инстансы ND MI300X v5 с восемью ускорителями AMD Instinct и процессорами Intel Xeon

Компания Microsoft анонсировала инстансы Azure ND MI300X v5 на основе ускорителей AMD Instinct MI300X, представленных летом нынешнего года. Эти ВМ ориентированы на ресурсоёмкие ИИ-нагрузки, в частности, на решение задач инференса.

Изделия Instinct MI300X несут на борту 192 Гбайт памяти HBM3 с пропускной способностью до 5,2 Тбайт/с. В составе одной виртуальной машины ND MI300X v5 объединены восемь ускорителей, соединённых между собой посредством Infinity Fabric 3.0, а с хостом — по PCIe 5.0. В сумме это даёт 1,5 Тбайт памяти HBM3, что, как отмечает Microsoft, является самой большой ёмкостью HBM, доступной в облаке.

Виртуальные машины Azure ND — это дополнение к семейству решений на базе GPU, такие машины специально предназначены для рабочих нагрузок ИИ и глубокого обучения. Microsoft подчёркивает, что в случае ND MI300X v5 используется та же аппаратная платформа, которая применяется и для других ВМ семейства. Она включает процессоры Intel Xeon Sapphire Rapids, 16 каналов оперативной памяти DDR5, а также подключение NVIDIA Quantum-2 CX7 InfiniBand с пропускной способностью 400 Гбит/с на каждый ускоритель и 3,2 Тбит/с на виртуальную машину.

 Источник изображения: AMD

Источник изображения: AMD

По заявлениям Microsoft, на базе ND MI300X v5 могут запускаться самые крупные модели ИИ. Клиенты могут быстро перейти на новые инстансы с других решений серии ND благодаря тому, что открытая платформа AMD ROCm содержит все библиотеки, компиляторы, среды выполнения и инструменты, необходимые для ускорения ресурсоемких приложений.

Постоянный URL: https://servernews.ru/1096052
16.11.2023 [02:43], Алексей Степин

Microsoft представила 128-ядерый Arm-процессор Cobalt 100 и ИИ-ускоритель Maia 100 собственной разработки

Гиперскейлеры ради снижения совокупной стоимости владения (TCO) и зависимости от сторонних вендоров готовы вкладываться в разработку уникальных чипов, изначально оптимизированных под их нужды и инфраструктуру. К небольшому кругу компаний, решившихся на такой шаг, присоединилась Microsoft, анонсировавшая Arm-процессор Azure Cobalt 100 и ИИ-ускоритель Azure Maia 100.

 Изображения: Microsoft

Изображения: Microsoft

Первопроходцем в этой области стала AWS, которая разве что память своими силами не разрабатывает. У AWS уже есть три с половиной поколения Arm-процессоров Graviton и сразу два вида ИИ-ускорителей: Trainium для обучения и Inferentia2 для инференса. Крупный китайский провайдер Alibaba Cloud также разработал и внедрил Arm-процессоры Yitian и ускорители Hanguang. Что интересно, в обоих случаях процессоры оказывались во многих аспектах наиболее передовыми. Наконец, у Google есть уже пятое поколение ИИ-ускорителей TPU.

Microsoft заявила, что оба новых чипа уже производятся на мощностях TSMC с использованием «последнего техпроцесса» и займут свои места в ЦОД Microsoft в начале следующего года. Как минимум, в случае с Maia 100 речь идёт о 5-нм техпроцессе, вероятно, 4N. В настоящее время Microsoft Azure находится в начальной стадии развёртывания инфраструктуры на базе новых чипов, которая будет использоваться для Microsoft Copilot, Azure OpenAI и других сервисов. Например, Bing до сих пор во много полагается на FPGA, а вся ИИ-инфраструктура Microsoft крайне сложна.

Microsoft приводит очень мало технических данных о своих новинках, но известно, что Azure Cobalt 100 имеет 128 ядер Armv9 Neoverse N2 (Perseus) и основан на платформе Arm Neoverse Compute Subsystem (CSS). По словам компании, процессоры Cobalt 100 до +40 % производительнее имеющихся в инфраструктуре Azure Arm-чипов, они используются для обеспечения работы служб Microsoft Teams и Azure SQL. Oracle, вложившаяся в своё время в Ampere Comptuing, уже перевела все свои облачные сервисы на Arm.

Чип Maia 100 (Athena) изначально спроектирован под задачи облачного обучения ИИ и инференса в сценариях с использованием моделей OpenAI, Bing, GitHub Copilot и ChatGPT в инфраструктуре Azure. Чип содержит 105 млрд транзисторов, что больше, нежели у NVIDIA H100 (80 млрд) и ставит Maia 100 на один уровень с Ponte Vecchio (~100 млрд). Для Maia организован кастомный интерконнект на базе Ethernet — каждый ускоритель располагает 4,8-Тбит/с каналом для связи с другими ускорителями, что должно обеспечить максимально эффективное масштабирование.

Сами Maia 100 используют СЖО с теплообменниками прямого контакта. Поскольку нынешние ЦОД Microsoft проектировались без учёта использования мощных СЖО, стойку пришлось сделать более широкой, дабы разместить рядом с сотней плат с чипами Maia 100 серверами и большой радиатор. Этот дизайн компания создавала вместе с Meta, которая испытывает аналогичные проблемы с текущими ЦОД. Такие стойки в настоящее время проходят термические испытания в лаборатории Microsoft в Редмонде, штат Вашингтон.

В дополнение к Cobalt и Maia анонсирована широкая доступность услуги Azure Boost на базе DPU MANA, берущего на себя управление всеми функциями виртуализации на манер AWS Nitro, хотя и не целиком — часть ядер хоста всё равно используется для обслуживания гипервизора. DPU предлагает 200GbE-подключение и доступ к удалённому хранилищу на скорости до 12,5 Гбайт/с и до 650 тыс. IOPS.

Microsoft не собирается останавливаться на достигнутом: вводя в строй инфраструктуру на базе новых чипов Cobalt и Maia первого поколения, компания уже ведёт активную разработку чипов второго поколения. Впрочем, совсем отказываться от партнёрства с другими вендорами Microsoft не намерена. Компания анонсировала первые инстансы с ускорителями AMD Instinct MI300X, а в следующем году появятся инстансы с NVIDIA H200.

Постоянный URL: https://servernews.ru/1096037

Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»;

Система Orphus