Материалы по тегу: ии
02.09.2024 [15:24], Андрей Крупин
В России теперь нельзя устанавливать новые зарубежные программно-аппаратные комплексы на объектах критической инфраструктурыС 1 сентября 2024 года вступило в силу постановление правительства РФ, запрещающее субъектам критической информационной инфраструктуры (КИИ) приобретать иностранные программно-аппаратные комплексы (ПАК), которые не является доверенными. Полный переход на доверенные ПАК преимущественно отечественной разработки должен быть завершён к 1 января 2030 года. Под доверенными ПАК подразумеваются устройства, сведения о которых внесены в реестр российской радиоэлектронной продукции, а программное обеспечение, используемое в составе ПАК, включено в реестры российского или евразийского ПО. Кроме того, если комплекс предназначен для использования в области информационной безопасности, то он обязан иметь сертификат ФСТЭК или ФСБ России. По данным аналитического центра «Интерфакс-ProЗакупки», разработкой, производством, техподдержкой и сервисным обслуживанием доверенных ПАК будет заниматься АО «НПО КИС» — «Критические информационные системы» (дочерняя структура госкорпорации «Росатом»). Таким образом, программно-аппаратные решения иностранного производства будут постепенно заменяться на оборудование и софт, которые находятся в соответствующих реестрах российской радиоэлектронной продукции и отечественного ПО. Операторы КИИ смогут использовать зарубежные ПАК лишь в двух случаях: если комплексы были приобретены до 1 сентября 2024 года и если они не имеют отечественных аналогов, что подтверждается заключением Минпромторга. Список объектов КИИ страны включает телекоммуникационные и IT-системы, а также АСУ ТП, которые используются в государственных органах, здравоохранении, на транспорте и в связи, кредитно-финансовой сфере, топливно-энергетическом комплексе и различных отраслях промышленности: атомной, оборонной, ракетно-космической, химической и других. Ответственными за импортозамещение в сфере КИИ назначены Минздрав, Минобрнауки, Минтранс, Минцифры, Минэнерго, Минпромторг, Минфин, Росреестр, «Росатом», «Роскосмос» и Центробанк.
02.09.2024 [11:02], Сергей Карасёв
Blue Owl, Chirisa и PowerHouse сформировали СП с активами на $5 млрд по созданию ЦОД для CoreWeaveФонды под управлением Blue Owl Capital, Chirisa Technology Parks (CTP) и PowerHouse Data Centers объявили о заключении соглашения по формированию совместного предприятия, которое займётся созданием крупномасштабных ЦОД для компании CoreWeave. На эти цели будет выделено до $5 млрд. Стартап CoreWeave основан в 2017 году. Изначально компания занималась майнингом криптовалют, а затем переориентировалась на вычисления общего назначения и хостинг проектов генеративного ИИ. В настоящее время CoreWeave предоставляет специализированные облачные ИИ-решения. Компания активно развивает инфраструктуру дата-центров для ИИ. Соглашение между Blue Owl, Chirisa и PowerHouse предусматривает быстрое развёртывание в рамках совместного предприятия дата-центров «под ключ» для нагрузок ИИ и НРС. Помимо CoreWeave, использовать такие ЦОД смогут другие гиперскейлеры и корпоративные заказчики. На первом этапе в 2025–2026 гг. в CoreWeave получит 120 МВт в кампусе CTP общей площадью около 14,2 га недалеко от Ричмонда (Вирджиния, США). В дальнейшем планируются строительство новых и модернизация уже существующих площадок в Нью-Джерси, Пенсильвании, Техасе, Кентукки и Неваде. CTP, принадлежащая Chirisa Investments, была основана в конце 2022 года. Первый ЦОД компании мощностью 28 МВт в кампусе в Ричмонде, известный как CTP-01, недавно был сдан в аренду CoreWeave. Кроме того, CTP владеет площадками в Вирджинии, Иллинойсе, Вашингтоне и Нью-Джерси: на сегодняшний день доступны 46 450 м2 ЦОД-площадей, а на этапе разработки находятся мощности более 400 МВт. В свою очередь, фирма PowerHouse, полностью принадлежащая American Real Estate Partners, в настоящее время реализует 30 проектов дата-центров, находящихся в стадии планирования или строительства. Суммарная мощность этих объектов превысит 2,3 ГВт; они расположатся в Вирджинии, Техасе, Неваде и Северной Каролине. Blue Own — управляющая компания с активами на сумму $192 млрд.
01.09.2024 [20:15], Сергей Карасёв
Для облаков и ИИ: QCT представила серверы на процессорах Intel Xeon 6Компания Quanta Cloud Technology (QCT) анонсировала серверы на процессорах Intel Xeon 6, ориентированные на поставщиков облачных услуг, телекоммуникационных провайдеров и операторов ЦОД. Дебютировали решения серий QuantaGrid и QuantaPlex для различных рабочих нагрузок, включая задачи ИИ и НРС. Отмечается, что серверы QCT построены с применением модульных компонентов, для монтажа которых не требуются инструменты. Доступны варианты с воздушным и жидкостным охлаждением, различной компоновкой подсистемы хранения данных, поддержкой ускорителей одинарной и двойной ширины. Реализована возможность горячей замены отдельных узлов, таких как блоки питания и вентиляторы. Представлены модели QuantaGrid D55X-1U и QuantaGrid D55Q-2U типоразмера 1U и 2U соответственно. Они допускают установку двух чипов Xeon 6700E (Sierra Forest) с TDP до 350 Вт. Возможна установка 32 модулей DDR5-6400 RDIMM или 16 модулей MRDIMM (до 8000 МГц). У 1U-версии конфигурация подсистемы хранения в зависимости от исполнения включает: 12 × SFF NVMe/SATA/SAS SSD, 16 × E1.S NVMe SSD, 20 × E3.S 1T NVMe или 4 × E3.S 1T NVMe + 8 × E3.S 2T CXL. Карты расширения могут монтироваться по схеме 2 × PCIe 5.0 x16 FHHL, 2 × PCIe 5.0 x16 OCP 3.0 SFF и 1 × DC-SCM или 3 × PCIe 5.0 x16 HHHL, 2 × PCIe 5.0 x16 OCP 3.0 SFF и 1 × DC-SCM. Для сервера формата 2U предусмотрены варианты с поддержкой следующих накопителей: 12 × LFF SATA/SAS HDD или 12 × SFF NVMe, 24 × SFF NVMe/SATA/SAS или 12 × E3.S 1T NVMe + 12 × E3.S 2T CXL. Допускаются различные варианты монтажа карт PCIe 5.0 x8 FHHL, PCIe 5.0 x16 FHFL и PCIe 5.0 x8 HHHL. Серверы комплектуются двумя блоками питания с сертификатом 80 Plus Titanium (до 2700 и 3200 Вт соответственно). Кроме того, анонсированы модели QuantaGrid S55R-1U и QuantaGrid S55J-2U формата 1U и 2U с поддержкой чипов Xeon 6700 с производительными P-ядрами (Granite Rapids). Раскрываются характеристики только 1U-сервера: один процессор с TDP до 350 Вт, 16 слотов для модулей DDR5-5200 RDIMM, 12 посадочных мест для SFF-накопителей NVMe/SATA/SAS SSD, два слота PCIe 5.0 x16 FHHL + слот OCP 3.0 NIC SFF, два коннектора M.2 2230/2280 PCIe 5.0, два блока питания 80 Plus Titanium мощностью до 2000 Вт. Дебютировали также серверы QuantaPlex S25Z-2U и QuantaPlex S45Z-2U типоразмера 2U с двумя и четырьмя узлами. Каждый узел рассчитан на один процессор Xeon 6700 с TDP до 350 Вт, 16 модулей DDR5-6400 RDIMM, а также два SSD M.2. Двухузловая версия поддерживает до трёх карт расширения PCIe 5.0 и два SFF-накопителя NVMe/SATA SSD на узел. У четырёхузловой модификации возможна установка одной карты PCIe 5.0, а также двух накопителей E1.S NVMe SSD или трёх устройств SFF NVMe SSD на узел. Вышел 7U-сервер QuantaGrid D74H-7U для ресурсоёмких нагрузок НРС и ИИ. Он допускает установку двух процессоров Intel Xeon Emerald Rapids или Sapphire Rapids с показателем TDP до 350 Вт. Есть 32 слота для модулей памяти DDR5-5600 RDIMM суммарным объёмом до 8 Тбайт. Предусмотрены отсеки для 18 SFF-накопителей NVMe SSD. Возможна установка восьми ускорителей NVIDIA H100 (SXM5). Слоты расширения выполнены по схеме 2 × PCIe 5.0 x16 OCP 3.0 SFF и 10 × PCIe 5.0 x16 OCP 3.0 TSFF. Применены шесть блоков питания 80 Plus Titanium на 4000 Вт. Наконец, представлен высокопроизводительный сервер QuantaGrid D75E-4U формата 4U, который, как утверждается, обеспечивает максимальную гибкость при работе с LLM, ИИ и HPC. Он оснащён двумя процессорами Intel Xeon 6 с TDP до 350 Вт и поддерживает до восьми GPU-ускорителей PCIe следующего поколения с воздушным охлаждением и TDP до 600 Вт.
31.08.2024 [14:12], Сергей Карасёв
Cerebras Systems запустила «самую мощную в мире» ИИ-платформу для инференсаАмериканский стартап Cerebras Systems, занимающийся разработкой чипов для систем машинного обучения и других ресурсоёмких задач, объявил о запуске, как утверждается, самой производительной в мире ИИ-платформы для инференса — Cerebras Inference. Ожидается, что она составит серьёзную конкуренцию решениям на основе ускорителей NVIDIA. В основу облачной системы Cerebras Inference положены ускорители WSE-3. Эти гигантские изделия, выполненные с применением 5-нм техпроцесса TSMC, содержат 4 трлн транзисторов, 900 тыс. ядер и 44 Гбайт SRAM. Суммарная пропускная способность встроенной памяти достигает 21 Пбайт/с, а внутреннего интерконнекта — 214 Пбит/с. Для сравнения: один чип HBM3e в составе NVIDIA H200 может похвастаться пропускной способностью «только» 4,8 Тбайт/с. По заявлениям Cerebras, новая инференс-платформа обеспечивает до 20 раз более высокую производительность по сравнению с сопоставимыми по классу решениями на чипах NVIDIA в сервисах гиперскейлеров. В частности, быстродействие составляет до 1800 токенов в секунду на пользователя для ИИ-модели Llama3.1 8B и до 450 токенов в секунду для Llama3.1 70B. Для сравнения, у AWS эти значения равны соответственно 93 и 50. Речь идёт об FP16-операциях. Cerebras заявляет, что лучший результат для кластеров на основе NVIDIA H100 в случае Llama3.1 70B составляет 128 токенов в секунду. «В отличие от альтернативных подходов, которые жертвуют точностью ради быстродействия, Cerebras предлагает самую высокую производительность, сохраняя при этом точность на уровне 16 бит для всего процесса инференса», — заявляет компания. При этом услуги Cerebras Inference стоят в несколько раз меньше по сравнению с конкурирующими предложениями: $0,1 за 1 млн токенов для Llama 3.1 8B и $0,6 за 1 млн токенов для Llama 3.1 70B. Оплата взимается по мере использования. Cerebras планирует предоставлять инференс-услуги через API, совместимый с OpenAI. Преимущество такого подхода заключается в том, что разработчикам, которые уже создали приложения на основе GPT-4, Claude, Mistral или других облачных ИИ-моделей, не придётся полностью менять код для переноса нагрузок на платформу Cerebras Inference. Для крупных предприятий предлагается план обслуживания Enterprise Tier, который предусматривает тонко настроенные модели, индивидуальные условия и специализированную поддержку. Стандартный пакет Developer Tier предполагает подписку по цене от $0,1 за 1 млн токенов. Кроме того, имеется бесплатный доступ начального уровня Free Tier с ограничениями. Cerebras говорит, что запуск платформы откроет качественно новые возможности для внедрения генеративного ИИ в различных сферах.
31.08.2024 [14:01], Сергей Карасёв
Softline с партнёрами предложили альтернативы зарубежным облачным сервисам, ушедшим из РФГК Softline назвала ряд отечественных облачных сервисов, которые могут стать альтернативой зарубежным платформам, прекратившим обслуживать российских пользователей в условиях сформировавшейся геополитической обстановки. Речь идёт о компаниях Amazon, Microsoft и Google. Напомним, Amazon и Microsoft начали ограничивать доступ к своим облачным продуктам на территории России с 20 марта 2024 года. Впоследствии Microsoft начала веерные остановки подписок на облачные сервисы для российских корпоративных клиентов. А Google предупредила об отключении облачного сервиса BigQuery в РФ с 9 сентября. Softline предлагает пять альтернативных продуктов отечественных разработчиков:
31.08.2024 [13:42], Андрей Крупин
ОС «МСВСфера» получила сертификат ФСТЭК России по 4-му уровню доверия
linux
softline
software
импортозамещение
информационная безопасность
сделано в россии
сертификация
фстэк россии
Российский поставщик оборудования и ПО для IT-инфраструктуры и информационной безопасности «Инферит» (входит в группу компаний Softline) сообщил о получении сертификата Федеральной службы по техническому и экспортному контролю на операционную систему «МСВСфера». Платформа «МСВСфера» построена на базе ядра Linux, зарегистрирована в реестре отечественного программного обеспечения Минцифры и является альтернативой зарубежным ОС уровня Enterprise Linux. Операционная система представлена в редакциях для рабочих станций и серверов и подходит для использования как в государственных, так и в коммерческих организациях. Продукт содержит встроенные инструменты миграции с Red Hat Enterprise Linux, CentOS, AlmaLinux, Rocky Linux, Oracle Enterprise Linux и поддерживается производителем в рамках десятилетнего жизненного цикла, включая выпуск обновлений и исправлений безопасности, что гарантирует стабильность и защищённость IT-инфраструктуры клиента. Выданный ФСТЭК России сертификат подтверждает соответствие «МСВСфера» требованиям по безопасности информации, установленным в документах «Требования по безопасности информации, устанавливающие уровни доверия к средствам технической защиты информации и средствам обеспечения безопасности информационных технологий» (Требования доверия) — по 4 уровню доверия, «Требования безопасности информации к операционным системам» и «Профиль защиты операционных систем типа А четвёртого класса защиты. ИТ.ОС.А4.ПЗ». «МСВСфера» может использоваться при построении государственных информационных систем (ГИС) до I класса защищённости включительно, информационных систем для обработки персональных данных (ИСПДн) до I уровня защищённости включительно, автоматизированных систем управления производственными и технологическими процессами (АСУ ТП) до I класса защищённости включительно, информационных систем общего пользования (ИСОП) до II класса защищённости и объектов критических информационных инфраструктур (КИИ) до I категории значимости.
31.08.2024 [00:39], Алексей Степин
Новые мейнфреймы IBM z получат ИИ-ускорители SpyreВместе с процессорами Telum II для систем z17 компания IBM представила и собственные ускорители Spyre, ещё больше расширяющие возможности будущих мейнфреймов в области обработки ИИ-нагрузок. Они станут дополнением к встроенным в Telum ИИ-блокам. Spyre представляет собой плату расширения с интерфейсом PCIe 5.0 x16 и теплопакетом 75 Вт. Помимо самого нейропроцессора IBM на ней установлено 128 Гбайт памяти LPDDR5, а производительность в ИИ-задачах оценивается производителем в более чем 300 Топс, т.е. новинки подходят для инференса крупных моделей. Сам чип приозводится с использованием 5-нм техпроцесса Samsung 5LPE и содержит 26 млрд транзисторов, а площадь его кристалла составляет 330 мм2. Spyre включает 32 ядра, каждое из которых дополнено 2 Мбайт быстрой скрэтч-памяти. Отдельно отмечено, что последняя не является кешем. При этом заявлена эффективность использования доступных вычислительных ресурсов — свыше 55 % на ядро. Каждое ядро содержит 78 матричных блоков и раздельные FP16-аккумуляторы, по восемь на «вход» и «выход». Интересно, что ядра Spyre и скрэтч-память используют отдельные кольцевые двунаправленные шины разной разрядности (32 и 128 бит соответственно), причём с оперативной памятью на скорости 200 Гбайт/с соединена именно вторая. Каждый узел (drawer) на базе Telum II способен вместить восемь плат Spyre, которые формируют логический кластер, располагающий 1 Тбайт памяти с совокупной ПСП 1,6 Тбайт/с, но, разумеется, каждая плата будет ограничена 128 Гбайт/с из-за интерфейса PCIe 5.0 x16. Spyre создан с упором на предиктивный и генеративный ИИ, благо в полной комплектации новые мейнфреймы могут нести 96 таких ускорителей и развивать до 30 ПОпс (Петаопс). Новинки рассчитаны на работу в средах zCX или Linux on Z, сопровождаются оптимизированным набором библиотек и совместимы с популярными фреймворками Pytoch, TensorFlow и ONNX. Они станут частью программных платформ IBM watsonx и Red Hat OpenShift. Новые мейнфреймы IBM z17 должны дебютировать на рынке в 2025 году. А в собственном облаке IBM будет также полагаться и на Intel Gaudi 3.
30.08.2024 [14:30], Сергей Карасёв
«ИнфоТеКС» разработала межсетевой экран ViPNet xFirewall для каналов 200–400 Гбит/сКомпания «ИнфоТеКС» объявила о завершении испытаний высокопроизводительного межсетевого экрана следующего поколения (NGFW) ViPNet xFirewall, предназначенного для использования в дата-центрах. Решение предназначено для обработки больших объёмов трафика. Представленное устройство может обеспечивать защиту каналов связи с пропускной способностью до 200 Гбит/с. Кроме того, создан и протестирован кластер из двух программно-аппаратных комплексов ViPNet xFirewall и брокеров сетевых пакетов. Нагрузочные и функциональные тесты показали корректность и высокую стабильность работы решения при максимально допустимой нагрузке на каналах связи с пропускной способностью до 400 Гбит/с. Отмечается, что тестирование осуществлялось по методике, разработанной в соответствии с государственными нормами и учитывающей международные практики. «ИнфоТеКС» уже работает над продуктом, обеспечивающим производительность до 1 Тбит/с. В ассортименте компании представлены устройства серии ViPNet xFirewall 5 (на изображении) — NGFW, сочетающие функции обычного межсетевого экрана (анализ состояния сессии, проксирование, трансляция адресов) с расширенными возможностями обработки и фильтрации трафика (глубокая инспекция протоколов, выявление и предотвращение компьютерных атак, инспекция SSL/TLS-трафика, взаимодействие с антивирусными решениями, DLP и песочницами). Брандмауэры ViPNet xFirewall 5 устанавливаются на границе сети. Они обеспечивают комплексное решение задач информационной безопасности. Это, в частности, создание гранулированной политики безопасности на основе учётных записей пользователей и списка приложений, обнаружение и нейтрализация сетевых вторжений. Механизм DPI использует различные техники идентификации трафика приложений: на основе портов и протоколов, сигнатурный и эвристический методы. Это даёт возможность выявлять даже те приложения, трафик которых шифруется или маскируется. В семейство ViPNet xFirewall 5 входят модификации с разным уровнем производительности. Наиболее мощная на текущий момент версия, представленная на сайте — это 1U-модель xF5000 Q2, которая поддерживает до 9,9 млн одновременно обслуживаемых соединений и до 85 тыс. соединений в секунду. Пропускная способность NGFW достигает 1531 Мбит/с (EMIX, тип фильтрации не уточняется), инспекции SSL — 8400 Мбит/с. Есть четыре порта RJ45 1GbE и восемь портов SFP+10GbE.
30.08.2024 [12:43], Сергей Карасёв
Fujitsu займётся созданием ИИ-суперкомпьютера Fugaku Next зеттафлопсного уровняМинистерство образования, культуры, спорта, науки и технологий Японии (MEXT) объявило о планах по созданию преемника суперкомпьютера Fugaku, который в своё время возглавлял мировой рейтинг ТОР500. Ожидается, что новая система, рассчитанная на ИИ-задачи, будет демонстрировать FP8-производительность зеттафлопсного уровня (1000 Эфлопс). В нынешнем списке TOP500 Fugaku занимает четвёртое место с FP64-быстродействием приблизительно 442 Пфлопс. Реализацией проекта Fugaku Next займутся японский Институт физико-химических исследований (RIKEN) и корпорация Fujitsu. Создание системы начнётся в 2025 году, а завершить её разработку планируется к 2030-му. На строительство комплекса MEXT выделит ¥4,2 млрд ($29,06 млн) в первый год, тогда как общий объём государственного финансирования, как ожидается, превысит ¥110 млрд ($761 млн). MEXT не прописывает какой-либо конкретной архитектуры для суперкомпьютера Fugaku Next, но в документации ведомства говорится, что комплекс может использовать CPU со специализированными ускорителями или комбинацию CPU и GPU. Кроме того, требуется наличие передовой подсистемы хранения, способной обрабатывать как традиционные рабочие нагрузки ввода-вывода, так и ресурсоёмкие нагрузки ИИ. Предполагается, что каждый узел Fugaku Next обеспечит пиковую производительность в «несколько сотен Тфлопс» для вычислений с двойной точностью (FP64), около 50 Пфлопс для вычислений FP16 и примерно 100 Пфлопс для вычислений FP8. Для сравнения, узлы системы Fugaku демонстрирует быстродействие FP64 на уровне 3,4 Тфлопс и показатель FP16 около 13,5 Тфлопс. Для Fugaku Next предусмотрено применение памяти HBM с пропускной способностью в несколько сотен Тбайт/с против 1,0 Тбайт/с у Fugaku. По всей видимости, в состав Fugaku Next войдут серверные процессоры Fujitsu следующего поколения, которые появятся после изделий MONAKA. Последние получат чиплетную компоновку с кристаллами SRAM и IO-блоками ввода-вывода, обеспечивающими поддержку DDR5, PCIe 6.0 и CXL 3.0. Говорится об использовании 2-нм техпроцесса.
29.08.2024 [22:04], Владимир Мироненко
Анонсирована российская облачная платформа Astra Cloud для предприятий и госкомпаний«Группа Астра» представила облачную платформу Astra Cloud, предназначенную для корпоративного сегмента, в частности, для госкомпаний, которым важны масштабируемость, производительность и безопасность софта. Сервис основан на собственных продуктах «Группы Астра», которые теперь доступны в двух форматах: on-premise и собственного облака на базе ОС Astra Linux. Astra Cloud позволит завершить процесс импортозамещения, поскольку её продукты можно использовать вместо ПО ушедших зарубежных вендоров. На данном этапе клиенты получают СУБД и одноименную платформу баз данных Tantor, ОС Astra Linux в серверном исполнении, платформу для разработки ПО GitFlic, инструмент резервного копирования RuBackup, корпоративный почтовый сервер RuPost, службу каталогов ALD Pro и решение для создания инфраструктуры виртуальных рабочих мест Termidesk. В дальнейшем на платформе Astra Cloud появится весь портфель решений «Группы Астра». Платформа Astra Cloud отличается гибкой архитектурой, поддержкой многоуровневой системы безопасности, возможностью интеграции с существующими решениями через службу каталогов, говорит разработчик. Решение выполнено с соблюдением актуальных норм и стандартов в области защиты данных, что крайне важно для госучреждений и крупных корпораций. Все размещённые на платформе продукты включены в реестр Минцифры. С помощью Astra Cloud можно провести цифровую трансформацию без дополнительных затрат на оборудование и обучение персонала, реализовывать ресурсоёмкие проекты, а также минимизировать риск потери данных, если пользоваться Astra Cloud как резервной площадкой по схеме «3-2-1»: две копии данных хранятся локально, одна — в облачной среде. Облако Astra Cloud размещено в московских ЦОД DataPro и AtomData уровня TIER III/IV и обеспечено встроенной защитой от DDoS-атак (L7). Управление заказами на платформе осуществляется в личном кабинете, интегрируемом со службой каталогов клиента, что упрощает работу ИТ-специалистов. Сервисы Astra Cloud можно приобрести только у партнёров «Группы Астра». Также пользователям Astra Cloud предоставляются услуги сопровождения напрямую от экспертов разработчика с возможностью решать вопросы, связанные с ПО и облачной инфраструктурой. |
|