Лента новостей

31.08.2023 [12:53], Сергей Карасёв

Huawei представила All-Flash СХД OceanStor Pacific 9920

Китайская корпорация Huawei анонсировала распределённую All-Flash СХД OceanStor Pacific 9920. Решение подходит для использования в различных приложениях обработки и хранения структурированных и неструктурированных данных. Узел выполнен в формате 2U. В зависимости от модификации применяются два процессора Huawei Kunpeng 920 или Intel Xeon Scalable. Максимальный объём оперативной памяти на узел составляет 512 Гбайт, 768 Гбайт или 1 Тбайт.

Говорится, что система OceanStor Pacific 9920 обеспечивает эффективный доступ к информации в таких сценариях, как пулы виртуальных и облачных ресурсов, базы данных, высокопроизводительные вычисления, ИИ-приложения и аналитика больших данных. Возможна установка до 12 накопителей LFF с интерфейсом SAS или до 25 решений SFF NVMe. «Сырая» ёмкость варьируется от 38,4 до 92,16 Тбайт.

 Источник изображения: Huawei

Источник изображения: Huawei

СХД может оснащаться портами 10GbE, 25/100GbE (RoCE) или 100 Гбит/с InfiniBand. СХД предоставляет различные интерфейсы доступа: NFS, SMB, POSIX, MPI-IO, HDFS, S3, iSCSI и OpenStack Cinder. Реализовано автоматическое параллельное восстановление данных со скоростью 2–4 Тбайт/час. Диапазон рабочих температур — от +5 до +35 °C.

Среди поддерживаемых функций можно выделить SmartThin (интеллектуальное динамическое выделение емкости), SmartDedupe & SmartCompression (интеллектуальные дедупликация и сжатие), SmartQoS (интеллектуальный контроль уровня обслуживания), SmartAuditlog (интеллектуальный журнал аудита), HyperSnap (мгновенные снимки), HyperClone (функция клонирования), HyperMetro (разнесённые массивы в режиме Active–Active), HyperReplication (удаленная репликация) и DIF (защита целостности данных).

Постоянный URL: https://servernews.ru/1092315
31.08.2023 [12:38], Сергей Карасёв

Biostar представила индустриальный мини-компьютер MS-J6412 на платформе Intel Elkhart Lake

Компания Biostar анонсировала компьютер небольшого форм-фактора MS-J6412, предназначенный для использования в промышленной сфере. Устройство, выполненное на платформе Intel Elkhart Lake, совместимо с ОС Windows 10 Pro, Windows 10 IoT Enterprise 2021 и Ubuntu 20.04.

Установлен процессор Celeron J6412 (четыре ядра; четыре потока; 2,0–2,6 ГГц; 10 Вт). Объём оперативной памяти DDR4-3200 может достигать 32 Гбайт. Для подключения накопителя служит порт SATA-3.

 Источник изображения: Biostar

Источник изображения: Biostar

Новинка располагает слотами Mini-PCIe, M.2 key B (для модуля 4G/5G; плюс разъём для SIM-карты) и M.2 key M. Есть двухпортовый сетевой контроллер 2.5GbE (Intel I225V), четыре последовательных порта, интерфейсы HDMI и D-Sub, четыре порта USB 2.0 и два разъёма USB 3.0, два гнезда RJ-45 для сетевых кабелей.

Мини-компьютер довольствуется пассивным охлаждением, а верхняя ребристая часть корпуса выполняет функции радиатора для рассеяния тепла. Габариты составляют 160 × 130 × 50 мм. Диапазон рабочих температур простирается от 0 до +40 °C. Питание подаётся через внешний адаптер (12 В / 5 A).

Постоянный URL: https://servernews.ru/1092317
31.08.2023 [12:37], Сергей Карасёв

Затраты Rackspace на устранение последствий кибератаки превысят $10 млн

Компания Rackspace Technology, провайдер облачных услуг, по сообщению ресурса Dark Reading, столкнулась со значительными затратами в связи со сбоем, который произошёл в конце 2022 года в результате атаки программы-вымогателя. Напомним, из-за хакерского вторжения компании Rackspace пришлось навсегда отключить свою службу Microsoft Exchange. Причиной масштабного сбоя послужил эксплойт для уязвимости «нулевого дня».

С последствиями атаки Rackspace не могла справиться в течение нескольких недель. Впоследствии калифорнийская Cole & Van Note подала коллективный иск против Rackspace в связи с недоступностью облачных сервисов. Для расследования инцидента компании пришлось привлечь сторонних специалистов.

 Источник изображения: Rackspace

Источник изображения: Rackspace

Как теперь стало известно, расходы Rackspace на устранение последствий кибератаки составят приблизительно $10,8 млн. Говорится, что деньги пойдут в основном на оплату работы экспертов в области информационной безопасности, занимающихся расследованием инцидента, юридические и другие профессиональные услуги, а также на «дополнительные кадровые ресурсы», которые были задействованы для оказания поддержки клиентам.

Кроме того, компенсацию от Rackspace требуют недовольные пользователи, которые не могли получить доступ к сервисам провайдера облачных услуг. Rackspace ожидает, что значительная часть затрат будет возмещена компаниями по киберстрахованию.

Постоянный URL: https://servernews.ru/1092321
30.08.2023 [22:00], Алексей Степин

Тектонический сдвиг: Intel рассказала о конструкции и особенностях Xeon Granite Rapids

На конференции Hot Chips 2023 компания Intel сообщила довольно подробные сведения об архитектуре 144-ядерных Xeon Sierra Forest. Одновременно была опубликована достаточно детальная информация об особенностях чипов Granite Rapids.

Intel уже давно испытывала проблемы с масштабированием процессоров, выполненных по традиционной технологии с монолитным кристаллом. В четвёртом поколении Xeon Scalable (Sapphire Rapids) видны зачатки модульного подхода в XCC-версиях процессоров, использующих «сшивку» четырёх 15-ядерных тайлов (чиплетов) с помощью EMIB. Однако лишь в следующем поколении, к которому относятся и Sierra Forest, и Granite Rapids, модульность будет реализована в полной мере.

Источник изображений здесь и далее: Intel via ServeTheHome

Новый подход Intel во многом напоминает тот, что применяет в своих процессорах AMD, но имеет ряд присущих только ему особенностей. К примеру, Intel решила оставить контроллеры памяти в составе вычислительных чиплетов, поэтому IO-чиплеты работают только с PCI Express и CXL, а также служат местом размещения различных ускорителей, таких, как DSA, IAA, QAT и DLB.

Стоит отметить универсальность портов I/O-тайла. Они могут конфигурироваться как UPI, PCIe или CXL. При этом возможны разные режимы бифуркации, включая смешанную работу PCIe и CXL в пределах одного контроллера. Интерфейс UPI работает на скорости 24 ГТ/с, что в 1,8 раза быстрее, нежели в прошлом поколении, а связь с блоками ускорителей позволяет передавать 64 байта за такт, то есть вдвое быстрее, чем у предыдущих Xeon.

Сшиваются компоненты новых Xeon по-прежнему с помощью EMIB, отвечающей, в том числе, за проброс интерконнекта Intel Modular Mesh Fabric. Каждый чиплет получит свои средства управления электропитанием, но ведущим будет лишь один контроллер, который и будет отвечать за этот процесс. Сама фабрика интерконнекта логически монолитна и обеспечивает в рамках одного процессорного разъёма полноправный и равноценный доступ компонентов друг к другу. Модульность же позволяет варьировать число столбцов и строк меш-сети внутри каждого кристалла.

Напомним, что ядро получит «кусок» кеша LLC (для Granite Rapids — 4 Мбайт), но в составе всего процессора эти блоки образуют единый раздел LLC большого объёма с возможностью разбиения на кластеры для каждого NUMA-узла.

Вычислительные чиплеты Granite Rapids получат только P-ядра Redwood Cove. Производятся они с использованием процесса Intel 3, а значит, «прыжок» через техпроцесс (Sapphire Rapids использует Intel 7) даст ещё больший выигрыш в энергоэффективности. Поскольку речь идёт о Р-ядрах, Granite Rapids будет обладать поддержкой всех современных расширений и форматов вычислений, включая AVX-512 и AMX. Последний сможет работать с форматом FP16.

Некоторые улучшения микроархитектуры найдут своё место в новых ядрах: они получат 64 Кбайт кеша инструкций, более продвинутые механизмы предсказания ветвлений и восстановления конвейера при «промахе», поддержку умножения чисел с плавающей запятой за три такта (ранее требовалось до пяти), а также новые средства работы с памятью (в частности, можно более тонко контролировать, что будет попадать в L2-кеш) и продвинутые средства управления питанием.

К вопросу о памяти: от Sapphire Rapids новые Xeon с P-ядрами будет отличать поддержка стандарта MCR (Multiplexer Combined Ranks) DIMM. Как утверждает не только Intel, но и SK hynix, уже демонстрировавшая соответствующие модули, MCR DIMM станет самой быстрой серверной памятью. Со скоростью 8800 МТ/с на модуль и при 12 каналах Intel заявляет, что производительность подсистемы памяти у Granite Rapids будет выше, нежели у Xeon Max, оснащённых HBM2e, обычные же Sapphire Rapids она превзойдёт в 2,5 раза.

Конечно же, не забыла Intel и о поддержке CXL, благо, концепция «выносной» памяти становится всё более и более популярной. Новые процессоры получат полноценную поддержку устройств памяти CXL Type-3, которой нет у Sapphire Rapids. Будут реализованы средства многоуровневого распределения (tiering), как аппаратные, так и программные, причём аппаратное распределение полностью прозрачно для ПО.

В отличие от Sierra Forest, Granite Rapids станет основой для серверов и систем, ориентированных не только на горизонтальное масштабирование, но и на вертикальное. Поэтому один сервер может объединить до 8 процессорных разъёмов, и такая платформа отлично подойдёт для любых сценариев, где требуется высокая производительность в пересчёте на ядро, включая сценарии ИИ и HPC. А поможет мощным Р-ядрам развитая подсистема памяти с поддержкой MCR DIMM и CXL.

Постоянный URL: https://servernews.ru/1092304
30.08.2023 [19:39], Сергей Карасёв

Google Cloud анонсировала C3A, первые облачные инстансы на базе 192-ядерных Arm-процессоров AmpereOne

Google Cloud объявила о запуске первых инстансов на процессорах AmpereOne компании Ampere. Эти Arm-чипы насчитывают от 136 до 192 вычислительных ядер, каждое из которых способно обрабатывать один поток инструкций. Анонсированные инстансы получили обозначение C3A. Они доступны в конфигурациях с количеством vCPU от 1 до 80. Задействованы память DDR5 и локальные SSD неназванной ёмкости. Заявленная пропускная способность сетевого подключения — до 100 Гбит/с.

Инстансы C3A уже интегрированы с рядом сервисов Google Cloud, включая GKE, Dataflow, Cloud Batch и Dataproc, так что разработчики приложений смогут использовать новые виртуальные машины с привычными инструментами. Отмечается, что Arm-инстансы обеспечивают улучшение соотношения цена/производительность на 40 % по сравнению с сопоставимыми по классу виртуальными машинами текущего поколения на процессорах с архитектурой x86.

 Источник изображения: Ampere

Источник изображения: Ampere

Немногим более года назад платформа Google Cloud запустила инстансы T2A Tau на чипах Ampere Altra. Появление решений C3A является значимым событием для компании Ampere. Участники рынка полагают, что в обозримом будущем примеру Google последуют другие ведущие облачные провайдеры, включая Oracle Cloud Infrastructure и Microsoft Azure.

 Источник: Ampere

Источник: Ampere

На текущий момент доступ к инстансам C3A предоставляется в рамках закрытой программы предварительной оценки. О сроках запуска общедоступных версий ничего не сообщается, так что хотя Google формально является первым облачным провайдером, предложившим инстансы с AmpereOne, другие игроки, особенно второго эшелона, могут обогнать компанию и первыми предоставить в общий доступ свои Arm-инстансы.

Постоянный URL: https://servernews.ru/1092294
30.08.2023 [17:09], Владимир Мироненко

Google объявила о скорой доступности инстансов A3 на базе NVIDIA H100

Google Cloud сообщила, что в следующем месяце станут доступны инстансы Google Compute Engine A3 на базе платформы NVIDIA HGX H100 с восемью ускорителями H100, двумя процессорами Intel Xeon Sapphire Rapids, 2 Тбайт, а также интерконнектом NVLink и адаптерами Google Titanium. Платформ обеспечивает высокую производительность для всех видов ИИ-приложений, в том числе для обучения и обслуживания особенно требовательных рабочих нагрузок ИИ и больших языковых моделей (LLM).

В блоге Google Cloud отмечено, что сочетание ускорителей NVIDIA с ведущими инфраструктурными технологиями Google Cloud обеспечивает масштабируемость и производительность и является огромным шагом вперёд в возможностях ИИ: обучение происходит в 3 раза быстрее, а пропускная способность сети в 10 раз выше, чем у предыдущего поколения. Инстансы A3 также поддерживают масштабирование до 26 тыс. ускорителей H100.

 Изображение: NVIDIA

Изображение: NVIDIA

Незадолго до этого Google Cloud объявила NVIDIA партнёром года по генеративному ИИ (Generative AI Partner of the Year). Компании сотрудничают по разным направлениям: от проектирования инфраструктуры до реализации программного обеспечения, чтобы упростить создание и развёртывание приложений ИИ на платформе Google Cloud. PaxML, платформа Google для создания больших языковых моделей, теперь оптимизирована для решений NVIDIA и доступна в реестре NVIDIA NGC. Google использовала PaxML для создания внутренних моделей, включая DeepMind, а также исследовательских проектов.

Кроме того, компании сервис Google Dataproc позволяет задействовать решения NVIDIA для ускорения работы Apache Spark. H100 вскоре также появятся на платформе Vertex AI. Наконец, было обещано, что в облаке Google появятся NVIDIA DGX Cloud и новейшие гибридные чипы GH200. Впрочем, вместе с анонсом A3 Google представила ИИ-инстансы на базе собственных ускорителей TPU v5e.

Постоянный URL: https://servernews.ru/1092278
30.08.2023 [16:04], Алексей Степин

Google Cloud анонсировала новое поколение собственных ИИ-ускорителей TPU v5e

Как известно, Google Cloud использует в своей инфраструктуре не только сторонние ускорители, но и TPU собственной разработки. Эти кастомные ASIC компания продолжает активно развивать — она анонсировала предварительную доступность виртуальных машин с новейшими TPU v5e, разработка которых заняла более двух лет. Сам чип TPU v5e позиционируется Google как эффективный со всех точек зрения ускоритель, предназначенный для обучения нейросетей или инференс-систем среднего и большого классов.

В сравнении с TPU v4 он, по словам Google, обеспечивает вдвое более высокую производительность в пересчёте на доллар для обучения больших языковых моделей (LLM) и генеративных нейросетей. Для инференс-систем преимущество по тому же критерию составляет 2,5x. В сравнении с аналогичными решениями на базе других чипов, например, GPU, выигрыш может составить и 4x. Каждый чип TPU v5e включает четыре блока матричных вычислений, по одному блоку для скалярных и векторных расчётов, а также HBM2-память.

 Источник изображения: Google

Источник изображения: Google

Компания отмечает, что не экономит на технических характеристиках TPU v5e в угоду рентабельности. Кластеры могут включать до 256 чипов TPU v5e, объединённых высокоскоростным интерконнектом с совокупной пропускной способностью более 400 Тбит/с. Производительность такой платформы составляет 100 Попс (Петаопс) в INT8-вычислениях. Правда, здесь есть нюанс: INT8-производительности TPU v5e составляет 393 Тфлопс против 275 Тфлопс у v4, но вот BF16-производительность у TPU v4 составляет те же 275 Тфлопс, тогда как у v5e этот показатель равен уже 197 Тфлопс.

 Источник изображения: Google

Источник изображения: Google

В настоящее время для предварительного тестирования доступно уже восемь вариантов инстансов на базе v5e, а в зависимости от конфигурации количество TPU может составлять от 1 до более чем 250. В рамках платформы обеспечена полная интеграция с Google Kubernetes Engine, собственной платформой Vertex AI, а также с большинством современных фреймворков, включая PyTorch, TensorFlow и JAX. Работа с TPU v5e будет значительно дешевле, чем с TPU v4 — $1,2/час против $3,4/час (за чип).

 Источник изображения: Google

Источник изображения: Google

В настоящее время машины с TPU v5e доступны только в североамериканском регионе (us-west4), но в дальнейшем возможность их использования появится в регионах EMEA (Нидерланды) и APAC (Сингапур). Также Google предлагает опробовать технологию Multislice, позволяющей объединять в единый комплекс десятки тысяч TPU v5e или TPU v4, где каждый «слайс» может содержать до 3072 чипов TPU (v4). В максимальной конфигурации можно развернуть 64 инстанса, работающих с 256 кластерами TPU v5e. Сама компания уже использует новые чипы для своего поисковика и Google Photos.

Постоянный URL: https://servernews.ru/1092282
30.08.2023 [15:35], Руслан Авдеев

Британская DataQube, разработчик периферийных микро-ЦОД, подала заявление о банкротстве, но подхватить знамя уже готова Iconic Data Centres

Британская компания DataQube, занимающаяся разработкой и строительством дата-центров для периферийных вычислений, подала заявление о банкротстве. Как сообщает DataCenter Dynamics, 29 августа её кредиторы встречались для выбора ликвидаторов и формирования ликвидационного комитета.

Причины подачи компанией соответствующего заявления достоверно неизвестны, но последний общедоступный отчёт датируется 31 декабря 2021 года. На тот момент компания доложила об отрицательном балансе на сумму $247 150, хотя годом ранее баланс был положительным и составлял $36 600. Тогда же DataQube сообщила о растущих задолженностях перед кредиторами.

Вместе с тем глава компании Стивен Джон Пасс (Stephen John Pass) подал месяц назад в британскую Регистрационную палату заявление об открытии нового бизнеса Iconic Data Centres. При этом новая компания демонстрирует изображения стоек DataQube и даже заявляет о том, что разработала первые в мире «подульные» (podular) дата-центры. Речь идёт об особых модульных контейнерных ЦОД, каждый модуль в которых фактически представляет собой полнофункциональный микро-ЦОД.

 Источник изображения: DataCube

Источник изображения: DataQube

Основатель и бывший глава DataQube Дэвид Джей Киган (David J Keegan) уже раскритиковал заявление Iconic Data Centres о том, что компании якобы принадлежит честь разработки «подульных» масштабируемых ЦОД DataQube, заявив, что именно он и никто другой давно придумал соответствующий дизайн. О создании таких ЦОД действительно сообщала сама DataQube. Также на ресурсах Iconic присутствуют отсылки к инфраструктуре ЦОД, вероятно, разработанной ещё в DataQube. В самих компаниях характер связей нового бизнеса с прежним не комментируют.

Постоянный URL: https://servernews.ru/1092265
30.08.2023 [14:49], Сергей Карасёв

IDC: объём рынка публичных облаков в 2027 году достигнет $1,35 трлн

Компания IDC обнародовала свежий прогноз по мировому рынку публичных облачных сервисов. Аналитики полагают, что отрасль продолжит устойчивое развитие: среднегодовой темп роста в сложных процентах (показатель CAGR) с 2023-го по 2027 год составит 19,9 %.

В результате, к концу рассматриваемого периода затраты на публичные облака достигнут $1,35 трлн. Крупнейшими потребителями публичных облачных услуг в 2027 году станут банковский сектор, IT-отрасль и телекоммуникационный сегмент, на которые придётся в сумме $326 млрд. Для сравнения: в 2022 году этот показатель равнялся $545,8 млрд, а в 2021-м — $444,2 млрд.

 Источник изображения: IDC

Источник изображения: IDC

Приложения в сегменте SaaS, согласно прогнозу IDC, станут крупнейшей категорией облачных услуг, на которую в 2027 году придётся около 40 % всех затрат. При этом значение CAGR в течение пяти лет ожидается на уровне 15,8 %. Наиболее востребованными решениями станут системы управления ресурсами предприятия (ERM) и управления взаимоотношениями с клиентами (CRM).

Сервисы IaaS окажутся второй по размеру расходов группой облачных продуктов, за которой последуют решения PaaS. При этом именно PaaS покажет наиболее высокие темпы роста в течение пяти лет с показателем CAGR около 27,2 %. Отмечается, что службы SaaS–SIS (SaaS в области системных инфраструктур) останутся самой маленькой категорией облачных услуг, на которую придётся примерно 15 % от общего размера рынка в 2027 году.

С географической точки зрения США станут крупнейшим рынком публичных облаков с расходами приблизительно $697 млрд в 2027 году. В Западной Европе затраты достигнут $273 млрд, в Китае — $117 млрд. В Латинской Америке будет наблюдаться самый быстрый рост расходов: величина CAGR за пять лет здесь составит 29,1 %.

Постоянный URL: https://servernews.ru/1092251
30.08.2023 [14:46], Сергей Карасёв

За «смертельным» взломом шлюзов безопасности Barracuda ESG стоит китайская кибергруппировка

Компании Mandiant (принадлежит Google Cloud) и Barracuda Networks, по сообщению ресурса ComputerWeekly, подтвердили, что взлом шлюзов Barracuda Email Security Gateway (ESG) осуществили китайские хакеры, действующие в интересах правительственных структур КНР. В июне Barracuda Networks проинформировала клиентов о том, что устранить дыру невозможно, а поэтому затронутые шлюзы необходимо попросту выкинуть.

В мае нынешнего года Barracuda Networks сообщила о том, что злоумышленники использовали уязвимость «нулевого дня» для взлома устройств ESG. Брешь CVE-2023-2868 позволяет удалённо выполнять произвольный код. В число жертв вошли Samsung, Delta Airlines, Mitsubishi и Kraft Heinz. Позднее компания установила связь атаковавшей шлюзы хакерской группы с Китаем. Этой киберкоманде присвоено название UNC4841. Говорится, что целями UNC4841 стали в основном правительственные структуры в США и Канаде, а также в Великобритании. По данным ФБР, к Сети всё еще подключены уязвимые шлюзы ряда организаций, но повторные атаки не наблюдаются.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

Mandiant сообщает, что группировка UNC4841 пытается сохранить доступ к наиболее важным скомпрометированным средам с помощью нескольких вредоносных программ — Skipjack, Depthcharge, Foxtrot и Foxglove. Первые три являются бэкдорами, тогда как Foxglove выступает в качестве средства запуска Foxtrot. По оценкам, немногим более 15 % жертв являются правительственными структурами, а чуть более 10 % — местными органами власти. Атака также затронула IT-компании и организации, работающие в таких сферах, как телекоммуникации, производство, образование, аэрокосмическая и оборонная отрасли. Mandiant заявляет, что UNC4841 проводит шпионские операции именно в пользу китайского государства.

Постоянный URL: https://servernews.ru/1092253
Система Orphus