Материалы по тегу: all-flash

29.07.2021 [17:15], Сергей Карасёв

Дисковая полка Delta JBOF включена в реестр российского промышленного оборудования

Компания Delta Computers сообщила о том, что её универсальный подключаемый модуль Delta JBOF для вычислительных комплексов и систем хранения данных внесён в реестр российского промышленного оборудования. Уже получено соответствующее заключение Министерства промышленности и торговли Российской Федерации.

Дисковая полка Delta JBOF выполнена в соответствии со стандартом OCP. Она предназначена для применения в составе программно-определяемых СХД большой вместимости с высокой скоростью передачи информации. Решение предоставляет 60 слотов M.2 или 30 слотов U.2 для твердотельных накопителей NVMe. Суммарная ёмкость может достигать 460,8 Тбайт.

Здесь и ниже изображения Delta Computers

Здесь и ниже изображения Delta Computers

Показатель IOPS (операций ввода/вывода в секунду) составляет до 30 млн. Обеспечивается пропускная способность не менее 13,3 Гбайт/с. Устройство напрямую подключается к контроллеру/серверу, что позволяет уменьшить задержки при обмене данными, а также увеличить общую производительность системы. Поддерживается «горячая» замена накопителей. Говорится также о высокой энергоэффективности и удобном управлении с помощью Delta BMC (№ 9741 в реестре российского программного обеспечения).

«Компания провела все необходимые процедуры в соответствии с постановлением Правительства РФ от 17 июля 2015 г. №719. Согласно выданному заключению, Delta JBOF полностью соответствует всем критериям, изложенным в приложении к постановлению Правительства, и считается изделием, произведенными на территории России», — отмечается в сообщении.

Постоянный URL: http://servernews.ru/1045508
28.07.2021 [15:27], Алексей Степин

Pliops анонсировала высокопроизводительный DPU XDP Extreme

Концепция сопроцессора данных (DPU) продолжает набирать популярность — анонсы новых решений в этой области следуют один за другим. Компания Pliops, ранее представившая ускоритель для СУБД, представила свой новый продукт — XDP Extreme, который имеет более широкую сферу применения и предназначен для разгрузки процессоров современных систем хранения данных, целиком построенных на энергонезависимой памяти.

Внешне новинка выглядит как обычная плата расширения с разъёмом PCIe x8, в основе лежит мощная ПЛИС производства Xilinx. В будущем компания планирует заменить её на более экономичный ASIC-вариант. У XDP Extreme нет сетевых портов, вместо этого разработчики сконцентрировали свои усилия на ускорении общих для СХД задач и повышении эффективности использования пула флеш-памяти.

XDP использует так называемый KV Storage Engine — движок, работающий с Key-Value данными. За счёт фирменного API обеспечена совместимость со всеми приложениями, которые используют KV-подход. Уровнем ниже всё так же находится NVMe, как протокол, наиболее отвечающий устройствам на базе флеш-памяти. KV Storage Engine берёт на себя всю обработку ключей БД, включая их сортировку, индексацию и сборку мусора, а значит, этим не придётся заниматься центральным процессорам системы. Также ускоритель обеспечивает разгрузку ЦП при сжатии, отвечает за защиту от сбоев SSD и выполняет шифрование томов с использованием AES-256.

Востребованность XDP высока: KV-движки сегодня используются в подавляющем большинстве баз данных, также они применяются в комплексах машинной аналитики на базе Elastic или Hadoop и в распределённых файловых системах. Эффективность XDP Extreme, если верить данным Pliops, внушает уважение: даже на операциях чтения можно добиться двухкратного прироста линейной производительности, а выигрыш при записи может составлять и три-четыре раза. Более того, флеш-массив под управлением XDP оказывается быстрее, нежели классический RAID0. А снижение коэффициента усиления записи (write amplification) позволяет использовать недорогую, но априори менее надёжную память QLC. Впрочем, с Optane новый DPU тоже прекрасно работает.

Фактически, компания говорит о производительности, сопоставимой с решениями на базе DRAM, но с куда более низкой стоимостью владения. Экономия достигается и за счёт более эффективного использования SSD: в частности, при равном уровне надёжности с классическим массивом RAID 10, система на базе Pliops XDP позволяет обойтись меньшим количеством серверов и накопителей, что, естественно, отразится и на стоимости. Поставки новых ускорителей Pliops XDP Extreme уже развёрнуты.

Постоянный URL: http://servernews.ru/1045368
28.07.2021 [14:52], Алексей Степин

Infortrend представила All-Flash модуль масштабируемой СХД EonStor CS 4000

Infortrend Technology представила новый All-Flash модуль для масштабируемой системы хранения данных EonStor CS. Сама серия EonStor CS изначально построена как максимально расширяемая кластерная СХД с сетевой пропускной способностью на уровне 100+ Гбит/c — между собой узлы используют RDMA-подключение со скоростью 40 Гбит/с. Ёмкость EonStor CS может превышать 100 Пбайт, а в качестве файловой среды используется собственная разработка компании, распределённая ФС Infortrend Distributed File System.

Конфигурация у данной серии СХД может быть любой и включать в себя как узлы на базе SSD, так и узлы, содержащие традиционные механические диски. Новый узел CS 4014U старшей серии CS 4000 относится к первому варианту и рассчитан на установку до 14 U.2 SSD. Модуль предназначен для нагрузок, требующих как высоких линейных скоростей, так и минимальных задержек — совокупная линейная производительность кластера из пяти таких узлов может достигать 20 Гбайт/с.

Узел может иметь как All-Flash конфигурацию, так и работать в гибридном режиме: поддержка auto-tiering позволяет автоматически сбрасывать «холодные» данные на более медленные накопители. Поддерживается развитая система мониторинга, система предсказывает моменты, когда может потребоваться её расширение или замена накопителей, также она следит за тем, чтобы из строя не вышло несколько SSD подряд.

Постоянный URL: http://servernews.ru/1045387
12.07.2021 [20:06], Владимир Агапов

Graid представила RAID-ускоритель SupremeRAID SR-1000 для NVMe SSD и NVMe-oF

Компания Graid Technology  разработала программно-аппаратное решение SupremeRAID, которое поможет устранить узкие места в RAID-системах на базе NVMe-накопителей, подключённых как напрямую, так и по сети (NVMe-oF). Аппаратная часть решения представлена однослотовой (100 × 197,5 мм) картой SupremeRAID SR-1000 с интерфейсом PCIe 3.0 x16, которая потребляет 75 Вт.

Карта оснащена высокопроизводительным «умным» процессором для обработки всех операций RAID и поддерживает различные интерфейсы NVMe (U.2, M.2, AIC) а также SAS и SATA. По заявлению производителя, это первая в мире карта, которая позволяет пользователям добавлять такие функции как сжатие, шифрование и тонкое выделение ресурсов, а также позволяющая организовать NVMe-oF RAID-массив.

Программная часть разработана для Linux (CentOS 8.3, RHEL 8.4, Ubuntu 20.04, openSUSE Leap 15.2, SLES 15 SP2) и состоит из модуля ядра (graid.ko), CLI-инструмента управления (graidctl) и демона управления обработкой запросов (graid_server). Реализована поддержка массивов RAID 0/1/5/6/10 с максимальным числом физических дисков 32 (до 4 групп дисков, по 8 шт. в каждой). Максимальная ёмкость дисковой группы ограничивается только физическими характеристиками накопителей.

Архитектура SupremeRAID, основанная на виртуальном NVMe-контроллере и PCIe-ускорителе, берущем на себя все операции с RAID, высвобождает ресурсы CPU и облегчает интеграцию с современными программно компонуемыми системами (SCI) для получения 100% доступной производительности SSD. При этом возможна реализация облачного подхода при работе с хранилищем.

Вычислительная мощность применённого процессора позволяет отказаться от использования модулей кеширования для достижения удовлетворительной производительности, а также от резервных батарей, обеспечивающих сохранность данных в кеше в случае отключения питания. А поддержка NVMe-oF для организации RAID-массива позволяет дезагрегировать ресурсы хранения, предоставляя пользователям возможности их более полного использования — в независимости от физического местонахождения скорость будет практически такой же, как и при прямом подключении.

Заявленная производительность составляет более 6 млн. IOPS, а скорость работы массива на базе накопителей с интерфейсом PCIe 3.0 и PCIe 4.0 составляет 25 и 100 ГиБ/с соответственно. И это похоже на правду, если верить данным Gigabyte, которая одной из первых применила это решение на практике. Её 2U-сервер R282-Z94, включающий два процессора AMD EPYC 7742, 20 NVMe SSD Kioxia CM6-R и SupremeRAID, позволил провести серию тестов производительности подсистемы хранения данных.

gigabyte.com

gigabyte.com

Массив RAID-5, состоящий из трёх накопителей CM6-R в OLAP-задачах показывает 4,6 млн IOPS на случайном чтении и 765 тыс. IOPS на случайной записи, обеспечивая при этом чрезвычайно низкую задержку. Даже в случае отказа одного из SSD, производительность системы все равно превышает 1 млн IOPS, сохраняя высокую доступность приложения.

Массив RAID-5, состоящий из 20 накопителей CM6-R, обеспечивает очень большую ёмкость с последовательным чтением на уровне 91 ГиБ/с и последовательной записью 7 ГиБ/с. Наконец, массив RAID-10 из те же 20 накопителей может обеспечивать последовательное чтение 104 ГиБ/с и последовательную запись 30 ГиБ/с, что почти в 8 раз выше, чем у традицонных RAID-контроллеров.

gigabyte.com

gigabyte.com

Такой результат делает решение привлекательным для приложений, требующих высокой скорости чтения, таких как машинное обучение, анализ больших данных и т.д. По словам Лиандера Ю (Leander Yu), генерального директора GRAID, сотрудничество с GIGABYTE и Kioxia позволило компании представить технологию хранения и защиты данных, обеспечивающую лучшую в отрасли производительность для рабочих нагрузок ИИ, IoT и 5G в новом поколении All-Flash СХД.

Постоянный URL: http://servernews.ru/1044014
08.07.2021 [10:10], Алексей Степин

All-Flash СХД Huawei OceanStor Dorado 18000 V6 — высокая надёжность и высокая производительность

Системы хранения данных (СХД) всегда были важной, иногда просто определяющей частью любой IT-инфраструтуры. А особенно важны они в наше время, когда объемы хранимых данных растут буквально не по дням, а по часам. В секторе высокопроизводительных СХД давно прописались системы класса All-Flash, и компания Huawei претендует на звание лидера в этом сегменте рынка. Претендует не без оснований — в портфолио компании есть СХД OceanStor Dorado 18000 V6, отвечающие самым высоким требованиям и способные удовлетворить самых придирчивых заказчиков.

По данным Huawei, в настоящее время всемирная сеть насчитывает уже 4 миллиарда пользователей, а количество подключённых умных устройств уже достигло 75 миллиардов. Внедрение «умных сред» генерирует огромное количество данных: так, автономные транспортные средства способны генерировать 60 Тбайт каждый день во время обучения, а цифровое предприятие может сгенерировать и 2 петабайта.

При этом ценна каждая секунда: это и убытки от не прошедших вовремя транзакций, и толпы недовольных пользователей, а уж в случае «цифрового предприятия» секундная задержка в работе оборудования может обернуться серьёзной производственной аварией, которая, опять-таки, повлечёт за собой огромные убытки. OceanStor Dorado 18000 V6 призвана справляться со всеми этими факторами.

В основе новой СХД лежит хорошо известная нашим читателям платформа Huawei Kunpeng собственной разработки компании. Она базируется на процессорах Kunpeng 920 с архитектурой ARM v8.2 — подробности можно узнать в обзоре сервера Huawei TaiShan 2280 v2. Но и остальные компоненты платформы Huawei использует собственные: сетевой контроллер, ИИ-сопроцессор, контроллер SSD и даже BMC, что позволяет говорить о полной независимости от сторонних поставщиков оборудования.

Очевидно, что классические СХД недостаточно быстры для критических сценариев, упомянутых выше. И не всегда достаточно надёжны. Но для Dorado 18000 V6 компания-разработчик гарантирует не только 21 млн IOPS на случайных операциях, но и системную надёжность 99,999%. СХД способна пережить одновременный выход из строя трёх накопителей на контроллере и останется доступной даже при потере семи контроллеров из восьми в каждом блоке.

Секрет такой надёжности — в распределённой архитектуре SmartMatrix, в которой каждая дисковая полка не только связана со всеми контроллерами системы, но и со всеми портами фронтенда и бэкенда. Опциональные ИИ-платы имеют собственные процессоры Ascend 310, обслуживающие твердотельные СХД. Они используют новейшие алгоритмы машинного обучения и способны в реальном времени адаптировать параметры дисковых кешей с учётом особенностей нагрузки, максимизируя их эффективность.

Скорость восстановления повреждённых массивов благодаря использованию FlashLink и «умных» дисковых полок также очень высока и достигает 4 Тбайт в час (до 200 Мбайт/с или 15 минут на терабайт), при этом загрузка основных процессоров не превышает 5%. В процессе эксплуатации система также следит за равномерностью износа SSD, что делает их поведение более предсказуемым.

Весьма прогрессивны и сами накопители. Huawei использует собственный формат NVMe-модулей, позволяющий устанавливать до 36 дисков в полку высотой 2U. Каждый такой накопитель следит за равномерностью износа флеш-памяти и целостностью данных сам, и сам же формирует RAID внутри флеш-массива, не нагружая контроллеры дополнительно. Продвинутые алгоритмы коррекции ошибок LDPC + SmartFSP 3.0 гарантируют десятикратное увеличение надёжности в сравнении с конкурирующими решениями.

Разумеется, сетевая часть Dorado 18000 V6 построена на базе NVMe over Fabrics. Для систем типа All-Flash это оптимальное решение, позволяющее исключить из цепочки ненужные промежуточные протоколы SCSI или Fibre Channel. Вкупе с применением протокола RDMA и накопителями со временем отклика не более 20 мс это делает Dorado 18000 V6 максимально отзывчивой системой в своём классе.

В качестве сетевой среды используется RDMA over Converged Ethernet (RoCE), как максимально совместимая с существующей инфраструктурой, ведь RoCE позволяет обойтись существующими Ethernet-коммутаторами, и к тому же максимальная скорость на порт у RoCE достигает 400 Гбит/с, чего не может предложить ни один другой распространённый стандарт сетевых подключений.

С масштабируемостью у новинки Huawei также всё в порядке. Причём как с локальной, так и распределённой: два узла Dorado 18000 V6, расположенные на расстоянии до 100 км друг от друга и объединённые в метро-кластер, обеспечивают задержку менее 1,5 мс. При этом топология может быть расширена вплоть до 3DC.

На сегодняшний день Huawei OceanStor Dorado 18000 V6 не имеет себе равных по ряду характеристик. Это система хранения данных флагманского уровня с соответствующим уровнем производительности, представляющая собой полностью интегрированное решение, не зависящее от Intel или AMD и не имеющее проблем с совместимостью из-за «зоопарка компонентов». Вернее, это целый спектр решений: Huawei предлагает самый широкий выбор вариантов реализации СХД с отличными показателями «цена/качество».

Поставляются системы Dorado в виде законченного проекта, идеально вписанного в инфраструктуру заказчика, поэтому стоимость может варьироваться в широких пределах. Неудивительно, что именно решения Huawei выбраны пятью крупнейшими банками Российской Федерации, а также крупнейшей российской логистической организацией «Почта России». В последнем случае речь идёт о хранении 12 Пбайт данных при доступности «четыре девятки». Внедрение СХД Huawei позволило обеспечить «Почте России» нужные характеристики; в сравнении со старым оборудованием речь идёт о трёхкратном увеличении производительности.

Подробнее о новых системах Huawei OceanStor Dorado можно узнать на сайте компании-производителя.

Постоянный URL: http://servernews.ru/1042148
05.07.2021 [23:02], Алексей Степин

В рейтинг IO500 вошли четыре высокопроизводительные СХД РСК

Благодаря развитию технологий флеш-памяти и широкомасштабному внедрению SSD и Optane современные системы хранения данных развивают немыслимую ранее мощность, измеряемую миллионами и даже десятками миллионов IOPS. СХД подобного класса очень сложны и весьма недешевы. В России тоже есть системы такого класса — решения группы компаний РСК не в первый раз попадают в рейтинг IO500.

Совсем недавно РСК объявила, что в список вошла четвёртая система, занявшая 26-ую позицию в рейтинге. Это СХД RSC Storage-on-Demand, в основе которой лежит ПО с открытым кодом DAOS. Она входит в состав суперкомпьютера «Говорун», установленного в Объединённом институте ядерных исследований, город Дубна, и среди российских решений эта система лидирует. В прошлом году «Говорун» получил заслуженную награду DC Awards 2020 именно за высокие характеристики подсистемы хранения данных.

IO500: до первой пятёрки ещё далеко, но РСК уверенно продвигается вперёд

IO500: до первой пятёрки ещё далеко, но РСК уверенно продвигается вперёд

Эта машина будет обслуживать проект NICA, новый ускорительный комплекс, созданный с целью изучения свойств плотной барионной материи. Он генерирует огромные объёмы данных, обработка которых позволит лучше понять устройство нашей вселенной. Сочетание нового ускорителя и суперкомпьютеров ОИЯИ делает реальным создание в лабораторных условиях кварк-глюонной плазмы, вещества, из которого состояла вселенная в первые мгновения после Большого Взрыва.

DAOS в сравнении с традиционными СХД

DAOS в сравнении с традиционными СХД

Система на базе DAOS сместила с лидирующей российской позиции другую СХД РСК, построенную на базе широко распространённой в мире HPC параллельной файловой системы Lustre, а в рейтинге IO500 она получила 31 место. 27-ая позиция принадлежит СХД в составе кластера МВС-10П ОП2 Межведомственного суперкомпьютерного центра Российской академии наук, а 36-ая — системе суперкомпьютера «Политехник ‒ РСК Торнадо» Санкт-Петербургского политехнического университета Петра Великого.

NICA позволит нам лучше понять фундаментальное устройство мира

NICA позволит нам лучше понять фундаментальное устройство мира

Достичь таких результатов позволило сочетание программных технологий DAOS и Lustre с новейшими твердотельными накопителями Intel, включая сверхпроизводительные модули Optane DCPMM. Сочетание Optane с процессорами Xeon Ice Lake-SP показало себя великолепно именно в сложных расчётах из области физических исследований. Но помогают российские суперкомпьютеры и в борьбе с коронавирусом.

Машина, принадлежащая МСЦ РАН, также оснащена по последнему слову техники — в ней установлены «линеечные» накопители в формате E1.S. Более того, система «Говорун» смогла пробиться в первую десятку в IO500 ещё в 2018 году, когда этот суперкомпьютер занял девятое место. Впоследствии он был модернизирован.

Линеечные накопители позволяют существенно повысить удельную плотность хранения данных

Линеечные накопители позволяют существенно повысить удельную плотность хранения данных

DAOS — это распределённая объектно-ориентированная асинхронная система хранения данных, изначально разрабатываемая с прицелом на предельно возможную производительность и гибкие возможности масштабирования. Поскольку система полностью программно-определяемая, она может гибко управлять доступными пулами NVMe-накопителей и модулей Optane DCPMM, а традиционных HDD в ней не предусмотрено вовсе. Такой подход в 2019 году позволил DAOS занять второе место в мировом рейтинге, незначительно уступив лишь оригинальной разработке израильской компании WekaIO.

...а программная часть — гибко управлять средствами хранения этих данных

...а программная часть — гибко управлять средствами хранения этих данных

Комплекс DAOS очень гибок, и конфигурация СХД может создаваться буквально на лету, с учётом потребностей конкретного пользователя и его задачи. За управление системой отвечает платформа отечественной разработки «РСК БазИС». С аппаратной же точки зрения DAOS нацелена на минимизацию обращений к CPU и ядру операционной системы. При этом поддерживается работа с данными на уровне вплоть до побайтного доступа.

Схематичное устройство DAOS

Схематичное устройство DAOS

Подход, применяемый РСК, позволил добиться производительности на типовых сценариях чтения/записи на уровне свыше 300 Гбайт/с; это уровень мировых лидеров в области HPС, а с учётом гибкости и удобства конфигурирования российские СХД нового поколения можно назвать уникальными. РСК уверенно штурмует новые высоты: если в прошлом году в IO500 вошли три российских суперкомпьютера, то сейчас их там уже четыре.

Постоянный URL: http://servernews.ru/1043575
02.07.2021 [21:54], Алексей Степин

DataDirect Networks анонсировала новые решения и программные продукты

Компания DataDirect Networks (DDN), специализирующаяся в области систем машинного интеллекта и крупных облачных комплексов, представила свои новые разработки. В первую очередь, речь идёт об обновлённой версии ПО EXAScaler, но также анонсированы и новые аппаратные комплексы на базе фирменных систем A3I и решений NVIDIA.

С NVIDIA DDN сотрудничает давно и ещё весной этого года были представлены сертифицированные масштабируемые ИИ-комплексы, сочетающие фирменные наработки компании в области хранения данных и ускорители NVIDIA A100. Эти системы получили название Any-Scale AI (A3I). В этот раз компания объединила СХД A3I с решениями NVIDIA DGX SuperPOD, а также расширила серию фирменных флеш-хранилищ Tintri IntelliFlash.

Системы хранения данных DDN базируются на флеш-массивах EXAScaler, работающих под управлением параллельной файловой системы Lustre. В настоящее время в серию входят 2U-модули ES200NVX и ES400NVX, рассчитанные на установку 24 накопителей NVMe, 4U-модуль SFA7990X, могущий вместить до 90 полноразмерных дисковых устройств формата 3,5″, а также высокоскоростной гибридный 4U-модуль SFA18KX. Последний сочетает в себе SAS и NVMe SSD и может обеспечить производительность 3,2 млн IOPS.

Обновилась и программная часть. Новая, шестая версия фирменного ПО EXA6 получила поддержку пакета технологий NVIDIA Magnum IO GPU DirectStorage, новый управляющий фреймворк EXAScaler Management Framework с API для конфигурации и менеджмента, поддержку апгрейдов в режиме онлайн и автоматический тиринг.

Отдельного упоминания заслуживает функция Hot Nodes. Она автоматически кеширует на узлах c ускорителями NVIDIA и NVMe-накопителями, что позволяет сократить «путешествия» данных по сети, а значит, и снизить задержки ввода-вывода. Как считает DDN, именно Hot Nodes повышает эффективность работы моделей машинного обучения, поскольку те часто требуют повторного обращения к массиву данных, а за счёт кеширования Hot Nodes такие обращения можно провести очень быстро.

Новый аппаратный комплекс DDN включает в себя 20 модулей NVIDIA DGX A100 в составе SuperPOD, систему хранения данных, полностью построенную на базе флеш-памяти, а также сетевую инфраструктуру на базе новейших решений NVIDIA/Mellanox InfiniBand. Новинка, по сути, являет собой полностью законченное конвергентное предложение с готовой инфраструктурой. Оно уже доступно сертифицированным партнёрам DDN и NVIDIA.

Также обновлено фирменное программное обеспечение DDN Insight, предназначенное для конфигурации и мониторинга систем, предлагаемых компанией. Четвёртая версия способна собирать данные на уровне индивидуальных задач, IO-метрики, осуществлять анализ рабочих нагрузок и загрузки ускорителей. Обновление ПО EXAScaler 6 и Insight 4.0 планируется на третий квартал текущего года.

Постоянный URL: http://servernews.ru/1043438
25.06.2021 [16:16], Владимир Агапов

Google обновила Transfer Appliance, облачную «флешку» на петабайт

Сервис Transfer Appliance, доступный в ряде регионов США, ЕС и Сингапуре, позволяет клиентам просто и безопасно перенести петабайты данных из их корпоративных ЦОД и других мест эксплуатации в Google Cloud. Сервис основан на одноимённой специализированной All-Flash СХД, которую клиент может запросить в Google Cloud Console, чтобы перенести на него свою информацию. На днях компания анонсировала новую версию Transfer Appliance.

Google Cloud проверяет потребности заказчика, такие как мощность и необходимая ёмкость, и отправляет полностью укомплектованное устройство, включая все необходимые кабели. Доступные для заказа ёмкости находятся в диапазоне от 40 до 300 Тбайт. Имеются также две базовые модификации Transfer Appliance: на 100 и 480 Тбайт. Благодаря встроенным средствам дедупликации и сжатия данных потенциально можно перенести до 1 Пбайт. Кроме того, предприятия могут выбрать вариант исполнения — для монтажа в стойку или автономное устройство.

Как только устройство прибывает к заказчику, его можно смонтировать как общий ресурс NFS и приступить к копированию данных. Затем устройство запечатывается для защиты от несанкционированного доступа при траспортировке и отправляется обратно Google. Перед переездом данные шифруются (AES-256), а клиент создаёт пароль и секретную фразу для их дешифровки. Это не только защищает информацию, но и позволяет соблюсти отраслевые стандарты ISO, SOC, PCI и HIPAA.

По прибытии устройства в Google специалисты компании осуществляют обратные операции, которые для краткости они называют «регидратацией». О её успешном завершении Google сообщает заказчику как правило в течении 1-2 недель. После миграции клиентам становятся доступны средства для анализа данных BigQuery и Vertex AI.

Google рекомендует предприятиям использовать сервис Transfer Appliance в тех случаях, когда для загрузки данных в облако через Интернет потребуется более недели, или когда необходимо перенести более 60 Тбайт данных. Ещё один вариант использования устройства — сбор данных в полевых условиях и на подвижных объектах, таких как корабли. По прибытии в порт их можно легко перенести в облако для последующей обработки или архивирования.

Следует отметить, что сервис особенно полезен в условиях недостаточной пропускной способности каналов передачи данных или отсутствия возможности подключения к Интернет. Несмотря на то, что данная концепция не нова и компании десятилетиями отправляли данные на физические устройства для архивирования и аварийного восстановления, она не утратила своей актуальности и сегодня. Аналогичные решения есть у всех крупных облачных провайдеров.

Постоянный URL: http://servernews.ru/1042819
18.06.2021 [14:04], Сергей Карасёв

Флеш-хранилища PNY рассчитаны на серверы с ускорителями NVIDIA

Компания PNY Technologies анонсировала специализированные системы хранения данных 3S Storage Server, оптимизированные для использования в составе высокопроизводительных вычислительных комплексов, использующих ускорители NVIDIA.

Речь, в частности, идёт о системе NVIDIA DGX A100, предназначенной для различных задач, связанных с искусственным интеллектом. Для таких систем PNY предлагает две модели 3S Storage Server — 3S-1050 и 3S-2450. Первая соответствует типоразмеру 1U, вторая — 2U.

Здесь и ниже изображения PNY

Здесь и ниже изображения PNY

Серверы хранения оборудованы быстрыми твердотельными накопителями NVMe. Младшая модель может оснащаться десятью SSD-модулями вместимостью 7,69 или 15 Тбайт каждый. Таким образом, суммарная вместимость достигает 150 Тбайт.

Старшая модификация рассчитана на установку 24 твердотельных накопителей. Как и в первом случае могут применяться устройства на 7,69 или 15 Тбайт, а максимальная суммарная ёмкость достигает 360 Тбайт. Более подробно с техническими характеристиками решений 3S Storage Server можно ознакомиться здесь.

Постоянный URL: http://servernews.ru/1042350
17.06.2021 [15:23], Сергей Карасёв

Infinidat представила InfiniBox SSA, быструю и надёжную All-Flash СХД для требовательных корпоративных приложений

Компания Infinidat сообщила о выпуске All-Flash массива InfiniBox SSA: утверждается, что данное решение обеспечивает высочайшую в отрасли производительность для самых требовательных приложений корпоративного класса. При этом достигается стабильно предсказуемая низкая задержка для каждой операции ввода-вывода.

В новинке применяется запатентованный алгоритм машинного обучения Neural Cache, который, как утверждает разработчик, выводит производительность на новый уровень. Система обеспечивает 100-% доступность и высочайшую надёжность. Доступная ёмкость составляет 546 Тбайт, а при использовании компрессии это значение достигает 1092 Тбайт. Величина IOPS — до 1,5 млн.

Здесь и ниже изображения производителя

Здесь и ниже изображения производителя

«Общая программная база для стандартного InfiniBox и нового InfiniBox SSA обеспечивает беспрепятственный и прозрачный перенос данных между платформами, позволяя заказчикам снизить общую совокупную стоимость владения и при этом оптимизировать время задержек», — говорит разработчик.

Нужно отметить, что InfiniBox SSA — это первая на 100 % твердотельная система компании Infinidat. Новинка, по словам компании, обеспечивает более высокую производительность, чем традиционные AFA-системы, благодаря широкому использованию DRAM-кеширования с помощью запатентованного программного обеспечения.

Постоянный URL: http://servernews.ru/1042225
Система Orphus