Материалы по тегу: s

25.02.2025 [18:30], Владимир Мироненко

Granite Rapids в малом формате: Intel представила процессоры Xeon 6500P и 6700P

Intel объявила о пополнении семейства процессоров Xeon 6 рядом новинок, включая чипы Granite Rapids-SP Xeon 6700P и 6500P, предназначенные для использования в ЦОД. Одновременно компания представила младшую серию Xeon 6300 для серверов начального уровня, а также Xeon 6 SoC поколения Granite Rapids-D с ускорителями vRAN Boost.

Как отметил ресурс The Register, в отличие от Intel Xeon 6900P (Granite Rapids-AP), в новых чипах Xeon с P-ядрами компания не пыталась сравниться с AMD по количеству ядер или чистой вычислительной мощности. Успешно восстановив паритет по количеству ядер со своим конкурентом в сегменте чипов с архитектурой x86, Intel в значительной степени опирается на то, что осталось от её репутации на рынке — на свой набор ускорителей вычислений и более агрессивную ценовую политику — в попытке остановить снижение своей доли в секторе чипов для ЦОД.

В Xeon 6 компания перешла на чиплетную компоновку, отделив I/O-тайлы (Intel 7) от вычислительных тайлов (Intel 3), но сохранив контроллеры памяти в составе последних. В случае 6700P и 6500P I/O-тайлы фактически те же, а вот блоки с ядрами отличаются. В старших 86-ядерных чипах используется пара XCC-чиплетов. В 48-ядерных и 16-ядерных чипах есть по одному вычислительному HCC- и LCC-тайлу соответственно. Это повышает выход годной продукции и позволяет гибко подходить к выбору количества ядер и тактовых частот — до +22 ядер при том же TDP (150–350 Вт) в сравнении с прошлым поколением.

В то же время такой подход ограничивает количество доступных каждому процессору каналов памяти — их в 6500P/6700P всего восемь с возможностью установки до 4 Тбайт RAM. Поддерживается DDR5-6400 (1DPC) и DDR5-5200 (2DPC). С другой стороны, для двухсокетных серверов с 32 DIMM не придётся изощряться с размещением слотов памяти, сохранив традиционную архитектуру плат, охлаждения и шасси в целом. Кроме того, некоторые CPU помимо обычных модулей также поддерживают MRDIMM DDR5-8000 (1 DPC). Наконец, есть и поддержка до 64 линий CXL 2.0, что теоретически также позволит нарастит доступную память.

В односокетных конфигурациях R1S-чипы поддерживают до 136 линий PCIe 5.0 (взамен ненужных UPI) против 88 линий у обычных многосокетных процессоров. В новых CPU также вернулась поддержка 4S- и 8S-конфигураций (до четырёх линий UPI 2.0 24 ГТ/с на CPU), которой были лишены и Emerald Rapids, и Xeon 6 6900P. Таким образом, Intel по-прежнему остаётся единственным поставщиком многосокетных x86-платформ для SAP HANA и аналогичных рабочих нагрузок, которым требуется одновременно много памяти и много ядер, а по сравнению с Sapphire Rapids новинки значительно быстрее. Объём L3-кеша теперь составляет от 48 Мбайт до 336 Мбайт.

Intel заявила, что чипы серии 6700P обеспечат от 14 % до 54 % прироста производительности по сравнению с флагманскими чипами Xeon Emerald Rapids. Intel по-прежнему в значительной степени опирается на интегрированные ускорители, чтобы получить преимущество по производительности по сравнению с конкурентами. Компания уже много лет встраивает кастомные ускорители в процессоры для выполнения нагрузок шифрования, безопасности, хранения, аналитики, обработки сетевого трафика и ИИ. В то же время у некоторых моделей по-прежнему активно лишь по два или три, а не по четыре акселератора DSA/DLB/IAA/QAT. Ещё одно отличие — поддержка 1024 или 2048 ключей TDX для защиты конфиденциальности в зависимости от модели. Примечательно, что NVIDIA добавила в Blackwell поддержку TDX.

Intel утверждает, что в дополнение к увеличению числа ядер и инструкций за такт (IPC) в новом поколении процессоров с криптографическими движками и поддержкой AMX это позволяет одному серверному чипу Xeon 6 заменить до десяти систем Cascade Lake, по крайней мере, для таких рабочих нагрузок, как классификация изображений и работа веб-сервера Nginx с TLS. По словам Intel, её новые чипы обеспечивают преимущество по сравнению с новейшими процессорами AMD EPYC Turin в производительности в 62 % для Nginx с TLS, 17 % для MongoDB, 52 % в бенчмарке HPCG, 43 % в программной среде OpenFOAM и 2,17x в ResNet-50.

The Register также отметил, что выход процессоров Intel Xeon 6 серий 6700P и 6500P демонстрирует выросшую агрессивнось Intel в отношении ценообразования. Intel традиционно дороже из расчёта за ядро по сравнению с AMD. Но теперь Intel пытается соответствовать своему конкуренту в ценах при любом количестве ядер или на целевых рынках. Компания даже незаметно снизила цены на 6900P в конце прошлого года, всего через несколько месяцев после запуска.

Единственным исключением являются поддерживающие 4S- и 8S-конфигурации процессоры, у которых нет конкурентов на рынке x86-чипов. Стоимость CPU доходит до $19 тыс./шт. Естественно, здесь стоит сделать традиционную оговорку, что и AMD, и у Intel рекомендованные цены указаны за партии от 1 тыс. шт., но на практике их реальная стоимость будет варьироваться в зависимости от объёма заказа и нужд конкретного клиента, да и просто договорённостей с продавцами, интеграторами и другими участниками цепочки поставок.

Наконец, у Intel появилось одно неожиданное преимущество перед AMD — «кремний» Xeon по-прежнему делается на собственных фабриках в США, тогда как AMD всё ещё зависит от тайваньской TSMC. Если новая администрация США введёт тариф на импорт полупроводников в размере 25 % и более, то Intel Xeon 6 наверняка окажутся выгоднее AMD EPYC. Intel также объявила, что Xeon 6 рекомендуются в качестве хост-процессоров для платформ NVIDIA MGX и HGX. Заявлена и поддержка OCP DC-HMS.

Постоянный URL: http://servernews.ru/1118801
25.02.2025 [13:00], Сергей Карасёв

Granite Rapids-D для 5G с ИИ: дебютировали чипы Intel Xeon 6 SoC для сетевых и периферийных устройств

Корпорация Intel представила чипы Xeon 6 SoC семейства Granite Rapids-D, рассчитанные на использование в сетевом оборудовании, а также встраиваемых устройствах с ИИ-функциями. Чипы поддерживают технологию Intel QAT (QuickAssist Technology) для ускорения криптографических операций, компрессии и обработки сетевого трафика.

На сегодняшний день в серию Xeon 6 SoC вошли 13 моделей с количеством вычислительных ядер от 12 до 42. Все они имеют четыре канала памяти DDR5 с частотой 4800, 5600 или 6400 МГц. Показатель TDP находится в диапазоне от 110 до 235 Вт, а турбо-частота при использовании всех ядер достигает 2,9 ГГц.

Большинство процессоров располагают интегрированным контроллером Ethernet 200G или 100G (за исключением Xeon 6533P-B). Некоторые модификации обладают поддержкой vRAN Boost и содержат ускоритель для транскодирования медиаданных. При этом все изделия поддерживают расширения AMX (Advanced Matrix Extensions), обеспечивающие ускорение рабочих нагрузок ИИ и машинного обучения.

 Источник изображений: Intel

Источник изображений: Intel

На вершине семейства находится чип Xeon 6726P-B с 42 ядрами, TDP 235 Вт, базовой частотой 2,3 ГГц (повышается до 2,9 ГГц), поддержкой четырёхканальной памяти DDR5-6400 и 200GbE-контроллером: стоит изделие $3795. Младшая версия Xeon 6503P-B с 12 ядрами, TDP в 110 Вт, частотой 2,0–2,6 ГГц, поддержкой DDR5-4800 и 100GbE-контроллером оценена в $934.

Отмечается, что в IV квартале текущего года серия Xeon 6 SoC пополнится вариантами, насчитывающими до 72 вычислительных ядер. Кроме того, корпорация Intel сообщила, что процессоры следующего поколения Clearwater Forest на основе энергоэффективных ядер E-Core, которые придут на смену Sierra Forest, будут выпущены в I половине 2026 года.

Постоянный URL: http://servernews.ru/1118790
24.02.2025 [12:22], Сергей Карасёв

SambaNova развернула самую быструю инференс-платформу для ИИ-модели DeepSeek-R1 671B

Компания SambaNova объявила о том, что в её облаке SambaNova Cloud стала доступна большая языковая модель DeepSeek-R1 с 671 млрд параметров. При этом благодаря применению фирменных ускорителей SN40L обеспечивается рекордно высокая скорость инференса.

Изделия SambaNova SN40L RDU (Reconfigurable Dataflow Unit) состоят из двух крупных чиплетов, оперирующих 520 Мбайт SRAM-кеша, 1,5 Тбайт DDR5 DRAM и 64 Гбайт памяти HBM3. Восьмипроцессорная система на базе SN40L, по заявлениям SambaNova, способна запускать и обслуживать ИИ-модели с 5 трлн параметров и глубиной запроса более 256k.

Платформа SambaNova Cloud при использовании DeepSeek-R1 671B демонстрирует производительность до 198 токенов в секунду, что на сегодняшний день является рекордным показателем. Для сравнения: у ближайшего конкурента — Together AI — результат составляет 98 токенов в секунду, а у Microsoft Azure — 20 токенов в секунду. Ранее Cerebras объявила о собственном рекорде — до 1508 токенов/с, но для гораздо более скромной и, по мнению компании, практичной модели DeepSeek-R1-Distill-Llama-70B.

 Источник изображения: SambaNova

Источник изображения: SambaNova

Утверждается, что ускорители SambaNova SN40L RDU по сравнению с новейшими GPU обеспечивают в три раза большую производительность и в пять раз более высокую эффективность. В частности, по заявлениям SambaNova, одна стойка с 16 экземплярами SN40L RDU по быстродействию сопоставима с 40 стойками, насчитывающими в общей сложности 320 передовых GPU. Таким образом, существенно сокращаются затраты на использование DeepSeek-R1 671B.

Доступ к DeepSeek-R1 671B в облаке SambaNova Cloud предоставляется посредством API. В перспективе компания планирует наращивать вычислительные мощности, обеспечив производительность на уровне 20 000 токенов в секунду.

Постоянный URL: http://servernews.ru/1118739
24.02.2025 [12:15], Сергей Карасёв

Canalys: объём мирового рынка облачных инфраструктур в 2024 году вырос на 20 %

Компания Canalys подвела итоги исследования глобального рынка облачных инфраструктур: затраты в данной сфере продолжают быстро расти, что объясняется стремительным развитием ИИ. Аналитики ожидают, что в дальнейшем данная тенденция сохранится.

Объём отрасли в IV квартале 2024-го достиг $86 млрд: это на 20 % больше по сравнению с аналогичным периодом предыдущего года. По итогам 2024 года в целом затраты также увеличились на 20 % — с $267,7 млрд до $321,3 млрд. На трёх ведущих поставщиков облачных услуг — AWS, Microsoft Azure и Google Cloud — пришлось 64 % от всей выручки, что эквивалентно $205,6 млрд.

 Источник изображений: Canalys

Источник изображений: Canalys

Лидером глобального рынка остаётся AWS с долей около 33 % в IV квартале и ростом на 19 % в годовом исчислении. За весь 2024 год выручка AWS превысила $100 млрд. Квартальные капитальные расходы AWS достигли $26,3 млрд.

На втором месте в рейтинге ведущих облачных провайдеров располагается платформа Microsoft Azure, которая по итогам последней четверти 2024 года контролировала 20 % рынка при росте выручки на уровне 31 % год к году. Капитальные расходы Microsoft за квартал достигли $22,6 млрд. Замыкает тройку Google Cloud с 11 % рынка и ростом на 32 % в годовом исчислении. Все прочие игроки рынка в IV квартале 2024 года сообща удерживали приблизительно 36 % отрасли.

Отмечается, что ко II половине 2024 года все ведущие поставщики облачных услуг сообщили о положительной отдаче от инвестиций в ИИ, причём такие сервисы оказали заметное влияние на общую эффективность облачного бизнеса. Аналитики Canalys полагают, что в 2025 году мировые затраты на облачные инфраструктуры увеличатся примерно на 19 %, достигнув $382,3 млрд.

Постоянный URL: http://servernews.ru/1118737
24.02.2025 [12:05], Сергей Карасёв

DDN представила объектное хранилище Infinia 2.0 для обучения ИИ и инференса

Компания DataDirect Networks (DDN), специализирующаяся на системах хранения данных для НРС, анонсировала программно-определяемую аппаратно-независимую платформу хранения Infinia 2.0, предназначенную для решения ресурсоёмких задачи в области ИИ, таких как обучение моделей и инференс.

Напомним, оригинальная платформа Infinia была представлена в конце 2023 года. Её преимуществами разработчик называет простоту управления, высокую производительность и безопасность. В качестве узлов могут применяться любые серверы с процессорами Intel, Arm или AMD.

Решение Infinia 2.0, по заявлениям DDN, специально разработано для анализа огромных массивов данных, подготовки и обработки ИИ-моделей. Утверждается, что платформа устраняет традиционные узкие места, присущие стандартным системам хранения. Поддерживается интеграция с NVIDIA NeMo, NIM, Trino, Apache Spark, TensorFlow и PyTorch. Реализован многопротокольный доступ (объектное, блочное хранилище) для повышения гибкости.

 Источник изображения: DDN

Источник изображения: DDN

DDN отмечает, что Infinia 2.0 обеспечивает пропускную способность в терабайты в секунду и задержку менее 1 мс, превосходя по производительности AWS S3 Express в 10 раз. Достигается 100-кратное ускорение обработки метаданных, а также 25-кратное ускорение запросов для обучения моделей ИИ и инференса. По сравнению с Hadoop новая платформа показывает 10-кратное улучшение быстродействия рабочих нагрузок ИИ при 100-кратном повышении эффективности. Скорость обработки списков объектов выше в 100 раз, чем у AWS.

Платформа обладает надёжностью более 99,999 % (время безотказной работы), предлагая сквозное шифрование и доступ на основе сертификатов. Возможно масштабирование от терабайт до эксабайт с поддержкой до более чем 100 тыс. GPU и 1 млн клиентов в одном развёртывании. При этом заявлено 10-кратное снижение требований в отношении питания и охлаждения по сравнению с обычными решениями.

Постоянный URL: http://servernews.ru/1118734
22.02.2025 [22:38], Сергей Карасёв

STMicroelectronics представила фотонный чип для 1,6-Тбит/с сетей

Компания STMicroelectronics объявила о разработке фотонного чипа PIC100, предназначенного для организации высокоскоростного оптического интерконнекта в дата-центрах, ориентированных на задачи ИИ. Изделие создано в сотрудничестве с Amazon Web Services (AWS).

Чипы PIC100 планируется изготавливать с использованием технологического процесса BiCMOS на основе 300-мм кремниевых пластин. Метод BiCMOS предполагает объединение биполярных и КМОП-транзисторов на одном кристалле. Такой подход позволяет совместить преимущества компонентов обоих типов: технология обеспечивает улучшенную производительность по сравнению с КМОП-решениями при меньшей рассеиваемой мощности по сравнению с продуктами на основе только биполярных транзисторов.

По заявлениям STMicroelectronics, на начальном этапе чипы PIC100 смогут поддерживать пропускную способность до 200 Гбит/с на линию. Это даёт возможность формировать соединения, обеспечивающие скорость передачи данных до 800 Гбит/с и 1,6 Тбит/с. Более того, STMicroelectronics работает над решениями с пропускной способностью до 400 Гбит/с на линию, что в конечном итоге, как ожидается, позволит создавать оптические интерконнекты со скоростью до 3,2 Тбит/с.

 Источник изображения: STMicroelectronics

Источник изображения: STMicroelectronics

Одной из проблем на пути практического применения подобных изделий являет рост выделяемого тепла, что может приводить к снижению производительности или увеличению частоты сбоев оборудования. Для минимизации таких негативных эффектов специалисты STMicroelectronics разработали специальные волноводы и оптоволоконные адаптеры. Производить чипы PIC100 планируется на предприятии STMicroelectronics в Кроле (Crolles) во Франции. Выпуск будет организован к концу текущего года.

Постоянный URL: http://servernews.ru/1118686
21.02.2025 [10:04], Руслан Авдеев

Нужно больше дата-центров: AWS намерена построить по ЦОД в «каждом округе» между Северной Вирджинией и Ричмондом

Amazon Web Services (AWS) готовится создать центр обработки данных в каждом округе между Северной Вирджинией и городом Ричмонд (штат Вирджиния), сообщает Datacenter Dynamics. Наиболее крупным кампусом, по-видимому, станет проект Mattermeade на территории сразу двух округов, Спотсильвания (Spotsylvania) и Кэролайн (Caroline), где предполагается построить 11 двухэтажных ЦОД и ряд других вспомогательных строений на площади почти 463 га. Здесь AWS намерена развернуть не менее 770 МВт к 2027 году.

К Северной Вирджинии относятся округа Фэрфакс (Fairfax), Арлингтон (Arlington), Лаудон (Loudoun), Принс-Уильям (Prince William), Спотсильвания (Spotsylvania) и Стаффорд (Stafford), а также города Александрия (Alexandria), Фэрфакс (Fairfax), Фолс-Чёрч (Falls Church), Фредериксбург (Fredericksburg), Маннасас (Manassas) и Маннасас-Парк (Manassas Park). AWS уже имеет кампусы в Лаудоне и Фэрфаксе, а также в округе Принс-Уильям. Ранее она подала заявки на реализацию проектов в Спотсильвании и Стаффорде, хотя, похоже, ещё не ведёт дел в Арлингтоне.

 Источник изображения: Jared Wood/unsplash.com

Источник изображения: Jared Wood/unsplash.com

Также известно о строительстве объектов AWS в округах Луиза (Louisa), Фокье (Fauquier), Калпепер (Culpeper), Кинг-Джордж (King George), Спотсильвания (Spotsylvania), Ориндж (Orange) и Каролайн (Caroline). Ранее Amazon планировала создать ЦОД в округе Фредерик (Frederick), но в начале 2022 года компания отказалась от этих намерений. С учётом планов компании дотянуть цепочку дата-центров до столицы штата, «пострадать» может ещё дюжина округов.

Впрочем, действительно пострадать могут местные жители, которые уже не первый год жалуются на «катастрофический шум» от дата-центров и судятся с местными властями и компаниями, в том числе с той же Amazon, которая уже потратила $35 млрд на ЦОД в Северной Вирджинии и намерена потратить ещё $35 млрд. Бурное развитие сектора ЦОД в штате, подстёгиваемое ростом спроса на ИИ, может привести к проблемам с энергетикой и питьевой водой. Вместе с тем Северная Вирджиния является безусловным лидером по ёмкости ЦОД гиперскейлеров.

Постоянный URL: http://servernews.ru/1118572
20.02.2025 [20:36], Владимир Мироненко

Positive Technologies купила долю в белорусской «Вирусблокаде» для создания собственного антивируса

Разработчик решений в области кибербезопасности Positive Technologies сообщил о приобретении доли белорусского вендора «Вирусблокада», что поможет ему в освоении нового для себя рынка антивирусного ПО. Финансовые условия сделки, по условиям которой Positive Technologies получила исключительные права на технологии, продукты, кодовую базу и базу вирусных сигнатур «Вирусблокады», не раскрываются.

Согласно исследованию Центра стратегических разработок (ЦСР), объём рынка информационной безопасности РФ составит к 2028 году более 700 млрд руб. К этому моменту Positive Technologies планирует занять порядка 20 % рынка. Positive Technologies также планирует совместно с командой «Вирусблокады» работать над усовершенствованием технологии сигнатурного обнаружения. По словам руководителя департамента разработки средств защиты рабочих станций и серверов Positive Technologies, компания намерена уже в 2026 году занять с антивирусом и EDR-решениями не менее 10 % рынка решений для конечных устройств.

Развивая новое направление, Positive Technologies собирается объединить некоторые отделы экспертного центра безопасности (PT Expert Security Center) в антивирусную лабораторию, которая займётся совершенствованием экспертизы в продуктах Positive Technologies в сфере противодействия вредоносным программам. В числе задач лаборатории — поиск и изучение зловредного ПО и хакерских утилит для обновления антивирусных баз, развитие детектирующих технологий, а также разработка прототипов инструментов, повышающих экспертные качества продуктов в распознавании всех видов современного ВПО.

 Источник изображения: Positive Technologies

Источник изображения: Positive Technologies

Positive Technologies планирует до конца этого года интегрировать усовершенствованную антивирусную технологию в MaxPatrol EDR, PT ISIM, PT Sandbox и PT NGFW. Proof of concept антивирусного модуля в составе MaxPatrol EDR будет представлен в мае, раннюю версию антивирусного решения анонсируют этой осенью. В компании сообщили ресурсу РБК, что MaxPatrol EDR с новым модулем поступит в продажу в III квартале, а в конце года выйдет новый продукт.

«Антивирус будет продвигаться, прежде всего, как модуль существующего продукта EDR, либо как часть других продуктов, а в конце года и как самостоятельное решение для заказчиков, которые уже используют продукты Positive Technologies, а также для тех, кому необходим альтернативный источник экспертизы по обнаружению зловредного ПО»,рассказали «Интерфаксу» в компании.

Постоянный URL: http://servernews.ru/1118602
19.02.2025 [16:44], Руслан Авдеев

Только для европейцев: AWS вынужденно покидает совет директоров CISPE

Amazon (AWS) покинула совет директоров европейской ассоциации облачных операторов CISPE после недавнего обновления устава организации. Теперь в её управлении могут участвовать только компании, базирующиеся в самой Европе, сообщает The Register. Впрочем, «неместные» провайдеры облачных услуг, с годовым доходом, превышающим €10 млрд, тоже могут быть постоянными участниками, но непосредственно в управлении они участвовать не будут. Дополнительно CISPE приняла решение о создании «Комитета по суверенитету и стратегической автономии» (Sovereignty and Strategic Autonomy Committee).

Краткий пресс-релиз опубликован на сайте ассоциации. Теперь в совет входят представители компаний из Нидерландов, Франции, Италии, Австрии и Великобритании. С полным составом можно ознакомиться на сайте организации. Представители Gigas и UpCloud решили не баллотироваться на переизбрание.

В CISPE утверждают, что решения стали ответом на растущий спрос пользователей облачных сервисов из Европы на конкурентоспособную местную инфраструктуру и решения на базе ИИ. В ассоциации добавили, что изменения происходят в судьбоносный момент, когда обеспокоенность геополитической зависимостью становится всё более выраженной — формирование собственной облачной экосистемы ещё никогда не было столь очевидно.

 Источник изображения: Marek Piwnicki/unsplash.com

Источник изображения: Marek Piwnicki/unsplash.com

Примечательно, что в Евросоюзе на AWS, Microsoft и Google приходится около 70 % расходов клиентов на облачную инфраструктуру, а многие рассматривали CISPE как лоббистскую группу AWS. Ассоциация резко критиковала Microsoft за политику лицензирования своего ПО в сторонних облаках.

В июле прошлого года Microsoft заключила сделку с CISPE, отозвавшую антимонопольную жалобу 27 европейских облачных провайдеров на стоимость ПО Microsoft в облаках, отличных от Azure, а также другие проблемы. Google пыталась помешать соглашению, но у компании ничего не вышло. Более того, позже Microsoft сама вступила в ассоциацию в качестве участника без права голоса. Хотя AWS выступила против, компания оказалась в меньшинстве.

В AWS заявляют, что гордятся вкладом в достижения организации за годы членства и сейчас сложилась подходящая возможность передать руководящие роли другим операторам. При этом компания продолжит активно участвовать в инициативах CISPE, поддерживающих облачную индустрию и повышающих конкурентоспособность Европы. Пока нет данных, не намерена ли AWS войти в состав другой торговой организации аналогичного профиля. Например, не так давно Google фактически основала группу Open Cloud Coalition (OCC), которую в Microsoft теперь называют «лоббистским фронтом».

Как утверждают в Synergy Research Group, в 2024 году глобальный рынок облачных вычислений составил порядка $330 млрд, на Европу обычно приходится около 20 % от этой суммы. На AWS, Microsoft и Google приходится 30 %, 21 % и 12 % соответствующих расходов клиентов соответственно, а в Европе доля их рынка значительно выше.

Постоянный URL: http://servernews.ru/1118501
19.02.2025 [13:30], Сергей Карасёв

Asustor выпустила JBOD-массив Xpanstor 12R на 12 накопителей и адаптер AS-SAS8e

Компания Asustor анонсировала JBOD-массив Xpanstor 12R, а также адаптер SAS HBA AS-SAS8e. Изделия предназначены для расширения возможностей сетевых хранилищ (NAS) путём добавления дополнительных накопителей (HDD или SSD) с интерфейсом SATA/SAS.

Устройство Xpanstor 12R выполнено в форм-факторе 2U на основе контроллера SAS3X28R. Реализованы по два порта SAS In и SAS Out. Во фронтальной части располагаются 12 отсеков для накопителей LFF или SFF с интерфейсом SATA-3 или SAS-3. Допускается горячая замена.

Новинка позволяет формировать массивы JBOD, RAID 0, 1, 5, 6, 10. Установлены два (1+1) блока питания мощностью 650 Вт каждый. За охлаждение отвечают три вентилятора 80 × 38 мм с возможностью горячей замены. Габариты устройства составляют 89 × 437 × 647 мм, масса — 13,15 кг без накопителей. Диапазон рабочих температур — от 0 до +40 °C. Производитель предоставляет пятилетнюю гарантию.

 Источник изображений: Asustor

Источник изображений: Asustor

Адаптер AS-SAS8e выполнен в виде карты расширения PCI Express 4.0 x8. Задействован контроллер Broadcom SAS3808. Есть два коннектора SFF-8644 (поддерживаются интерфейсы SATA-3 и SAS-3.). Новинка имеет низкопрофильное исполнение, но в комплект входит монтажная планка полной высоты. Адаптер может эксплуатироваться при температурах от 0 до +55 °C.

Заявлена совместимость с платформами ADM 5.0, Windows, VMware vSphere/ESXi, Red Hat Enterprise Linux, SUSE Linux Enterprise Server, Citrix XenServer, CentOS Linux, Ubuntu Linux, Debian Linux, Oracle Enterprise Linux, Fedora, FreeBSD. Карта имеет размеры 68,77 × 167,65 мм и весит около 100 г. Гарантия производителя — три года.

Постоянный URL: http://servernews.ru/1118491
Система Orphus