Материалы по тегу: ocp

27.11.2021 [20:02], Игорь Осколков

РЖД внедряет российское OCP-оборудование

В рамках Intel Experience Day 2021 компании-партнёры Intel рассказали о своей работе в России, в том числе о проектах в области импортозамещения. Так, российский разработчик OCP-оборудования Delta Computers (входит в ГК Delta Solutions) поделился некоторыми деталями о текущем проекте для холдинга «Российские железные дороги» (РЖД).

У РЖД есть свои особенности. Это, в первую очередь, широчайшая географическая распределённость систем, что привело к специфике развёртываемых компанией дата-центров и требованиям к размещаемому в нём оборудованию. Delta Solutions смогла создать ряд типовых конфигураций, что позволило установить практически идентичные IT-комплексы на 16 железных дорогах, находящихся в ведении РЖД.

Изображение: Delta Computers

Изображение: Delta Computers

Проект направлен на построение защищённой инфраструктуры VDI для 15 тыс. пользователей. Он будет окончательно завершён и оценён в следующем году. По словам Delta Solutions, это пилотный проект для всех госкорпораций России в области импортозамещения, который включает не только отечественное «железо» (оборудование компании находится в реестре Минпромторга), но и полностью отечественно ПО (впрочем, сертификации есть и для зарубежных решений).

Это один из заметных в России проектов по внедрению OCP-оборудования, если не считать рынок гиперскейлеров, для (и из-за) которых 10 лет назад и появилась сама инициатива OCP. Сейчас компания поставляет в первую очередь решения Tioga Pass на базе процессоров Intel Xeon Scalable первого и второго поколений, а к концу года она намерена представить системы Butterfly на базе третьего поколения (Ice Lake-SP).

Delta Solutions надеется, что успешное завершение проекта с РЖД покажет другим российским заказчикам, что импортозамещение не означает потерь в качестве, в функциональности и в возможностях использовать современные решения. Отметим, что созданием отечественного OCP-оборудования также занимается компания GAGAR>IN («Гагар.ИН»), да и новому СП «Яндекса», «ЛАНИТ», Gigabyte и ВТБ это по силам.

Постоянный URL: http://servernews.ru/1054656
21.11.2021 [01:54], Игорь Осколков

Meta (Facebook) и Intel показали прототип сервера с CXL-памятью: DDR4 поверх PCIe 5.0

На SC21 консорциум CXL не только объявил о поглощении всех наработок Gen-Z, но и представил несколько демо от разных участников консорциума. Одним из самых интересных стал показ прототипа сервера с CXL-памятью от Meta (бывшая Facebook). Доклад о нём был сделан ещё на OCP Global Summit, но вот видеодемонстрация стала публичной только на этой неделе.

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

FPGA-протототип CXL-модуля с DDR4 (Фото: Intel)

Перед Meta давно встала проблема увеличения ёмкости и плотности размещения DRAM. Причём у компании, как и других гиперскейлеров, очень жёсткие ограничения на физические размеры, энергопотребление и стоимость систем — создание и содержание парка в миллионы серверов выливается в круглые суммы. Представитель Meta в ходе доклада отметил несколько важных факторов, учитываемых при создании новых платформ.

Здесь и ниже изображения Meta

Здесь и ниже изображения Meta

Так, в последние годы цена за 1 Гбит DRAM перестала существенно падать, поэтому память становится всё более дорогим компонентом в составе сервера. И не только с точки зрения финансов, но и по энергопотреблению, что отрицательно влияет на совокупную стоимость владения (TCO). Кроме того, производительность процессоров заметно выросла, в основном благодаря увеличению числа ядер (в три с лишним раза). Однако пропускная способность памяти в пересчёте на канал в среднем лишь удвоилась, а в пересчёте на ядро — и вовсе упала почти вдвое.

Тем не менее, ядра CPU всё равно надо как-то «прокормить», поэтому приходится искать новые пути масштабирования пула DRAM. Простым увеличением числа DIMM-слотов не обойтись — каждый «лишний» канал памяти обходится в дополнительные пару сотен дорожек в разводке платы, что при росте числа каналов приводит к увеличению числа слоёв материнской платы (и буквально её толщины). А попутное увеличение скорости памяти ведёт к необходимости использования более дорогих материалов и всё тем же проблемам.

Как отмечают некоторые аналитики, платформы следующего поколения с поддержкой DDR5 будут дороже нынешних, но дело не в самой памяти, динамика удешевления которой будет примерно той же, что у DDR4, а именно в необходимости увеличения числа слоёв в материнских платах где-то на треть. Решением мог бы стать переход на последовательные интерфейсы — буферизованная DDIM-память (OMI) уже используется в серверах IBM E1080, но компактной её не назовёшь.

Однако у нас и так уже есть другой, универсальный и широко распространённый последовательный интерфейс — это шина PCI Express 4.0, а в ближайшем будущем и 5.0. Она обеспечивает приемлемую скорость передачи данных, но требует где-то на три четверти меньше сигнальных линий, которые могут иметь бо́льшую протяжённость по сравнению с DDR. Строго говоря, попытки создать PCIe-фабрики для дезагрегации ресурсов уже предприняты, к примеру, GigaIO и Liqid. С приходом CXL это станет ещё проще.

CXL позволит задействовать разные типы памяти с разными характеристиками, используя единый интерфейс. Например, можно с одной и той же платформой использовать и DDR5, и DDR4, и SCM (PMem). Чем-то похожим занимался и консорциум Gen-Z, куда, как ни странно, не входила Intel, которая и стала одним из основателей и апологетов Compute Express Link. С ней-то Meta и работает около года над прототипом нового сервера и платы расширения с DRAM для него.

Прототип использует сервер с инженерным образцом Intel Xeon Sapphire Rapids и стандартную карту расширения для платформы Yosemite v3. Карта с x16-подключением PCIe 5.0 несёт на борту инженерную версию FPGA (вероятно, что-то из серии Agilex) с двумя контроллерами памяти и двумя же слотами DIMM для обычной регистровой DDR4 суммарным объёмом 64 Гбайт. На базе FPGA реализован интерфейс CXL 2.0, который имеет поддержку протокола CXL.memory и даёт расширенные возможности мониторинга и отладки.

При старте системы происходит опрос доступных PCIe-устройств и согласование с ними скоростей и возможностей, после чего становится доступна оперативная память, физически размещённая на карте расширения, а не только локальная DDR5, «привязанная» к процессору. В этом случае система «видит» несколько NUMA-доменов — два от самого CPU и ещё один «безпроцессорный». Прототип успешно проходит все базовые тесты, так что программно-аппаратный стек уже достаточно хорошо проработан.

Постоянный URL: http://servernews.ru/1054197
14.11.2021 [21:11], Владимир Мироненко

LiquidStack и Microsoft продемонстрировали ИИ-серверы с двухфазным иммерсионным охлаждением

LiquidStack, дочернее предприятие BitFury, специализирующееся на разработке иммерсионных СЖО, и Microsoft продемонстрировали на OCP Global Summit стандартизированное решение с двухфазным погружным жидкостным охлаждением. Демо-серверы Wiwynn, разработанные в соответствии со спецификациями OCP Open Accelerator Infrastructure (OAI), были погружены в бак LiquidStack DataTank 4U, способный отводить порядка 3 кВт/1U (эквивалент 126 кВт на стойку).

LiquidStack сообщила, что она впервые оптимизировала серверы OCP OAI для охлаждения путем погружения в жидкость. По словам компании, её двухфазные иммерсионные СЖО DataTank предоставляют наиболее эффективное решение, которое требует немного пространства и потребляет меньше энергии, чем другие системы охлаждения, и вместе с тем повышает плотность размещения компонентов и их производительность.

Фото: LiquidStack

Фото: LiquidStack

В демо-серверах использовались ИИ-ускорители Intel Habana Gaudi, погружённые в жидкий диэлектрик (от 3M) с низкой температурой кипения, который наиболее эффективно отводит тепло благодаря фазовому переходу. Данное решение должно помочь достижению показателя PUE в пределах от 1,02 до 1,03, поскольку оно практически не потребляет энергию. LiquidStack утверждает, что у её СЖО эффективность теплоотвода примерно в 16 раз выше, чем у типичных систем воздушного охлаждения.

Фото: LiquidStack

Фото: LiquidStack

По мнению компании, системы высокопроизводительных вычислений (HPC) уже сейчас слишком энергоёмки, чтобы их можно было охлаждать воздухом. Поэтому следует использовать платы, специально предназначенные для жидкостного охлаждения, а не пытаться адаптировать те, что были созданы с расчётом на воздушные системы — при использовании СЖО вычислительная инфраструктура может занимать на 60% меньше места.

Изображение: Microsoft

Изображение: Microsoft

LiquidStack и Wiwynn являются партнёрами. В апреле Wiwynn инвестировала в LiquidStack $10 млн. Также Wiwynn протестировала серверы с погружным жидкостным охлаждением в центре обработки данных Microsoft Azure в Куинси (штат Вашингтон). Microsoft, как и другие гиперскейлеры, уже некоторое время изучает возможности иммерсионных СЖО.

Постоянный URL: http://servernews.ru/1053696
12.11.2021 [15:37], Андрей Галадей

Wiwynn представила первый OCP-сервер с сертификацией OSF

Компания Wiwynn в рамках OCP Global Summit сообщила, что в её решении на базе Yosemite V3 впервые реализована полная поддержка Open System Firmware (OSF), а само решение полностью соответствует стандартам OCP, что открывает путь для дальнейшего внедрения гиперскейлерами. В проекте OSF также участвуют Facebook, Intel и 9elements

OSF предполагает замену проприетарных решений от производителей аппаратных платформ на открытые (open source) реализации, которые отвечают за инициализацию и первичную загрузку системы, что важно для заказчиков, желающих иметь как можно более полный контроль над «железом». Два года назад Intel пообещала, что станет более открытой в отношении этих разработок, и слово своё сдержала.

В системе Delta Lake от Wiwynn, а это односокетное решение на базе процессора Intel Xeon Cooper Lake, используется Coreboot с необходимыми компонентами FSP (Intel Firmware Support Package), который после инициализации CPU, RAM и PCH передаёт управление LinuxBoot. Платформы следующего поколения на базе Sapphire Rapids будут совместимы с открытыми решениями по умолчанию.

Постоянный URL: http://servernews.ru/1053235
12.11.2021 [14:37], Сергей Карасёв

Объём продаж OCP-оборудования достигнет $46 млрд к середине десятилетия

Исследование, проведённое компанией Omdia, говорит о том, что продажи оборудования OCP (Open Compute Project) стремительно растут. По итогам нынешнего года, как прогнозируется, объём соответствующего сегмента достигнет $21,7 млрд против $16,1 млрд в прошлом году. Таким образом, продажи в денежном выражении поднимутся на 34 %.

OCP — это международное сообщество, основанное в 2011 году по инициативе Facebook (ныне Meta) и ориентированное на обмен передовым опытом в области разработки решений для дата-центров и сетевых платформ. На сегодняшний день инициативу поддерживают более 280 компаний по всему миру. В настоящее время основными покупателями OCP-оборудования являются гиперскейлеры: на них придётся $15,4 млрд из $21,7 млрд выручки в текущем году.

Фото: OCP

Фото: OCP

Однако в последующие годы всё больше дохода начнут приносить облачные провайдеры второго эшелона, телекоммуникационные операторы и корпоративные заказчики Так, в 2021-м выручка в сегменте облачных провайдеров второго эшелона, по оценкам, поднимется на 64 % — с $1,99 млрд до $3,2 млрд. В сегменте телекоммуникационных операторов ожидается рост на 76 % — до $1,7 млрд.

К 2025 году, согласно прогнозам, объём мирового рынка ОСР-оборудования достигнет $46 млрд. Из них $8,1 млрд принесут облачные провайдеры второго эшелона, ещё $6,6 млрд — телеком-операторы. Основную часть выручки от реализации ОСР-устройств будут давать серверы. В 2021-м на них придётся 71 % всех продаж, или $15,4 млрд. Около $3 млрд составят продажи систем хранения данных.

Постоянный URL: http://servernews.ru/1053594
11.11.2021 [18:01], Алексей Степин

Meta уже использует в своей инфраструктуре чипы Broadcom Tomahawk 4

О планах Meta (ранее известной как Facebook) уже рассказывалось неоднократно — так, к примеру, на OCP Global Summit компания сообщила о том, что открытые технологии позволяют ей использовать сетевые процессоры разных производителей. Есть и более любопытная новость: Broadcom объявила о том, что первой в индустрии массовой платформой на базе нового коммутатора Tomahawk 4 стала система Meta Minipack2.

Если серия коммутаторов Wedge 400 базируется на кремнии с предельной производительностью обработки трафика 12,8 Тбит/с, то в основе Minipack2 лежит наиболее продвинутая на сегодня разработка Broadcom, чип Tomahawk 4 (BCM56990), способный «прокачивать» трафик на вдвое большей скорости — 25,6 Тбит/с. Этот ASIC в максимальной конфигурации способен обслуживать до 64 портов 400GbE и вдвое больше портов 200GbE. В настоящее время это единственный производимый в достаточных количествах 7-нм коммутатор с такой производительностью.

Meta Minipack2

Meta Minipack2

Благодаря 7-нм техпроцессу Tomahawk4 обеспечивает низкий удельный уровень энергопотребления и тепловыделения, а эти факторы критичны с учётом сверхплотной компоновки ЦОД Meta. Так, максимальный TDP нового чипа составляет всего 450 Ватт, и с учётом вдвое более высокой производительности по сравнению с Tomahawk 3 — это совсем немного, поскольку у последнего этот показатель составлял 300 Ватт.

Архитектура Broadcom Tomahawk 4

Архитектура Broadcom Tomahawk 4

Платформа Meta Minipack2 относится к коммутаторам класса leaf/spine, в ней ASIC Broadcom работает в конфигурации 128 × 200GbE, но сам коммутатор, как и его предшественник первого поколения, имеет модульную конструкцию, позволяющую использовать разные типы сетевых интерфейсов: либо 128 портов QSFP56, либо 64 порта QSFP-DD (для новой 400GbE-топологии F16). Дополняют Tomahawk 4 ретаймеры Barchetta 2 на базе SerDes-блоков PAM4 56 Гбит/с, а также Intel Xeon D-1527.

Arista Networks 7388X5 также имеет модульную конструкцию

Arista Networks 7388X5 также имеет модульную конструкцию

Но Minipack2 не единственная новинка Meta — компания активно сотрудничает с Arista Networks, представившей коммутатор Arista 7388X5, который также базируется на Tomahawk 4. Этот коммутатор также имеет модульную компоновку, но отличается большей ориентированностью на инфраструктуру гиперскейлеров и имеет выделенный криптографический SerDes-сопроцессор Credo MACSec, обеспечивающий шифрование AES-256.

Постоянный URL: http://servernews.ru/1053522
10.11.2021 [22:50], Сергей Карасёв

Samsung Poseidon V2 — первая СХД на базе Intel Xeon Sapphire Rapids с DDR5, PCIe 5.0 и CXL

Южнокорейский гигант Samsung представил первый образец системы хранения данных на аппаратной платформе Intel Xeon следующего поколения — Sapphire Rapids. Устройство продемонстрировано в рамках мероприятия OCP Global Summit 2021, которое посвящено открытым проектам в сферах программного и аппаратного обеспечения для центров обработки данных. Новинка разработана совместно с Inspur и Naver Cloud.

Poseidon V2 имеет два процессора Sapphire Rapids, 32 слота для модулей DDR5, а также вмещает до 24 устройств E3.S 1T (в отличие от E1 в Poseidon V1), но корзина совместима и с E3.S 2T. Собственно говоря, хранилищем в традиционно смысле слова эта система не является. Да, она подходит для NVMe SSD с интерфейсом PCIe 5.0 (как PM1743) — обычных NAND и SCM вроде Z-SSD, XL-Flash или Intel Optane — и предлагает быструю реализацию NVMe-oF, в том числе NVMe/TCP.

Poseidon V2 (Здесь и далее изображения Samsung)

Poseidon V2 (Здесь и далее изображения Samsung)

Для 200GbE-подключением к системе Samsung уже удалось достичь скорости последовательных чтения и записи в 24,5 и 18,6 Гбайт/с, а для случайных — 19,4 и 8,7 Гбайт/с соответственно. Однако в форм-факторе E3.S также будут выпускаться и SmartSSD с возможностью самостоятельной обработки данных, и различные ускорители, и DRAM-экспандеры. Последнее возможно благодаря поддержке Сompute Express Link (CXL).

Однако наличие аппаратной поддержки — это полдела. Поэтому Samsung развивает фирменную Poseidon Storage OS. ОС будет отвечать за управлением томами, формирование программных RAID-массивов, мониторинг и профилирование производительности и так далее. Кроме того, она предложит функцию высокой доступности (2 узла), многопутевое (multi-path) подключение и будет принимать во внимание неравномерность доступа к памяти (NUMA). Разработчикам будут доступны открытые API.

Старт массового производства Poseidon V2 намечен на III квартал 2022 года, а в IV квартале Samsung планирует передать OCP все наработки по проекту. Строго говоря, большая часть компонентов новинки уже сделана в соотвествии со стандартами OCP, так что этот процесс вряд ли затянется.

Постоянный URL: http://servernews.ru/1053369
10.11.2021 [17:08], Алексей Степин

Meta представила 400G-коммутаторы Wedge 400 и 400C на чипах Broadcom и Cisco

На саммите OCP компания Meta (ранее Facebook) рассказала о своей новой сетевой платформе, которая является основой инфраструктуры её дата-центров. В частности, Meta с прошлого года использует новые модульные ToR-коммутаторы, которые не только основаны на более современных чипах, но и используют открытые API.

Meta давно переросла статус просто «социальной сети». Очевидно, что ИТ-компания таких масштабов нуждается в подходящей сетевой и вычислительной инфраструктуре. С учётом того, что Meta планирует активно развивать направления виртуальной и дополненной реальности, уже существующих мощностей может и не хватить, поэтому в своём выступлении на OCP Global Summit компания рассказала о планах по модернизации сетевых решений.

Wedge 400C (Здесь и далее изображения Meta/OCP)

Wedge 400C (Здесь и далее изображения Meta/OCP)

Предыдущее поколение коммутаторов top-of-rack (ToR) Meta Wedge 100 было разработано Edgecore Networks. Это достаточно мощные устройства, базирующиеся на платформе Broadcom Tomahawk и CPU Intel Pentium D1508. Но предельная скорость 100 Гбит/с на порт уже недостаточна для задач Meta, поэтому компания активно заменяет эти коммутаторы на более новые Wedge 400 и 400C, производство которых снова отдано Celestica. Процесс перехода начался ещё в июле 2020 года.

Wedge 400 базируется на чипе Broadcom Tomahawk 3, а в основе модели Wedge 400C лежит чип Cisco Silicon One. В обоих случаях используются ASIC, способные обрабатывать трафик на скорости 12,8 Тбит/с. Дополняет их Intel Xeon D-1527. Модульная конструкция Wedge 400(C) позволяет заменять большинство компонентов, включая процессорные модули, на лету. На переднюю панель выведено 16 портов 400GbE (QSFP-DD) и 32 порта 200GbE (QSFP56). При этом шасси имеет высоту всего 2OU.

Примечательно, что в этом поколении используется открытый стандарт SAI, продвигаемый консорциумом OCP в сотрудничестве с Broadcom и Cisco. Сетевой ОС Meta по-прежнему является Facebook Open Switching System (FBOSS), доработанная с учётом SAI. Это позволяет компании использовать сетевые процессоры разных производителей в единой системе без необходимости глубокой адаптации под каждую платформу.

Также стоит отметить, что в своих ЦОД Meta уже перешла на оптическое подключение 200G-FR4 и активно работает над переходом к 400G-FR4. Отдельное внимание уделено совместимости — новые модули будут работать как минимум с двумя поколениями коммутаторов, а то и с тремя.

Постоянный URL: http://servernews.ru/1053412
10.11.2021 [00:49], Игорь Осколков

North Dome — первый сервер Meta (Facebook) с процессорами AMD EPYC Milan

В рамках OCP Global Summit компания Meta (ранее известная как Facebook) показала свои первые серверы North Dome на базе процессоров AMD EPYC Milan. Но сразу же стоит уточнить два момента. Во-первых, сама платформа фактически была представлена ещё в сентябре. Во-вторых, в экосистеме OCP это не первые серверы с процессорами AMD.

В рамках Project Olympus от Microsoft различные варианты серверов с 2017 года представили MiTAC, Quanta и ZT Systems. У MiTAC также есть свежие решения Tioga Pass этого года, но появление платформы от самой Meta гораздо важнее, поскольку компания ранее предпочитала решения Intel. Meta отмечает существенный прирост в производительности на Ватт по сравнению с серверами Twin Lakes на базе Intel Xeon D-2100. Да и наличие «второго источника» для неё, вероятно, тоже стало критичным.

Сервер North Dome (Здесь и далее изображения Meta/OCP)

Сервер North Dome (Здесь и далее изображения Meta/OCP)

North Dome предназначен для платформы Yosemite V2, а не более свежей Yosemite V3, которая использует уже процессоры Intel Xeon Cooper Lake-SP. Тем не менее, обе эти платформы модульные и не привязаны к конкретному производителю CPU, GPU, SSD и прочих компонентов. Поскольку это платформа с достаточно высокой плотностью размещения и воздушным охлаждением, существенным ограничением для процессоров является типовой уровень TDP — обычно от 85 до 105 Вт.

Сервер North Dome имеет один сокет SP3 и поддерживает установку и Rome, и Milan, но полная валидация сделана только для последнего поколения EPYC. Вокруг сокета есть шесть DIMM-слотов (1DPC) для модулей памяти DDR4-2667/3200. На обратной стороне платы есть два слота для NVMe SSD: M.2 2280 и 22110. Суммарно сервер предоставляет 29 линий PCIe 3.0/4.0: x16 и x8 с возможностью бифуркации + x4 + x1. Также доступен один порт USB 2.0 и интерфейсы I2C и UART.

В сервере используется кастомный 36-ядерный процессор EPYC Milan c TDP 95 Вт, оптимизированный для достижения лучшего соотношения производительности (общей и на каждый поток), энергопотребления и латентности. Доработке подверглись BIOS, ОС и средства разработки. AMD и Meta совместно работают над оптимизацией рабочих нагрузок. Это в основном веб, ИИ и СУБД.

Постоянный URL: http://servernews.ru/1053355
08.11.2021 [23:35], Владимир Мироненко

KIOXIA выпустила E1.S SSD XD6 и анонсировала серию CD7: E3.S и PCIe 5.0

KIOXIA анонсировала первую в отрасли серию твердотельных накопителей CD7 в форм-факторе EDSFF E3.S (7,5 мм) с поддержкой PCIe 5.0. Семейство EDSFF E3, лишённое конструктивных ограничений 2,5" форм-фактора, оптимизировано для использования в высокопроизводительных и высокоэффективных серверах и системах хранения.

KIOXIA уже сотрудничает с ведущими разработчиками серверов и систем хранения в разработке решений EDSFF. «Форм-фактор EDSFF E3 призван переопределить способ проектирования корпоративных серверов и систем хранения, — отметил Грег Вонг (Greg Wong), основатель и главный аналитик Forward Insights. — Мы ожидаем, что рынок перейдет на EDSFF, начиная с 2022 года, с внедрением систем на базе PCIe 5.0».

KIOXIA

KIOXIA

Накопители CD7 используют флеш-память BiCS FLASH 3D четвёртого поколения от KIOXIA. Они имеют четыре линии PCIe 5.0, но оптимизированы для работы по двум линиям, что эквивалентно подключению PCIe 4.0 x4. Это позволяет сэкономить линии PCIe, разместив большее число накопителей в шасси или отдав их ускорителям и адаптерам и не потеряв при этом в производительности.

Заявленная скорость последовательного чтения достигает 6450 Мбайт/с, а показтель IOPS для случайного чтения равен 1,05 млн IOPS. Задержки чтения (75 мкс) и записи (14 мкс) на 17 % и 60 % соответственно ниже, чем у SSD предыдущего поколения с интерфейсом PCIe 4.0. Новинки будут доступны в версиях на 1,82, 3,84 и 7,68 Тбайт.

KIOXIA

KIOXIA

KIOXIA также объявила о начале массового производства 9,5-мм E1.S-накопителей серии XD6, которые были представлены в ноябре прошлого года. На тот момент это были E1.S SSD, которые отвечали конкретным требованиям гиперскейлеров производительности, энергоэффективности и температуре в соответствии со спецификацией Open Compute Platform (OCP) NVMe Cloud SSD. В серии XD6 также модели высотой 15 и 25 мм.

Согласно консорциуму EDSFF и спецификациям OCP NVMe Cloud SSD, малый форм-фактор E1.S призван заменить форм-фактор M.2 и обеспечить большую плотность, производительность, надёжность и управление температурным режимом. E1.S также поддерживает горячую замену для повышения удобства обслуживания, что является ещё одним преимуществом по сравнению с M.2. Одной из первых массовых платформ с их поддержкой стала OCP Yosemite V3 (Facebook).

Постоянный URL: http://servernews.ru/1053250
Система Orphus