Материалы по тегу: hardware
20.06.2024 [16:29], Руслан Авдеев
И посчитать, и погреться: HPE и Danfoss представили микро-ЦОД, способный отапливать зданияПо мере роста энергопотребления ЦОД развиваются и решения, способные компенсировать ущерб окружающей среде. Network World сообщает, что компании Hewlett Packard Enterprise (HPE) и датская Danfoss запустили серию усовершенствованных модульных дата-центров, позволяющих использовать тепло, генерируемое в процессе их работы, в любых целях. За основу была взята система утилизации «мусорного» тепла, применяемая в штаб-квартире Danfoss в Дании. По данным Международного энергетического агентства (IEA), к 2026 году ИИ-индустрия будет потреблять на порядок больше электроэнергии, чем в 2023 году. Дата-центры всегда вырабатывали много тепла, причём по мере роста вычислительных мощностей растёт и отдача тепловой энергии. Поэтому HPE и датская инжиниринговая компания Danfoss создали готовое решение в рамках HPE IT Sustainability Services — модульную систему Data Center Heat Recovery. Решение включает модульный дата-центр HPE (Modular Data Center) — компактный контейнер с высокой плотностью размещения оборудования с прямым жидкостным охлаждением, который, как заявляют в HPE, может быть развёрнут практически везде и позволит снизить общее потребление энергии на 20 %. Danfoss же предоставила модули отбора тепла для его передачи ближайшим зданиям и промышленным объектам. Безмасляные компрессоры Turbocor повышают эффективность систем охлаждения ЦОД при оптимистичном сценарии на целых 30 %. Выгода для пользователей очевидна, говорят компании, поскольку захваченное тепло позволяет не генерировать его специально. В HPE даже предложили измерять сэкономленное тепло в «негаваттах», т.к. затраты на его генерацию в данном случае отрицательны. С учётом огромных объёмов потребляемого ЦОД электричества, экономия 30 % энергии может стать существенной. Впрочем, технология имеет определённые ограничения и пригодится не всем. Если обогревать окружающие здания нет необходимости, то никакой экономии энергии и не будет. Подобные технологии уже активно применяют как в Северной Америке, так и в Европе и других регионах. Особенно эффективны они в странах с прохладным климатом. Впрочем, такие системы пока довольно дороги, а иногда и вовсе не имеют смысла по целому ряду причин, в том числе экономических.
20.06.2024 [15:13], Сергей Карасёв
Orange Pi представила одноплатный компьютер KunPeng Pro на чипе Huawei с NPUВ ассортименте Orange Pi, по сообщению ресурса CNX Software, появился одноплатный компьютер под названием KunPeng Pro на аппаратной платформе Huawei. Новинка, использующая Linux-дистрибутив openEuler, предназначена для решения различных задач, связанных с ИИ. В основу решения положен неназванный Arm-процессор Kunpeng с четырьмя ядрами и встроенным ИИ-движком, обеспечивающим производительность до 8 TOPS. Объём памяти LPDDR4X может составлять 8 или 16 Гбайт. Оснащение включает чип SPI-флеш ёмкостью 32 Мбайт, модуль eMMC вместимостью 32, 64, 128 или 256 Гбайт, а также слот microSD. Дополнительно может быть установлен SSD формата M.2 2280 с интерфейсом SATA/NVMe. Есть контроллер 1GbE, адаптеры Wi-Fi 5 и Bluetooth 4.2. Размеры составляют 107 × 68 мм, масса — 82 г. ![]() Источник изображения: Orange Pi Одноплатный компьютер располагает двумя коннекторами HDMI 2.0 с поддержкой видео до 4Kp60, двумя портами USB 3.0 Type-A, 3,5-мм аудиогнездом, гнездом RJ-45 для сетевого кабеля, а также двумя портами USB Type-C, один из которых служит для подачи питания (до 65 Вт). Присутствуют также интерфейсы MIPI DSI (2 линии) и 2 × MIPI CSI, 40-контактная колодка GPIO (UART, I2C, SPI, I2S, PWM), коннекторы для вентилятора охлаждения и батарейки. Приобрести Orange Pi KunPeng Pro можно по ориентировочной цене от $173. Нужно отметить, что ранее команда Orange Pi анонсировала другой одноплатный компьютер с процессором Huawei — модель AIPro. Это решение получило чип Ascend с четырьмя 64-битными ядрами и ИИ-ускорителем с быстродействием до 8/20 TOPS на операциях INT8 (FP16).
20.06.2024 [14:54], Владимир Мироненко
HPE и NVIDIA представили совместные решения для ускорения внедрения ИИHewlett Packard Enterprise (HPE) и NVIDIA представили платформу NVIDIA AI Computing by HPE — портфель совместно разработанных решений для ускорения внедрения генеративного ИИ. Ключевым в портфеле является предложение HPE Private Cloud AI. Как указано в пресс-релизе, это первое в своём роде комплексное решение, которое обеспечивает самую глубокую на сегодняшний день интеграцию вычислительных технологий, сетей и ПО NVIDIA с хранилищем, вычислительными ресурсами и облачной платформой HPE GreenLake. Решение предоставляет предприятиям любого размера возможность быстрой и эффективной разработки и развёртывания приложений генеративного ИИ. Решение HPE Private Cloud AI с новой функцией OpsRamp AI Copilot, которая позволяет повысить эффективность ИТ-операций и обработки рабочих нагрузок, включает в себя облачную среду самообслуживания с полным управлением жизненным циклом. Оно доступно в четырёх конфигурациях (Small, Medium, Large и Extra Large) для поддержки рабочих нагрузок ИИ различной сложности. HPE Private Cloud AI также поддерживает инференс, точную настройку моделей и их дообучение посредством RAG с использованием собственных данных. Решение сочетает в себе средства контроля конфиденциальности, безопасности, прозрачности и управления данными, в том числе средства ITOps и AIOps. AIOps использует машинное обучение и анализ данных для автоматизации и улучшения ИТ-операций. ITOps включает в себя ряд инструментов, обеспечивающих бесперебойное функционирование ИТ-инфраструктуры организации. Конфигурация HPE Private Cloud AI Small, предназначенная для инференса, включает от четырёх до восьми ускорителей NVIDIA L40S, до 248 Тбайт дискового пространства и 100GbE-подключение в стойке мощностью 8 кВт. Конфигурация Medium, предназначенная для инференса и RAG, включает до 16 ускорителей NVIDIA L40S, до 390 Тбайт дискового пространства и 200GbE-подключение в стойке мощностью 17,7 кВт. Конфигурации Large и Extra Large предлагают дополнительные возможности по обработке нагрузок ИИ и ML, а также тонкой настройке ИИ-модели. Конфигурация Large включает до 32 ускорителей NVIDIA H100 NVL, до 1,1 Пбайта дискового пространства и 400GbE-интерконнект в двух стойках мощностью 25 кВт каждая. В свою очередь, конфигурация Extra Large включает до 24 ускорителей NVIDIA GH200 NVL2, до 1,1 Пбайта дискового пространства и 800GbE-интeрконнект в двух стойках мощностью 25 кВт каждая. Стойки могут управляться клиентом самостоятельно или обслуживаться HPE. Каждая конфигурация может работать как автономное локальное решение ИИ или в составе гибридного облака. Используется программная платформа NVIDIA AI Enterprise, включающая микросервисы инференса NIM. Её дополняет ПО HPE AI Essentials. Кроме того, поддержку новых ускорителей NVIDIA получили три аппаратные платформы:
HPE также объявила, что её облачная платформа HPE GreenLake for File Storage прошла сертификацию Nvidia DGX BasePOD и валидацию хранилища NVIDIA OVX, HPE Private Cloud AI, а также анонсированное оборудование будут доступны этой осенью за исключением платформы Cray XD670 на базе NVIDIA H200 NVL, который поступит в продажу этим летом. А после станут доступны и решения на базе Blackwell.
20.06.2024 [12:19], Сергей Карасёв
Запущен первый в Германии гибридный квантовый компьютер: система IQM интегрирована с суперкомпьютером SuperMUC-NGВ Суперкомпьютерном центре Лейбница (LRZ) Баварской академии наук заработал первый в Германии гибридный квантовый компьютер. Проект реализован консорциумом Q-Exa, в который входят разработчик квантовых платформ IQM Quantum Computers (IQM), а также Eviden и HQS Quantum Simulation. В ходе работ 20-кубитная квантовая система была интегрирована с суперкомпьютером SuperMUC-NG. Последний базируется на серверах Lenovo ThinkSystem SD650-I V3 Neptune DWC с прямым жидкостным охлаждением. Установлены 240 узлов, в состав которых входят в общей сложности 480 процессоров Intel Xeon Platinum 8480L и 960 ускорителей Data Center GPU Max. Производительность комплекса достигает 17,19 Пфлопс (FP64). В квантовой части кубиты генерируются с помощью сверхпроводящих цепей. Платформа закладывает основы для исследований и дальнейшего развития квантовых вычислений, а также для ускорения высокопроизводительных вычислений с помощью квантовых чипов (QPU). В настоящее время гибридная система готовится к повседневной эксплуатации, и в скором времени доступ к ней будет предоставлен некоторым исследовательским коллективам. Среди ключевых характеристик платформы названы: 20-кубитный квантовый процессор; состояние квантовой запутанности Гринбергера — Хорна — Цайлингера для 19 кубитов без устранения ошибок чтения; полностью запутанное состояние GHZ для 20 кубитов с компенсацией ошибок. Средняя точность двухкубитного вентиля составляет 99,46 % для 30 пар кубитов, а максимальная точность для одной пары достигает 99,74 %. Говорится также, что специалисты LRZ и партнёрских учреждений Мюнхенской квантовой долины (Munich Quantum Valley) разработали прототип Мюнхенского квантового программного стека (MQSS). Он помогает встроить квантовые вычисления в рабочие процессы традиционных суперкомпьютеров. Софт будет доступен исследователям в виде продукта с открытым исходным кодом.
19.06.2024 [23:44], Руслан Авдеев
KKR и Singtel инвестируют $2,2 млрд в STT GDC на фоне развития ИИ в Юго-Восточной АзииАмериканская инвестиционная компания KKR совместно с сингапурской Singtel объединили усилия для вложения $3 млрд сингапурских долларов (чуть более $2,2 млрд) в ST Telemedia Global Data Centres (STT GDC). По данным Forbes, речь идёт о крупнейшей в этом году инвестиции в цифровую инфраструктуру Юго-Восточной Азии — в перспективном регионе активно развиваются технологии ИИ. В рамках сделки партнёры намерены выкупить на $1,30 млрд погашаемых привилегированных акций STT GDC — правда, компании всё ещё ожидают разрешения местных регуляторов. После полного исполнения обязательств по покупке акций по заранее оговоренной цене компании вложат в сингапурского оператора ЦОД ещё $0,92 млрд, после чего KKR будет владеть 14,1 % компании, а Singtel — 4,2 %. STT GDC — один из самых быстрорастущих операторов дата-центров. Компания управляет 95 ЦОД общей ёмкостью более 1,7 ГВт на более чем 20 рынках в 11 регионах, включая Азию, Великобританию и континентальную Европу. Предполагается, что беспрецедентный рост облачных и ИИ-бизнесов вместе с вливаниями KKR и Singtel дадут STT GDC толчок к росту на рынке цифровой инфраструктуры. Поступления от инвесторов пойдут на международную экспансию компании. В феврале 2024 года STT GDC сообщила о готовности многих инвесторов вложить в компанию $1 млрд перед потенциальным выходом на IPO в США или Сингапуре. В мае 2024 года сообщалось, что KKR и Singtel конкурируют за долю в 20 % в STT GDC. Но ST Telemedia, владеющая многими медиакомпаниями в регионе, в любом случае останется мажоритарным акционером. Компания уже анонсировала планы расширения во Вьетнаме и начала строительство третьего ЦОД в Ченнаи (Индия). KKR активно наращивает инвестиции в дата-центры на фоне растущего спроса на цифровую инфраструктуру для облачных и ИИ-сервисов в Азии. В сентябре 2023 года нью-йоркская компания приобрела 20 % в региональном бизнесе Singtel, связанном с ЦОД — компании Nxera за $0,81 млрд. А сегодня Nxera объявила о заключении партнёрства с Telekom Malaysia с целью постройки нового ЦОД в Джохоре (Малайзия). Основным акционером сингапурской Singtel является Temasek — крупнейшая телекоммуникационная компания Юго-Восточной Азии с более 780 млн мобильных клиентов в 21 стране Азии, Австралии и Африки. Кроме того, она предоставляет в регионе и другие услуги связи и инфраструктурные сервисы. В последние месяцы в Юго-Восточной Азии наблюдается бум проектов, связанных с ЦОД. Планы строительства там облачной ИИ-инфраструктуры анонсировали многие IT-гиганты, включая AWS, Google и Microsoft.
19.06.2024 [17:23], Илья Коваль
Seagate будет продавать б/у HDD из дата-центров и хранилищ на eBaySeagate объявила об открытии собственного раздела на eBay, где будет продавать бывшие в употреблении жёсткие диски. Делается это, по словам компании, во благо экологии и экономии. Накопители перед продажей проверяются, ремонтируются и очищаются. Как говорит Seagate, ежегодно десятки миллионов жёстких дисков после списания попросту перемалываются или разрушаются иными методами. Это самый надёжный метод полного уничтожения информации, поскольку утечка данных может грозить большими неприятностями и крупными финансовыми потерями. Однако такой подход экологичным назвать нельзя. В частности, извлечь редкоземельные металлы из таких электронных отходов невозможно. Поэтому Seagate уже некоторое время занимается восстановлением б/у HDD и SSD. Так, в 2022 финансовом году компания починила 1,16 млн накопителей, избавив планету от 540 т электронных отходов (средний вес накопителя принят за 465 г). А в 2023 году эти показатели выросли до 1,19 млн и 553 т соответственно. Теперь восстановленные накопители можно купить напрямую у Seagate на eBay. Такие диски покрываются ограниченной гарантией. По словам компании, очистка накопителей производится в соответствии со стандартами IEEE 2883, NIST SP 800-88 Rev. 1 и ISO/IEC 27040:2015, так что исходным владельцам дисков беспокоиться не о чем. Кто конкретно возвращает б/у накопители Seagate, прямо не говорится, но компания вместе с Micron, Western Digital и Chia является сооснователем инициативы Circular Drive Initiative (CDI), призванной объединить производителей СХД, гиперскейлеров, ЦОД, OEM-производителей и компании, занимающиеся утилизацией IT-оборудования. Именно последние обычно отвечают за вывоз ставшего ненужным оборудования у крупных заказчиков. Кроме того, CDI занимается продвижением новых стандартов OCP для устройств хранения, которые включают функции безопасной очистки, расширенного мониторинга и управления жизненным циклом накопителей. Впрочем, гиперскейлеры сами в последние годы увеличивают срок эксплуатации оборудования и создают центры по его восстановлению и переработке.
19.06.2024 [17:08], Владимир Мироненко
Сервер навынос: Selectel предложила аренду оборудования с установкой в дата-центре заказчикаКомпания Selectel объявила о запуске услуги аренды выделенных серверов с размещением в ЦОД заказчика. Установку серверов и сетевого оборудования произвольной конфигурации на указанной клиентом площадке выполняют специалисты Selectel. Сборка оборудования осуществляется из отдельных компонентов, что обеспечивает независимость от одного или нескольких вендоров и высокую степень соответствия задачам клиента, говорит компания. В стоимость услуги входят доставка, установка и настройка оборудования, а также замена неисправных деталей при выходе сервера из строя. В настоящее время услуга доступна на территории Москвы и Санкт-Петербурга. ![]() Согласно пресс-релизу, аренда серверного оборудования «навынос» актуальна для клиентов с повышенными требованиями к контуру размещения IT-инфраструктуры в связи необходимостью соответствия корпоративным или законодательным нормам. Это могут быть банки, промышленные, научные, медицинские организации и т.д. Услуга устраняет необходимость в закупке серверного оборудования, позволяя вместе с тем компаниям обеспечить быструю масштабируемость IT-инфраструктуры. По словам директора по продуктам Selectel, новое предложение может заинтересовать компании, нацеленные на полный контроль над IT-инфраструктурой и желающие поддерживать высокие темпы масштабирования текущих и запуска новых проектов без больших капитальных затрат: «Запуск услуги по аренде серверов навынос продиктован актуальными вызовами, с которыми сталкивается бизнес — это подорожание оборудования и удлиняющиеся сроки поставок».
19.06.2024 [14:50], Руслан Авдеев
IT-гиганты хотят использовать АЭС, но инвестировать в строительство реакторов не намереныКрупные технокомпании вроде Microsoft и Google горят желанием использовать всё больше энергии от атомных электростанций для питания своих ЦОД, но намного меньше у них желания вкладывать средства в строительство новых АЭС. По данным Bloomberg, об этом они официально заявили на конференции Nuclear Society. По информации издания, ИИ и ЦОД, вероятно, впервые обеспечат существенный рост энергопотребления в США. Но участники конференции объявили, что находятся в «неподходящем положении» для того, чтобы помогать в разработке АЭС. Дело в том, что строительство реакторов, особенно на базе новых технологий, по мнению Google, весьма рискованно. Техногиганты готовы платить «разумную надбавку» за уже доступную им чистую энергию, но не хотят инвестировать в компании, непосредственное занятые строительством АЭС. В Google подчеркнули, что всецело поддерживают атомную энергетику, но считают, что брать риски на себя должны не конечные потребители. Дискуссия развернулась после того, как Билл Гейтс (Bill Gates) заявил, что намерен вложить миллиарды долларов в создание АЭС на базе малого модульного реактора (SMR) в Вайоминге, строительство которой уже начато компанией TerraPower. Поддержка Гейтса станет ключевой на фоне рисков, связанных с атомной энергетикой. Строительство планируется завершить в 2030 году, с отставанием на два года от озвученного в 2021 году срока. В Вайоминге же планируется установка SMR от компании Oklo, поддерживаемой главой OpenAI. В апреле в Джорджии компания Southern Co. впервые за десятилетия завершила строительство новой АЭС в США, на семь лет позже запланированного и с увеличением бюджета приблизительно на 150 %. Возможно, именно поэтому IT-компании заявляют, что должны сконцентрироваться на своих сильных сторонах, строя дата-центры, тогда как поставками энергии должны заниматься коммунальные службы. Об этом, в частности, объявил главный менеджер по энергетике и устойчивости Microsoft Адриан Андерсон (Adrian Anderson). По его словам, если дата-центр нуждается в чистой энергии, оператор должен связаться с поставщиком электричества, а вовсе не с производителем ветряных турбин, а сами высказывания о том, что отдельные покупатели должны самостоятельно оценивать риски инвестиций в атомные технологии он назвал «смехотворной концепцией». При этом сама Microsoft набирает команду и топ-менеджеров для развития направления SMR. Сегодня новые реакторы разрабатываются многими компаниями, но им понадобится значительная финансовая помощь для того, чтобы перейти к строительству и коммерциализации новых объектов. Несмотря на то, что в появлении большего числа АЭС заинтересованы как энергокомпании, так и операторы ЦОД, техногиганты не спешат в массовом порядке заниматься финансированием таких проектов. По словам недавно покинувшего пост директора по энергетической стратегии Meta✴ Питера Фрида (Peter Freed), сама идея того, что IT-компании спасут положение и просто «выпишут чек» ошибочна.
19.06.2024 [11:02], Сергей Карасёв
NVIDIA стала самой дорогой в мире компанией благодаря развитию ИИ18 июня 2024 года, по сообщению ресурса AnandTech, стоимость ценных бумаг NVIDIA поднялась до $135,58. Росту курса акций способствует востребованность ИИ-ускорителей на базе GPU. На этом фоне NVIDIA стала самой дорогой компанией в мире, превзойдя по капитализации Apple и Microsoft. Продажи ИИ-решений NVIDIA бьют рекорды. По оценкам, в 2023 году компания отгрузила приблизительно 3,76 млн ускорителей, ориентированных на ЦОД. Это более чем на 1 млн штук превосходит результат 2022 года. NVIDIA заняла примерно 98 % мирового рынка ускорителей на основе GPU для дата-центров. ![]() Источник изображения: AnandTech При цене акций в $135,58 за штуку рыночная стоимость NVIDIA достигла $3,335 трлн. Для сравнения: в этот же день капитализация Microsoft составляла $3,317 трлн, а Apple — $3,285 трлн. Холдинг Alphabet, в состав которого входит Google, имел рыночную стоимость $2,170 трлн, Amazon — $1,902 трлн. Однако, говорят специалисты, показатель капитализации, как и сам фондовый рынок, является весьма волатильным. А поэтому, нет гарантий, что NVIDIA сможет удерживать первое место в рейтинге самых дорогих компаний мира в течение длительного времени, не говоря уже о ежедневных колебаниях. Оценки стоимости NVIDIA, Apple и Microsoft находятся в пределах $50 млрд (1%) друг от друга, что в масштабах их бизнеса является сравнительно небольшой разницей. С другой стороны, спрос на ИИ-ускорители для дата-центров и облачных платформ остаётся высоким, а поэтому NVIDIA имеет хорошие перспективы для наращивания продаж. Недавно компания анонсировала новые решения на базе архитектуры Blackwell. Говорится, что некоторые заказы на высокопроизводительные ускорители NVIDIA по-прежнему остаются невыполненными. Иными словами, компания всё ещё не в полной мере удовлетворяет потребности гиперскейлеров и других крупных заказчиков. UPD 21.06.2024: по итогам биржевых торгов в четверг NVIDIA потеряла звание самой дорогой компании в мире, уступив позицию Microsoft. Впрочем, разница между компаниями минимальна, так что вероятна череда взлётов и падений.
18.06.2024 [22:45], Алексей Степин
Обещанного три года ждут: разработка и внедрение новых стандартов PCI Express не ускорятся, но PCI-SIG не видит в этом проблемыНа недавно прошедшей конференции PCI-SIG Developers Conference 2024 вице-президент группы, Ричард Соломон (Richard Solomon) рассказал о разработке новых версий стандарта PCI Express. Создание новых стандартов вышло на устоявшийся трехлётний цикл, но в данном случае имплементация и выход на массовый рынок не равны собственно разработке очередной версии PCIe. Приблизительно за три года PCI-SIG успевает разработать, внести корректировки, согласовать все нюансы со всеми участниками консорциума и опубликовать спецификации нового стандарта. Но после этого необходимо получить первые образцы «кремния» с его поддержкой и провести все необходимые квалификационные процедуры. Одна только фаза «тестирования на соответствие» (FYI, First Year Inventory Compliance Program) занимает полгода. Главной причиной достаточно длительного цикла, отметил вице-президент PCI-SIG, является время от окончания работы над спецификациями до получения готовых ASIC, без которых невозможно начать полномасштабное тестирование. Таким образом, формально появившийся в начале 2022 года стандарт PCIe 6.0 лишь в июне 2024 года добрался до фазы FYI. При этом первый дизайн (только на бумаге, конечно) IP-блоков для PCIe 6.0 появился ещё даже до финализации стандарта. Более того, спецификации PCIe 6.0 в скором времени снова будут обновлены для поддержки нового стандарта оптических соединений, которые, впрочем, не заменят, а дополнят традиционные медные соединения. Финализация правок ожидается в декабре текущего года. Кроме того, появится поддержка и новых кабелей CopprLink. Так что на выход PCIe 6.0 на рынок стоит рассчитывать где-то в начале 2025 года. Конечно, хотелось бы привести цикл разработки PCI Express в соответствии с циклами других производителей, включая разработчиков Ethernet, Infiniband и CXL, но состав PCI-SIG, насчитывающий уже почти тысячу компаний-участников, продолжает расти, что, конечно, не способствует быстрому согласованию спецификаций и получению всех нужных образцов технологии. Более того, все устройства любого стандарта PCIe обязаны быть совместимы со старыми версиями, вплоть до 1.0. И весь этот процесс необходимо поддерживать и далее: на середину или конец 2025 года запланирован выпуск финальных спецификаций PCI Express 7.0. Так что FIY-фазы стоит ожидать не ранее 2028 года. При этом проверка устройств нового стандарта на взаимную совместимость, в том числе чисто электрическую, становится всё сложнее с учётом заявленных частот и скоростей и оттого всё более необходимой. Но даже с трёхлетним циклом разработки, говорит PCI-SIG, пока удаётся опережать требования индустрии. Пропускная способность I/O-систем тоже удваивается примерно каждые три года, но к этому моменту у разработчиков PCIe уже готов и протестирован новый стандарт, покрывающий все разумные потребности и массово реализуемый за разумные деньги. И сравнивать PCIe, например, с NVLink с этой точки зрения может быть не совсем корректно, поскольку целью PCI-SIG не является достижение предельно высокой производительности любой ценой. Вместо этого группа обеспечивает развитие разумной, совместимой экосистемы решений с наилучшим соотношением цены и возможностей. Это не означает, что в абсолютных значениях решения на базе новых стандартов будут дешевле, но, как отметил вице-президент, экосистема PCIe позволяет разработчикам выбрать приемлемое для каждого случая сочетание характеристик. В настоящее время спецификация PCIe 7.0 версии 0.5 стала доступна участникам PCI-SIG. Новый стандарт доводит скорость передачи данных до 128 ГТ/с на линию при повышении энергоэффективности. Напомним, начиная с PCIe 6.0 доступен режим кодирования Flit, позволяющий избежать накладных расходов при передаче данных, и сделан переход к модуляции PAM4. Оптический вариант PCIe 7.0 тоже появится, но всё ещё будет опциональным. По словам Соломона, разговоры о вынужденном переходе на «оптику» ведутся более десяти лет, но по факту возможностей «меди» всё ещё хватает и будет хватать. |
|