Материалы по тегу: чипы

05.09.2022 [23:00], Алексей Степин

Tesla рассказала подробности о чипах D1 собственной разработки, которые станут основой 20-Эфлопс ИИ-суперкомпьютера Dojo

Компания Tesla уже анонсировала собственный, созданный в лабораториях компании процессор D1, который станет основой ИИ-суперкомпьютера Dojo. Нужна такая система, чтобы создать для ИИ-водителя виртуальный полигон, в деталях воссоздающий реальные ситуации на дорогах. Естественно, такой симулятор требует огромных вычислительных мощностей: в нашем мире дорожная обстановка очень сложна, изменчива и включает множество факторов и переменных.

До недавнего времени о Dojo и D1 было известно не так много, но на конференции Hot Chips 34 было раскрыто много интересного об архитектуре, устройстве и возможностях данного решения Tesla. Презентацию провел Эмиль Талпес (Emil Talpes), ранее 17 лет проработавший в AMD над проектированием серверных процессоров. Он, как и ряд других видных разработчиков, работает сейчас в Tesla над созданием и совершенствованием аппаратного обеспечения компании.

 Изображения: Tesla (via ServeTheHome)

Изображения: Tesla (via ServeTheHome)

Главной идеей D1 стала масштабируемость, поэтому в начале разработки нового чипа создатели активно пересмотрели роль таких традиционных концепций, как когерентность, виртуальная память и т.д. — далеко не все механизмы масштабируются лучшим образом, когда речь идёт о построении действительно большой вычислительной системы. Вместо этого предпочтение было отдано распределённой сети хранения на базе SRAM, для которой был создан интерконнект, на порядок опережающий существующие реализации в системах распределённых вычислений.

Основой процессора Tesla стало ядро целочисленных вычислений, базирующееся на некоторых инструкциях из набора RISC-V, но дополненное большим количеством фирменных инструкций, оптимизированных с учётом требований, предъявляемых ядрами машинного обучения, используемыми компанией. Блок векторной математики был создан практически с нуля, по словам разработчиков.

Набор инструкций Dojo включает в себя скалярные, матричные и SIMD-инструкции, а также специфические примитивы для перемещения данных из локальной памяти в удалённую, равно как и семафоры с барьерами — последние требуются для согласования работы c памятью во всей системе. Что касается специфических инструкций для машинного обучения, то они реализованы в Dojo аппаратно.

Первенец в серии, чип D1, не является ускорителем как таковым — компания считает его высокопроизводительным процессором общего назначения, не нуждающимся в специфических ускорителях. Каждый вычислительный блок Dojo представлен одним ядром D1 с локальной памятью и интерфейсами ввода/вывода. Это 64-бит ядро суперскалярно.

Более того, в ядре реализована поддержка многопоточности (SMT4), которая призвана увеличить производительность на такт (а не изолировать разные задачи друг от друга), поэтому виртуальную память данная реализация SMT не поддерживает, а механизмы защиты довольно ограничены в функциональности. За управление ресурсами Dojo отвечает специализированный программный стек и фирменное ПО.

64-бит ядро имеет 32-байт окно выборки (fetch window), которое может содержать до 8 инструкций, что соответствует ширине декодера. Он, в свою очередь, может обрабатывать два потока за такт. Результат поступает в планировщики, которые отправляют его в блок целочисленных вычислений (два ALU) или в векторный блок (SIMD шириной 64 байт + перемножение матриц 8×8×4).

У каждого ядра D1 есть SRAM объёмом 1,25 Мбайт. Эта память — не кеш, но способна загружать данные на скорости 400 Гбайт/с и сохранять на скорости 270 Гбайт/с, причём, как уже было сказано, в чипе реализованы специальные инструкции, позволяющие работать с данными в других ядрах Dojo. Для этого в блоке SRAM есть свои механизмы, так что работа с удалённой памятью не требуют дополнительных операций.

Что касается поддерживаемых форматов данных, то скалярный блок поддерживает целочисленные форматы разрядностью от 8 до 64 бит, а векторный и матричный блоки — широкий набор форматов с плавающей запятой, в том числе для вычислений смешанной точности: FP32, BF16, CFP16 и CFP8. Разработчики D1 пришли к использованию целого набора конфигурируемых 8- и 16-бит представлений данных — компилятор Dojo может динамически изменять значения мантиссы и экспоненты, так что система может использовать до 16 различных векторных форматов, лишь бы в рамках одного 64-байт блока данных он не менялся.

Как уже упоминалось, топология D1 использует меш-структуру, в которой каждые 12 ядер объединены в логический блок. Чип D1 целиком представляет собой массив размером 18×20 ядер, однако доступны лишь 354 ядра из 360 присутствующих на кристалле. Сам кристалл площадью 645 мм2 производится на мощностях TSMC с использованием 7-нм техпроцесса. Тактовая частота составляет 2 ГГц, общий объём памяти SRAM — 440 Мбайт.

Процессор D1 развивает 362 Тфлопс в режиме BF16/CFP8, в режиме FP32 этот показатель снижается до 22 Тфлопс. Режим FP64 векторными блоками D1 не поддерживается, поэтому для многих традиционных HPC-нагрузок данный процессор не подойдёт. Но Tesla создавала D1 для внутреннего использования, поэтому совместимость её не очень волнует. Впрочем, в новых поколениях, D2 или D3, такая поддержка может появиться, если это будет отвечать целям компании.

Каждый кристалл D1 имеет 576-битный внешний интерфейс SerDes с совокупной производительностью по всем четырём сторонам, составляющей 8 Тбайт/с, так что узким местом при соединении D1 он явно не станет. Этот интерфейс объединяет кристаллы в единую матрицу 5х5, такая матрица из 25 кристаллов D1 носит название Dojo training tile.

Этот тайл выполнен как законченный термоэлектромеханический модуль, имеющий внешний интерфейс с пропускной способностью 4,5 Тбайт/с на каждую сторону, совокупно располагающий 11 Гбайт памяти SRAM, а также собственную систему питания мощностью 15 кВт. Вычислительная мощность одного тайла Dojo составляет 9 Пфлопс в формате BF16/CFP8. При таком уровне энергопотребления охлаждение у Dojo может быть только жидкостное.

Тайлы могут объединяться в ещё более производительные матрицы, но как именно физически организован суперкомпьютер Tesla, не вполне ясно. Для связи с внешним миром используются блоки DIP — Dojo Interface Processors. Это интерфейсные процессоры, посредством которых тайлы общаются с хост-системами и на долю которых отведены управляющие функции, хранение массивов данных и т.п. Каждый DIP не просто выполняет IO-функции, но и содержит 32 Гбайт памяти HBM (не уточняется, HBM2e или HBM3).

DIP использует полностью свой транспортный протокол (Tesla Transport Protocol, TTP), разработанный в Tesla и обеспечивающий пропускную способность 900 Гбайт/с, а поверх Ethernet — 50 Гбайт/с. Внешний интерфейс у карточек — PCI Express 4.0, и каждая интерфейсная карта несёт пару DIP. С каждой стороны каждого ряда тайлов установлено по 5 DIP, что даёт скорость до 4,5 Тбайт/с от HBM-стеков к тайлу.

В случаях, когда во всей системе обращение от тайла к тайлу требует слишком много переходов (до 30 в случае обращения от края до края), система может воспользоваться DIP, объединённых снаружи 400GbE-сетью по топологии fat tree, сократив таким образом, количество переходов до максимум четырёх. Пропускная способность в этом случае страдает, но выигрывает латентность, что в некоторых сценариях важнее.

В базовой версии суперкомпьютер Dojo V1 выдаёт 1 Эфлопс в режиме BF16/CFP8 и может загружать непосредственно в SRAM модели объёмом до 1,3 Тбайт, ещё 13 Тбайт данных можно хранить в HBM-сборках DIP. Следует отметить, что пространство SRAM во всей системе Dojo использует единую плоскую адресацию. Полномасштабная версия Dojo будет иметь производительность до 20 Эфлопс.

Сколько сил потребуется компании, чтобы запустить такого монстра, а главное, снабдить его рабочим и приносящим пользу ПО, неизвестно — но явно немало. Известно, что система совместима с PyTorch. В настоящее время Tesla уже получает готовые чипы D1 от TSMC. А пока что компания обходится самым большим в мире по числу установленных ускорителей NVIDIA ИИ-суперкомпьютером.

Постоянный URL: http://servernews.ru/1073480
12.08.2022 [21:56], Владимир Мироненко

Сроки поставок чипов для ЦОД слегка сократились, но общий дефицит всё ещё сохраняется

Согласно новому исследованию Susquehanna Financial Group, сроки поставки чипов сокращаются — уже третий месяц подряд, хотя по-прежнему наблюдается их дефицит. Это, в частности, касается полупроводниковых решений для ЦОД, но в других секторах проблем меньше не становится, передаёт Bloomberg.

Отмечается, что в июле время выполнения заказов составило в среднем 26,9 недели в то время как в июне оно составляло 27 недель — среднее время по чуть-чуть сокращается уже третий месяц подряд, но оно по-прежнему более чем в два раза превышает значение для «здорового» рынка. Вместе с тем компоненты управления питанием и микроконтроллеры, особенно для автомобильной отрасли и промышленного оборудования, всё ещё в дефиците, а цены на некоторые позиции продолжают расти.

 Источник изображения: Bloomberg

Источник изображения: Bloomberg

Так, сроки изготовления чипов управления питанием в июле увеличились с 31,3 до 32 недель. Та же Cisco в последнем квартальном отчёте жаловалась на невозможность получить блоки питания из Китая и поставить заказчикам оборудование, что обошлось ей примерно в $300 млн. Но и менее крупные вендоры вынуждены корректировать схемотехнику своих решений, чтобы по возможности заменить одни компоненты на другие, более доступные.

Аналитик Susquehanna Крис Ролланд (Chris Rolland) отметил, что снижение спроса в некоторых категориях, особенно на компоненты для ПК — это отметили NVIDIA, Intel и другие чипмейкеры — и смартфонов, пока не привело к исчезновению общеотраслевого дефицита. Micron со своей стороны также сообщила о замедлении закупок компонентов гиперскейлерами.

По словам аналитика Дина Маккаррона (Dean McCarron), падение объёма поставок CPU в годовом исчислении было самым значительным за весь период с 1984 года. В то время как Intel столкнулась с потерями из-за сложившейся ситуации, её конкурент в лице AMD, напротив, добился значительных успехов. Маккаррон отметил, что хотя общий рынок серверных процессоров сократился, AMD нарастила продажи чипов, уже 13-й квартал подряд увеличивая свою долю на рынке.

Постоянный URL: http://servernews.ru/1072068
06.04.2022 [19:11], Владимир Мироненко

Российские чипы для телеком-оборудования и IT-решений отстают от мировых на семь поколений

Согласно проведенному J’son & Partners Consulting исследованию, реализация национальных программ в области цифровой экономики и цифровая трансформация, привели к росту спроса на отечественное телекоммуникационное оборудование и ИТ. Рыночная доля российских производителей существенно выросла, особенно в сегментах транспортного и коммутационного оборудования, важных компонентов критической информационной инфраструктуры.

Согласно данным IC Insights, в 2021 году объём мирового рынка интегральных схем (ИС) достиг $502 млн с прогнозом среднегодового роста в размере 10,7 % вплоть до 2025 года. Ключевыми потребителями ИС являются сегменты телекоммуникационного и компьютерного оборудования, на каждый из которых приходится около 36 % всего объёма в денежном выражении.

В 2021 году Россия импортировала ИС на сумму 63,6 млрд руб. (около $863 млн). Импорт ИС, выполненных по высоким топологическим нормам не более 32 нм, за последние 3 года вырос в три раза, до 13 млрд руб. ($177 млн), что составило 20 % от общего импорта ИС. Основными странами, где производятся поставляемые в нашу страну ИС по технологии не более 32 нм, являются Малайзия, Вьетнам и Китай, причём 99 % импорта ИС принадлежат американским брендам. И этот сегмент наиболее подвержен ограничениям и санкциям.

В стране имеется не менее 5 производственных площадок по выпуску ИС общим объёмом порядка 20 млрд руб. (без выручки дизайн-центров, fabless-компаний). Значительная часть этого объёма приходится на ПАО Микрон, оборот которой составил в 2021 году 5,7 млрд руб. Следовательно, отмечают аналитики, около 75% потребности страны в ИС удовлетворяется за счёт импорта, а в отношении наиболее производительных решений — полностью за счёт американских компаний.

J’son & Partners Consulting говорит, что утверждённая два года назад Стратегия развития электронной промышленности РФ до 2030 года уже недостаточна из-за роста требований к техническому уровню производственных мощностей. Недостаточно и намеченного инвестирования в электронную промышленность в объёме 266 млрд руб. до 2024 года. Для сравнения — по данным Gartner, в 2021 году производители полупроводников вложили $146 млрд в научно-исследовательские разработки и строительство новых мощностей для производства чипов. Около 60 % этих инвестиций приходится на тройку лидеров: TSMC, Intel и Samsung.

По мнению J’son & Partners Consulting, в условиях ограниченности финансовых ресурсов необходим переход от краткосрочного «оперативного» управления к долгосрочному стратегическому планированию отечественной электронной промышленности, когда ключевым показателем должен стать технологический уровень производства и выпускаемой продукции. Срок стратегического планирования можно определить на примере тайваньской TSMS и китайской SMIC, которым потребовалось 30 и 15–20 лет соответственно, чтобы догнать лидеров.

То есть общий срок стратегического планирования в электронной промышленности должен составлять не менее 30 лет. При этом также надо учитывать, что TSMS и китайской SMIC использовали возможности глобальной экономики. Сейчас Россия отстаёт в части ИС от передовых стран и компаний на семь поколений. Долгосрочное стратегическое планирование целей можно условно разбить на три этапа, приведённых на рисунке ниже. На первом этапе можно поставить целью достижение уровня производства по топологии 28–32 нм с вполне очевидной разбивкой дальнейших этапов.

Хотя нельзя забывать о том, технологии производства ИС будут и дальше продвигаться в сторону освоения техпроцессов 1–3 нм. По мнению J’son & Partners Consulting, ключевым свидетельством выполнения этапа должно стать достижение технологических показателей развития производства ИС. Каждый из этапов должен характеризоваться своим набором показателей технологического обеспечения, в том числе:

  • обеспеченностью производственным оборудованием определенного уровня;
  • контрольно-измерительной техникой;
  • чистыми материалами;
  • квалифицированными техническим персоналом;
  • научно-техническим достижениями и их патентной защитой и т.п.

Аналитики отмечают, что попытки «перепрыгнуть» через освоение промежуточных этапов являются нереалистичными.

Постоянный URL: http://servernews.ru/1063475
14.01.2022 [22:48], Алексей Степин

Будущие ускорители NVIDIA могут получить MCM-компоновку с ИИ/HPC-движками и гигабайтными кешами

Монолитная компоновка для современных сложных чипов уже становится слишком неэффективной. Бороться с этим можно по-разному. Один из путей подразумевает интеграцию всё более сложных структур на уровне единой кремниевой подложки, а другой — использование мультичиповой (MCM) или, иначе говоря, чиплетной компоновки. К последнему варианту и склоняется NVIDIA, хотя причины несколько отличаются от тех, которыми руководствуются другие вендоры.

GPU и ускорители становятся сложнее гораздо быстрее CPU, и на текущий момент мощные вычислители для ЦОД подбираются к пределам возможностей основных контрактных производителей, таких как TSMC и Samsung. Но это только половина уравнения. Вторая заключается в том, что взрывная популярность систем и алгоритмов машинного интеллекта требует иных вычислительных возможностей, нежели более привычные HPC-задачи.

 Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Дивергенция GPU: вычислительный (сверху) и машинного обучения. (Изображения: NVIDIA)

Как следствие, разработчикам приходится делать выбор, чему в большей мере отдать предпочтение в компоновке новых поколений ускорителей: FP32/64-движкам или блокам, оптимизированным для вычислений INT8, FP16 и прочих специфических форматов. И здесь использование MCM позволит скомпоновать конечный продукт более гибко и с учётом будущей сферы его применения.

 Различиые варианты конфигурации в рамках NVIDIA COPA

Различиые варианты конфигурации в рамках NVIDIA COPA

Ещё в публикации NVIDIA от 2017 года было доказано, что компоновка с четырьмя чиплетами будет на 45,5% быстрее самого сложного на тот момент ускорителя. А в 2018-м компания рассказала о прототипе RC 18. В настоящее время известно, что технология, разрабатываемая NVIDIA, носит название Composable On Package GPU, но в отличие от прошлых исследований упор сделан на обкатке концепции различных составных ускорителей для сфер HPC и машинного обучения.

Симуляция гипотетического ускорителя GPU-N, созданного на основе 5-нм варианта дизайна GA100, показывает довольно скромные результаты в режиме FP64 (12 Тфлопс, ½ от FP32), но четыре таких чиплета дадут уже солидные 48 Тфлопс, сопоставимые с Intel Ponte Vecchio (45 Тфлопс) и AMD Aldebaran (47,9 Тфлопс). А вот упор на FP16 делает даже один чип опаснейшим соперником для Graphcore, Groq и Google TPU — 779 Тфлопс!

 Варианты упаковки будущих МСМ-процессоров NVIDIA

Варианты упаковки будущих МСМ-процессоров NVIDIA

Но симуляции показывают также нехватку ПСП именно на ИИ-задачах, так что компания изучает возможность иной иерархии памяти, с 1-2 Гбайт L2-кеша в виде отдельных чиплетов в различных конфигурациях. Некоторые варианты предусматривают даже отдельный ёмкий кеш L3. Таким образом, будущие ускорители с чиплетной компоновкой обретут разные черты для HPC и ИИ.

В первом случае предпочтение будет отдано максимальной вычислительной производительности, а подсистема памяти останется классической. Как показывает симуляция, даже урезанная на 25% ПСП снижает производительность всего на 4%. Во втором же варианте, для ИИ-систем, упор будет сделан на чипы сверхъёмкого скоростного кеша и максимизацию совокупной пропускной способности памяти. Такая компоновка окажется дешевле, нежели применение двух одинаковых ускорителей.

Подробнее с исследованием NVIDIA можно ознакомиться в ACM Digital Library, но уже сейчас ясно, что в обозримом будущем конвергенция ускорителей перейдёт в дивергенцию, и каждая эволюционная ветвь, благодаря MCM, окажется эффективнее в своей задаче, нежели полностью унифицированный чип.

Постоянный URL: http://servernews.ru/1058052
19.12.2021 [01:57], Владимир Агапов

NVIDIA и Utilidata сделают электросети интеллектуальными

Utilidata, поставляющая цифровые решения для мониторинга электросетей, анонсировала совместную с NVIDIA разработку программно определяемого чипа, который вместе с платформой NVIDIA Jetson станет основой решений Smart Grid. В первую очередь чип будут использоваться в «умных» приборах учёта электроэнергии, а затем начнётся его внедрение и в другие сетевые компоненты — трансформаторы, подстанции и линии электропередач.

Национальная лаборатория возобновляемой энергетики (National Renewable Energy Laboratory, NREL) США намерена протестировать разработку для оценки возможностей масштабировании и коммерциализации технологии оптимального перетока мощности в реальном времени (Real-Time Optimal Power flow, RT-OPF).

 Изображение: Utilidata (Источник: EnterpriseAI)

Изображение: Utilidata (Источник: EnterpriseAI)

Проникновение в энергосистемы возобновляемых источников энергии, таких как солнечные и ветроэлектростанции, создаёт проблемы для стабильной работы сетей, поскольку мощность таких источников непостоянна, тогда как операторы должны быстро реагировать на все изменения в энергосети. Технология RT-OPF призвана обеспечить высоколокализованное управление нагрузкой, что трудно сделать со стандартным оборудованием, работающим на периферии, которая является гораздо более изменчивой, нежели остальные части системы.

 Изображение: Erfan Mohagheghi, Ilmenau University of Technology

Изображение: Erfan Mohagheghi, Ilmenau University of Technology

Оборудование Smart Grid должно быть оптимизировано с учётом этой специфики. Применение в приборах учёта чипа Utilidata позволит отслеживать изменение напряжения сети и нагрузки с очень высоким разрешением. А интегрированный модуль Nvidia Jetson Xavier NX позволит локально обрабатывать поступающие данные с использованием машинного обучения и физических расчётов в реальном времени — это необходимо для обнаружения опасных аномалий, оптимизации потоков энергии, балансировки нагрузки и предотвращения аварийных отключений.

Utilidata рассчитывает представить прототип чипа в I квартале 2022 года, а первые реальные тесты запланированы на конец 2022 года. Ожидается, что новая программно определяемая платформа упростит операторам электросетей путь к декрабонизации и «позволит уменьшить избыточность существующих решений и систем». Чипы смогут работать с уже установленными счётчиками, и компания надеется, что в будущем они станут востребованы и в других периферийных устройствах, таких как умные инверторы, электромобили и зарядные станции.

Постоянный URL: http://servernews.ru/1056249
11.08.2021 [15:20], Алексей Степин

IBM использует облачные кластеры при проектировании микрочипов

Современные литографические процессы, используемые при создании микросхем, очень сложны и требуют серьёзных вычислительных мощностей. Подразделение IBM Research предлагает использовать для этих целей облачные кластеры и уже добилось успехов на платформе IBM Cloud.

Никто не станет спорить с тем, что содержание суперкомпьютера — удовольствие не из дешёвых. Однако в эпоху развития облачных технологий есть выход, позволяющий задействовать внушительные вычислительные ресурсы, не тратя огромные суммы на содержание аппаратной инфраструктуры класса HPC.

 Проектируемая и реальная структуры без процесса коррекции (сверху) и с OPC

Проектируемая и реальная структуры без процесса коррекции (сверху) и с OPC

В случае с IBM Research речь идёт о вычислениях, связанных с так называемой коррекцией эффектов оптической близости (optical proximity correction, OPC). Дело в том, что современные техпроцессы настолько тонки, что изготовление фотолитографических масок для них сталкивается с рядом проблем, вызываемых как дифракцией, так и неточностями самой технологии. В итоге при переносе на реальный кремний геометрия получившейся структуры может быть далека от эталонной, заданной на этапе проектирования.

 Основные стадии при проектировании литографических масок

Основные стадии при проектировании литографических масок

К счастью, метод OPC позволяет в существенной мере нивелировать негативные эффекты, но при этом он требует достаточно серьёзных вычислительных мощностей, ведь структур, для которых необходимо провести предварительную коррекцию, в современных чипах очень и очень много, а масочных слоёв — более 50. Для примера, даже на 2000 ядрах CPU процесс обсчёта OPC может занять больше недели.

 Структура участвовавшего в эксперименте виртуального кластера

Структура участвовавшего в эксперименте виртуального кластера

Но как сообщает IBM Research, алгоритмы OPC хорошо поддаются параллелизации и отлично ложатся на идею «облачных кластеров». В проведённом исследовании удалось не просто задействовать облачные ресурсы для запуска Synopsys Proteus (ПО, в котором осуществлялась коррекция), но и объединить в единый кластер вычислительные регионы, один из которых физически расположен на юге США, а другой — в Великобритании. Пиковый показатель, достигнутый при этом, составил 11 400 ядер.

В качестве примера был выбран один из чиплетов IBM площадью 172 мм², производимый с использованием техпроцесса EUV класса «менее 5 нм». Симуляция оказалась полностью удачной, а идея применения облачных кластеров для OPC полностью подтвердилась, причём экономия времени практически линейно возрастала по мере роста задействованных вычислительных ядер. Подробности об эксперименте можно найти на сайте IBM.

Постоянный URL: http://servernews.ru/1046457
27.07.2021 [18:15], Владимир Агапов

Microchip представила чипы для индустриального Ethernet 10BASE-T1S

Важным этапом промышленной автоматизации является обеспечение связи между датчиками, исполнительными механизмами, программируемыми логическими контроллерами (ПЛК) и серверами. При этом выбор того или иного стандарта промышленных сетей обуславливается интерфейсами, которые поддерживают применяемые периферийные устройства, что зачастую приводит к необходимости дополнительных трат на сетевую инфраструктуру — прокладку отдельных кабельных линий, установку мостов, шлюзов и повторителей.

Стремление инженерных подразделений и руководителей предприятий к упрощению построения систем сбора данных, повышению их надёжности и оптимизации затрат делает привлекательным применение существующих сетей Ethernet. Ряд производителей промышленной электроники уже давно реализует в своих устройствах нужную поддержку. А в феврале этого года был принят новый стандарт 10BASE-T1L/S (IEEE 802.3cg-2019), оптимизированный для индустриального применения — с возможностью передачи сигнала и питания всего по одной паре проводов.

 microchip.com

microchip.com

Реализовать его возможности в «железе» взялись некоторые производители микроэлектроники. Недавно Analog Devices уже представила свои микросхемы трансиверов ADIN1100 и ADIN1110, обеспечивающих полный набор функций физического уровня нового стандарта 10BASE-T1L. А теперь свои решения класса 10BASE-T1S появились и у компании Microchip — семейство трансиверов LAN867x. Первые представители семейства — это LAN8670, LAN8671 и LAN8672 в 32-, 24- и 36- контактных тонкопрофильных корпусах (VQFN) соответственно. Базовые характеристики LAN867x совпадают, а различие только в доступных интерфейсах связи с контроллером. LAN8670 имеет стандартные интерфейсы MII/RMII, LAN8671 — только RMII, а LAN8671 — только MII.

 microchip.com

microchip.com

Эти микросхемы реализуют физический уровень (PHY) 10BASE-T1L и позволяют периферийным устройствам промышленного Интернета вещей (IIoT) использовать существующие сети для высокопроизводительного обмена данными в мультиточечном режиме на общей шине (multidrop) и в режиме точка-точка (point-to-point). В мультиточечном режиме они обеспечивают подключение до 8 физических узлов на расстоянии не менее 25 м. В режиме точка-точка поддерживается расстояние между сегментами не менее 15 м.

 microchip.com

microchip.com

Все представленные микросхемы поддерживают полудуплексную связь через одну витую пару UTP и рассчитаны на расширенный диапазон температур (от -40 до +125 °С). Также эти микросхемы совместимы с индустриальными требованиями к электромагнитной совместимости (EMC) и электромагнитного излучения (EMI). А однополярное питание и простая аналоговая обвеска позволяют встраивать их в устройства компактных размеров.

 microchip.com

microchip.com

Представленные микросхемы доступны для серийных заказов. Кроме того, компания Microchip предлагает отладочные наборы с выведенным интерфейсом RMII/MII для работы с контроллерами и плату с распаянным микроконтроллером и USB-разъёмом для подключения к компьютеру, позволяющую превратить любой USB-хост в узел 10BASE-T1S. В комплекте с ней идут драйверы для Linux и Windows. Также облегчить интеграцию с системами клиентов может фреймворк MPLAB Harnony 3.

Постоянный URL: http://servernews.ru/1045294
26.07.2021 [23:00], Владимир Агапов

H3C анонсировала китайский 7-нм сетевой процессор Engiant 800: 500+ ядер и 40 млрд транзисторов

Мировой дефицит полупроводниковой продукции и санкции США против производителей КНР вынуждают правительство и частные компании активно заниматься импортозамещением. В результате Китай в 2021 г. выпускает чипов больше, чем когда-либо. Причём целью становятся теперь и такие изделия как память, микропроцессоры и контроллеры для различной электроники потребительского и корпоративного сегментов. В частности, одна из дочерних компаний китайского холдинга Ziguang Group, занимается с 2019 г. разработкой чипов для сетевого оборудования.

И в конце 2020 г. она уже отправила в производство пробную партию 256-ядерных микропроцессоров H3C Engiant 660 для сетевых продуктов. Они имеют 18 млрд транзисторов и способны поддерживать до 4096 аппаратных потоков. Если все тесты будут успешно пройдены, процессоры поступят на рынок в четвертом квартале этого года. Благодаря производительности до 2,4 Тбит/с эти чипы смогут удовлетворить потребности операторов магистральных сетей.

Согласно последним новостям теперь у холдинга появился и собственный 16-нм чип для маршрутизации, находящийся уже на стадии изготовления фотошаблонов. А в планах компании на следующий год значатся освоение норм 7 нм и выпуск на их основе следующего поколение сетевых процессоров Engiant 800. Их разработкой на базе 660-й модели займётся дочерняя компания New Sanhua. Они будут иметь более 500 ядер, а количество транзисторов увеличится на 122% по сравнению с их 16-нм предшественниками. Пробное производство может начаться в 2022 г.

 Фото: XFASTEST HK

Фото: XFASTEST HK

Хотя чипы сетевых процессоров — лишь небольшой сегмент рынка микроэлектроники, под влиянием стремительной популяризации 5G он демонстрирует рост и это открывает перед Zinguang определённую перспективу развития. Однако серьёзным препятствием пока что остаются санкционные ограничения, ведь собственных производственных 7-нм мощностей у Китая нет. Крупносерийное производство по таким нормам могут предложить пока что лишь TSMC и Samsung Electronics. Даже если китайская фабрика SMIC успешно освоит 7-нм производство, остаётся зависимость от импортного оборудования для массового производства микросхем.

Постоянный URL: http://servernews.ru/1045215
22.06.2021 [14:25], Владимир Агапов

Analog Devices представила трансиверы 10BASE-T1L: 10 Мбит/с по одной паре на расстоянии до 1,7 км

Два новых чипа Analog Devices, ADIN1100 и ADIN1110, имеют поддержку Ethernet-стандарта 10BASE-T1L (IEEE 802.3cg-2019). Они обеспечивают полный набор функций физического уровня (PHY), позволяя устройствам обмениваться данными на скорости 10 Мбит/с всего по одной витой паре, максимальная длина которой может составлять 1,7 км.

Оба трансивера заключены в 40-выводные LFCSP-корпуса размером 6 × 6 мм и могут работать в промышленным диапазоне температур (-40…+105 °C). Возможно использование в искробезопасных решениях. Согласно спецификации, они поддерживают напряжение питания 1,8/3,3 В и потребляют от 39 мВт до 109 мВт (в зависимости от режима работы).

Имеется встроенный мониторинг питания, поддержки протокола точного времени IEEE 1588 PTP, а также средства сетевой диагностики. Микросхема ADIN1110 отличается поддержкой MAC-уровня, что облегчает её применение в различных периферийных устройствах в связке практически с любым микроконтроллером посредством шины SPI.

Компания ожидает, что представленные трансиверы найдут применение при реализации концепции Индустрии 4.0, поскольку позволят использовать стандартную сетевую инфраструктуру для построения IIoT-сетей, включающими практически любые узлы и технологические установки на предприятиях, даже в местах повышенной опасности, где до сих пор подключение датчиков и других оконечных устройств было ограничено.

Другая перспективная область применения — системы автоматизации зданий: отопление, вентиляция, управления лифтами, пожарная безопасность, видеонаблюдение и контроль доступа. Применение технологии 10BASE-T1L позволяют развернуть большое число узлов и датчиков с прямой IP-адресацией и централизованно управлять каждым из них, контролируя все необходимые параметры здания. Кроме того, это упрощает подключение периферийных устройств к облаку.

Стандарт 10BASE-T1L позволяет осуществлять передачу данных и питание устройств по одной витой паре, при условии, что нагрузка не будет превышать 500 мВт в искробезопасных решениях и 60 Вт в остальных случаях. Дополнительным плюсом является возможность использования стандартной сетевой инфраструктуры и программного обеспечения.

В настоящий ADIN1100 и ADIN1110 находятся на этапе пререлиза, что означает возможное продолжение их инженерной доработки, изменения технических характеристики и ограничение для заказа до тех пор, пока продукты не будет запущены в производство. Более подробную информацию о них можно получить на сайте производителя.

Постоянный URL: http://servernews.ru/1042518
08.06.2021 [19:06], Сергей Карасёв

Qualcomm представила новые решения серии QCS для Интернета вещей

Компания Qualcomm Technologies анонсировала сразу семь новых продуктов, ориентированных на применение в сфере Интернета вещей в коммерческом и промышленном секторах. Это изделия QCS8250, QCS6490/QCM6490, QCS4290/QCM4290 и QCS2290/QCM2290.

Решение Qualcomm QCS8250 относится к премиальному уровню. Оно обеспечивает поддержку Wi-Fi 6 и 5G. Платформа объединяет процессор Qualcomm Kryo 585, ИИ-модуль Qualcomm Artificial Intelligence (AI) Engine и движок обработки изображений ISP. Изделие поддерживает до семи камер одновременно с кодированием вплоть до разрешения 4K и частотой 120 кадров в секунду. А нейропроцессор (Neural Processing Unit, NPU) обеспечивает ИИ-функциональность для ресурсоемких IoT-приложений.

Qualcomm QCS6490 и QCM6490 на базе Kryo 670 ориентированы на IIoT и предлагают расширенные возможности подключения, благодаря поддержке 5G (mmWave/Sub-6) и Wi-Fi 6E. Qualcomm QCS4290 и QCM4290 предлагают высокую производительность для устройств среднего уровня. Они включают ядра Kryo 260 вкупе, ИИ-модулем Qualcomm AI Engine третьего поколения, а также обладают поддержкой LTE Cat13 и Wi-Fi 6. Наконец, платформы начального уровня Qualcomm QCS2290 и QCM2290 с ядрами Cortex A53 и поддержкой LTE отличаются низким энергопотреблением.

Постоянный URL: http://servernews.ru/1041540
Система Orphus