Материалы по тегу: hardware
16.03.2024 [20:48], Сергей Карасёв
Firefly представила индустриальный модуль Core-3562JQ на платформе Rockchip с расширенными температурным диапазономКоманда Firefly, по сообщению ресурса CNX-Software, подготовила к выпуску вычислительный модуль (SoM) Core-3562JQ на платформе Rockchip, предназначенный для построения индустриальных и коммерческих устройств. Это могут быть контроллеры, терминалы, оборудование для сферы здравоохранения и пр. Применён процессор RK3562J, объединяющий четыре ядра Arm Cortex-A53 с частотой до 1,2 ГГц и графический ускоритель Arm Mali-G52 EE с поддержкой OpenGL ES 3.2, Vulkan 1.1, OpenCL 2.0. Блок VPU способен справляться с декодированием видео 4Kp30 H.364, H.264, VP9, а также кодированием материалов 1080p60 H.264. ![]() Источник изображения: Firefly Объём оперативной памяти LPDDR4(x) может составлять 2, 4 и 8 Гбайт, вместимость флеш-модуля eMMC — 16, 32 и 64 Гбайт. Предусмотрены три 80-контактные колодки ВTВ (board-to-board). Поддерживаются видеовыходы LVDS (до 1280 × 800 точек; 60 Гц), MIPI-DSI (до 2048 × 1080 пикселей; 60 Гц) и RGB (до 2048 × 1080 точек; 60 Гц), а также входы 2 × MIPI CSI (4 линии) или 4 × MIPI CSI (2 линии) или 1 × MIPI CSI (4 линии) + 2 × MIPI CSI (2 линии). Среди прочих интерфейсов упомянуты: S/PDIF, PDM, 2 × DAC (I2S/PCM), 100MbE и 1GbE, SDIO (Wi-Fi и Bluetooth; хранение), USB 3.0 OTG / PCIe 2.1 х1, 2 × USB 2.0, 5 × I2C, 10 × UART, 2 × CAN, 3 × SPI, 13 × ADC, 16 × PWM, 1 × SD/MMC. Размеры составляют 60 × 36 мм, масса — 12 г. Диапазон рабочих температур простирается от -40 до +85 °C. Требуется питание 5 В, а энергопотребление не превышает 3 Вт. Разработчик подготовил образы Ubuntu, Debian и Linux Buildroot+Qt.
16.03.2024 [20:37], Сергей Карасёв
Плата NVMe Base Duo позволяет наделить Raspberry Pi 5 двумя SSD формата М.2Компания Pimoroni выпустила плату расширения NVMe Base Duo для мини-компьютера Raspberry Pi 5, дебютировавшего в сентябре 2023 года. Новый аксессуар поддерживает установку двух накопителей NVMe SSD, благодаря чему можно построить компактный файловый сервер, мультимедийный центр, обратный прокси-сервер и пр. NVMe Base Duo содержит два коннектора для SSD формата М.2 2230/2242/2260/2280 с интерфейсом PCIe. Для подключения платы расширения к Raspberry Pi 5 служит гибкий кабель PCIe Flex, который входит в комплект поставки наряду с необходимыми крепёжными элементами и прорезиненными ножками. Говорится о совместимости с широким списком накопителей различных производителей, включая такие изделия, как ADATA Legend 700/800, XPG SX8200 Pro, Crucial P2/Р3, Kingston KC3000, Kioxia Exceria NVMe и Kioxia Exceria G2 NVMe, Lexar NM620/NM710, Netac NV2000/NV3000, PNY CS1030, Sabrent Rocket 4.0 и Sabrent Rocket Nano, Samsung 980/Samsung 980 Pro и Western Digital Black SN750 SE. Могут применяться решения вместимостью 250 Гбайт, 500 Гбайт и более. Обмен данными осуществляется посредством PCIe 2.0 x1. Как утверждает Pimoroni, общая пропускная способность составляет около 450 Мбайт/с, или немногим более 220 Мбайт/с на каждый из двух SSD в случае одновременного доступа. Плату NVMe Base Duo можно закрепить над или под Raspberry Pi 5. Стоимость аксессуара составляет £30 (приблизительно $38). За £92 (около $117) можно прибрести комплект с двумя накопителями М.2 ёмкостью 250 Гбайт каждый, а набор с парой SSD на 500 Гбайт обойдётся в £116 (≈$148).
15.03.2024 [23:27], Сергей Карасёв
Миссии NASA задерживаются из-за устаревших и перегруженных суперкомпьютеровHPC-инфраструктура NASA нуждается в серьёзной модернизации, поскольку в текущем виде не в состоянии удовлетворить потребности организаций в составе национального управления по аэронавтике и исследованию космического пространства США. К такому выводу, как сообщает The Register, пришло в ходе аудита Управление генерального инспектора. Отмечается, что НРС-инфраструктура NASA морально устарела и не в состоянии эффективно поддерживать современные рабочие нагрузки. Например, в Центре передовых суперкомпьютеров NASA задействованы 18 тыс. CPU и только 48 ускорителей на базе GPU. ![]() Источник изображения: NASA Кроме того, текущих вычислительных мощностей не хватает для всех потребителей. Поэтому некоторые отделы и научные центры NASA вынуждены закупать собственное оборудование и формировать локальную НРС-инфраструктуру. В частности, одна только команда Space Launch System ежегодно тратит на эти цели $250 тыс. вместо того, чтобы подключаться к централизованной системе. Фактически каждое структурное подразделение NASA, за исключением Центра космических полетов Годдарда и Космического центра Стенниса, имеет собственную независимую вычислительную инфраструктуру. Ещё одной причиной развёртывания локальных мощностей является путаница вокруг облачных ресурсов и политики NASA, из-за которой возникают сложности с планированием и оценкой финансовых затрат. Аудит также показал, что есть вопросы к безопасности суперкомпьютерного парка NASA. Например, нет должного мониторинга некоторых систем, доступ к которым имеют иностранные пользователи. В целом, наблюдающаяся картина приводит к задержкам в реализации космических миссий и дополнительным расходам. Для устранения недостатков руководству NASA рекомендовано провести комплексную реформу НРС-сектора, включающую инвентаризацию активов, выявление технологических пробелов и киберрисков. Необходимо также разработать стратегию по улучшению распределения имеющихся вычислительных мощностей.
15.03.2024 [23:18], Владимир Мироненко
«DатаРу» запустила направление «DатаРу Облако»Российская компания «DатаРу» объявила о запуске нового направления под названием «DатаРу Облако», благодаря чему клиенты получат доступ к популярным облачным сервисам, в том числе PaaS и SaaS на базе собственных аппаратных и комплексных решений DатаРу. Новое направление обеспечит заказчикам доступ к ряду облачных сервисов, включая публичное облако, частное облако и гибридные инфраструктурные решения. Планы команды «DатаРу Облако» включают развитие линейки PaaS и SaaS собственной разработки на базе собственного же оборудования и решений. ![]() Источник изображения: «DатаРу» В «DатаРу» рассчитывают, что облачные продукты будут востребованы со стороны enterprise-сегмента, представителям которого необходим переход на технологически независимую ИТ-инфраструктуру в кратчайшие сроки. Глава «DатаРу» отметил, что компания продолжает развивать новые направления бизнеса. Команда её специалистов располагает всем необходимым для предоставления заказчикам облачных решений — от собственного производства оборудования до предоставления глубокой экспертизы в работе с прикладными системами.
15.03.2024 [22:50], Сергей Карасёв
Zotac анонсировала GPU-серверы с поддержкой до 10 ускорителейКомпания Zotac объявила о выходе на рынок оборудования корпоративного класса: дебютировали рабочие станции Bolt Tower Workstation башенного типа, а также стоечные GPU-серверы типоразмера 4U и 8U. Устройства рассчитаны на визуализацию данных, обучение ИИ-моделей, моделирование и пр. Новинки получили модульный дизайн, что облегчает замену или установку дополнительных компонентов. Говорится о поддержке различных дистрибутивов Linux корпоративного уровня, включая Red Hat Enterprise Linux, SUSE Linux Enterprise Server, Ubuntu. Продукты разделены на три категории: Essential, Advanced и Premier. В первую входят башенные рабочие станции и серверы 4U, ориентированные на системных интеграторов и предприятия, которым требуется оборудование с оптимальным соотношением цены и производительности. Возможна установка процессоров Intel Xeon Sapphire Rapids и Xeon Emerald Rapids. Системы Bolt Tower Workstation могут нести на борту материнскую плату типоразмера ATX/E-ATX/Micro-ATX/EBB и два блока питания. Возможно развёртывание жидкостного охлаждения. В серию Advanced включены 4U-серверы для более ресурсоёмких приложений. В зависимости от модификации допускается монтаж до 10 ускорителей. Поддерживаются модели в исполнении SXM/OAM. Подсистема питания может быть выполнена по схеме резервирования 4+1 или 2+2. Семейство Premier объединяет наиболее производительные серверы 4U и 8U для самых сложных рабочих нагрузок, таких как большие языковые модели (LLM) и облачный ИИ. Есть до 12 слотов PCIe для высокоскоростных сетевых карт (10 Гбит/с) или DPU. Для некоторых серверов возможно применение процессоров AMD.
15.03.2024 [22:43], Алексей Степин
Tenstorrent под руководством Джима Келлера представила свои первые ИИ-ускорители Grayskull на базе RISC-VКанадский разработчик микрочипов Tenstorrent, возглавляемый легендарным Джимом Келлером (Jim Keller), наконец, представил свои первые решения на базе архитектуры RISC-V — ИИ-процессоры Grayskull и ускорители на их основе, Grayskull e75 и e150. Оба варианта доступны для приобретения уже сейчас по цене $599 за младшую версию и $799 за старшую. Данные решения предназначены для инференс-систем, разработки и отладки ПО. В комплект разработчика входят инструменты TT-Buda и TT-Metalium. В первом случае речь идёт о высокоуровневом стеке, предназначенном для компиляции и запуска ИИ-моделей на аппаратном обеспечении Tenstorrent, а во втором — о низкоуровневой программной платформе, обеспечивающей прямой доступ к аппаратным ресурсам. Поддерживается PyTorch, ONNX и другие фреймворки. Создатели делают особенный упор на простоте программирования в сравнении с классическими GPU. Поддерживается широкий спектр ИИ-моделей, но Tenstorrent особенно выделяет BERT, ResNet, Whisper, YOLOv5 и U-Net. ![]() Источник изображений здесь и далее: Tenstorrent Архитектура Grayskull базируется на RISC-V, в настоящий момент максимальное количество фирменных ядер Tensix достигает 120, работают они на частотах вплоть до 1,2 ГГц. Каждое такое ядро содержит пять полноценных ядер RISC-V, блок тензорных операций, блок SIMD для векторных операций, а также ускорители сетевых операций и сжатия/декомпрессии данных. Дополнительно каждое ядро может иметь до 1,5 Мбайт сверхбыстрой памяти SRAM. Между собой ядра общаются напрямую. ![]() В случае Grayskull e150 процессор работает в полной конфигурации со 120 ядрами и 120 Мбайт SRAM, объём внешней памяти LPDDR4 составляет 8 Гбайт (ПСП 118,4 Гбайт/с). Ускоритель выполнен в формате полноразмерной платы расширения с теплопакетом 200 Вт и интерфейсом PCIe 4.0 x16. У младшей модели, Grayskull e75, активных ядер только 96, их частота снижена до 1 ГГц, а пропускная способность внешней памяти при том же объёме снижена до 102,4 Гбайт/с. При этом теплопакет составляет всего 75 Вт, что позволило выполнить ускоритель в виде низкопрофильной платы расширения и обойтись без дополнительного питания. Чипы Wormhole тоже используют Tensix. В составе Wormhole n300 таких ядер 128 (2 × 64), частота равна 1 ГГц при теплопакете 300 Вт. Объём SRAM составляет 1,5 Мбайт на ядро, а внешняя подсистема памяти включает 24 Гбайт GDDR6 и с ПСП 576 Гбайт/с. Wormhole n150 оснащены 72 ядрами Tensix, 108 Мбайт SRAM и 12 Гбайт GDDR6 с ПСП 288 Гбайт/с. TDP составляет 160 Вт. От Grayskull эти решения отличаются возможностью масштабирования путём прямого объединения плат. Также есть по паре сетевых интерфейсов 200GbE. Возможна работа с форматами FP8/16/32, TF32, BFP2/4/8, INT8/16/32 и UINT8. Чипы Tenstorrent Grayskull и Wormhole лежат в основе уникальных масштабируемых платформ собственной разработки — AICloud и Galaxy. В первом случае используются процессоры Grayskull, поскольку Wormhole на рынке должен появиться позже. Платформа предназначена в качестве аппаратной для ИИ и HPC-нагрузок в облаке Tenstorrent. ![]() Каждый 4U-узел AICloud высотой содержит восемь карт (16 чипов) и способен предоставить в распоряжение пользователей от 30 до 60 vCPU и от 256 до 1024 Гбайт памяти, вкупе с дисковым пространством объёмом 100–400 Гбайт. Восемь таких узлов составляют стойку, а четыре стойки — кластер Server Pod. Четыре таких кластера объединены общей системой интерконнекта, управления и СХД (до 200 Тбайт), дальнейшее масштабирование уже выходит на уровень ЦОД. В Tenstorrent Galaxy упор сделан на возможность создания высокопроизводительных ИИ-систем с быстрым интерконнектом на базе Ethernet. Строительным блоком здесь являются 80-ядерные модули Wormhole. 4U-сервер вмещает 32 таких модуля, что в совокупности даёт 2560 ядер Tensix и 384 Гбайт глобально адресуемой GDDR6. Наличие 16 каналов 200GbE в каждом модуле обеспечивает производительность интерконнекта на уровне 3,2 Тбитс. На уровне стойки высотой 48U это дает 256 чипов Wormhole, общий объём SRAM в этом случае достигает 30,7 Гбайт, а GDDR6 — 3 Тбайт. Производительность стойки оценивается разработчиками в 20 Попс (Петаопс), а совокупная скорость интерконнекта — в 76,8 Тбит/с. Расплатой за универсальность и производительность станет энергопотребление, достигающее 60 КВт.
15.03.2024 [16:13], Сергей Карасёв
Производителей электроники в РФ обяжут отчитываться о закупках отечественных компонентовМинистерство промышленности и торговли РФ (Минпромторг), по сообщению газеты «Ведомости», подготовило изменения в постановление правительства от 17 июля 2015 года №719, которое устанавливает критерии отнесения продукции к произведенной на территории России. Ведомство предлагает включить требование, в соответствии с которым производители электроники будут обязаны отчитываться о закупках отечественных компонентов. Постановление №719 предусматривает начисление баллов за применение в выпускаемой продукции отечественных комплектующих. От количества таких баллов зависит включение электроники в реестр Минпромторга и получение преференций на госзакупках. ![]() Источник изображения: pixabay.com Однако в России фиксируются случаи, когда производитель указывает страной происхождения товара Россию, а при производстве фактически использует иностранные компоненты. Иными словами, в реестр могут вноситься изделия с отечественными компонентами из небольшой тестовой партии, после чего заказчикам поставляются товары с иностранными компонентами. В соответствии с новой инициативой Минпромторга производители должны будут отчитываться в Государственной информационной системе промышленности (ГИСП) о количестве приобретенных российских комплектующих и объёме произведенной продукции. В случае выявления расхождений, когда объём выпущенного товара значительно превосходит количество закупленных российских компонентов, Минпромторг совместно с Торгово-промышленной палатой (ТПП) будет осуществлять выездную проверку «для верификации производственных мощностей предприятия». Такой механизм, как ожидается, поможет в выявлении недобросовестных производителей электроники.
15.03.2024 [16:12], Руслан Авдеев
Тепло французского дата-центра Data4 направят на выращивание водорослей для захвата углекислого газаФранцузский оператор дата-центров Data4 совместно с Университетом Париж-Сакле (University of Paris-Saclay) работает над созданием прототипа установки, позволяющей использовать «мусорное» тепло ЦОД для генерации возобновляемой энергии. По данным Computer Weekly, получать её будут не напрямую, а с соблюдением «зелёной» повестки — из выращиваемой биомассы. В последнее время операторы нередко используют тепло ЦОД для обогрева бассейнов или теплиц и, например, разведения рыб и отопления домов. Но Data4 с партнёрами ищут альтернативу в формате «циркулярной экономики». Уже подписано соглашение о сотрудничестве, в рамках которого будут проводиться эксперименты с переработкой углекислого газа путём выращивания водорослей. Исследование показало, что захват CO2 в этом случае может быть в 20 раз эффективнее, чем у деревьев. Полученная биомасса будет применяться для источников «циркулярной» энергии, а также производства продуктов для различных отраслей промышленности. Новый проект, по словам организаторов, является ответом на необходимость утилизации тепла дата-центров. Прототип решения успешно функционирует, так что оператор намерен вывести его на индустриальный уровень. Проект, как ожидается, поможет улучшить продовольственную и энергетическую безопасность региона. Однако это потребует системного подхода и сотрудничества всех игроков в регионе Эссон, где действует Data4. ![]() Источник изображения: Zach Dyson/unsplash.com Попытки конвертировать отходы в топливо и полезные продукты предпринимаются регулярно. В декабре 2023 года появилась новость о намерении Microsoft обеспечить питание ЦОД в Сан-Хосе, используя биогаз.
14.03.2024 [23:45], Алексей Степин
Войны ретаймеров: Astera Labs анонсировала чипы Aries 6 для PCIe 6.0Практически сразу после анонса чипов Broadcom Vantage 5 и 6 Astera представила свой вариант ретаймеров для инфраструктуры PCIe следующего поколения — серию чипов Aries 6, передаёт ServeTheHome. Высокий интерес к ретаймерам вызван теми возможностями, что открывает PCI Express 6.0 как в плане скоростей, так и в плане функциональности (CXL). А переход на новое поколение шины необходим для дальнейшего развития набирающего популярность генеративного ИИ. По мере роста скоростей PCI Express обострялась и проблема длины проводников на печатной плате, при которой сигнал достаточно устойчив и вписывается в окно требуемых характеристик. Если при переходе от PCIe 3.0 к 4.0 удалось обойтись сравнительно малой кровью, то для PCIe 5.0 уже потребовались более сложная схемотехника и более продвинутые ретаймеры. PCIe 6.0 же накладывает ещё более жёсткие требования к целостности сигнала. Платформы GPU-кластеров и СХД компактнее не становятся, так что требуемая длина проводников на печатных платах растёт, а вместе с ней растёт и важность ретаймеров, поскольку без них согласовать высокоскоростной сигнал PCIe 6.0 становится невозможно. Таким системам требуется сразу несколько подобных чипов, причём стоимость каждого из них достигает $20, так что суммарная стоимость этих компонентов на уровне целого ЦОД весьма внушительна. Новые чипы Aries 6 относятся к третьему поколению «умных» DSP-ретаймеров. Они представлены в вариантах с 8 и 16 линиями PCIe 6.0 и позволяют в три раза увеличить длину соответствующего соединения на плате, говорит Astera Labs. При этом новинки поддерживают CXL 3.x и предоставляют расширенные средства диагностики и управления COSMOS. Энергопотребление в режиме PCIe 6.0 при этом заявлено меньше, чем у Broadcom Vantage 6 — 11 Вт против 13 Вт у конкурента. Aries 6 уже протестированы на совместимость с полсотней разнообразных PCIe-соединений, включая root-комплексы и конечные устройства. И если Broadcom пока только говорит о ретаймерах для PCIe 6.0, а появление первого «кремния» Vantage 6 запланировано лишь на следующий год, то Astera Labs начала поставки образцов Aries 6 ещё в феврале. Похоже, Broadcom будет нелегко развернуться на этом рынке.
14.03.2024 [18:41], Сергей Карасёв
NEC рассматривает возможность продажи дата-центровКорпорация NEC, по информации Bloomberg, изучает возможность продажи своих ЦОД. Это позволит компании оптимизировать бизнес-структуру, а также привлечь дополнительные средства благодаря реализации непрофильных активов. Сама NEC обнародованные сведения официально не комментирует. Утверждается, что японская корпорация ищет финансовых консультантов для помощи в подготовке потенциальной сделки. Стоимость бизнеса NEC, связанного с дата-центрами, оценивается в $400–$500 млн. К этим объектам якобы уже проявили интерес другие операторы ЦОД и фонды, ориентированные на создание IT-инфраструктур. ![]() Источник изображения: NEC Обсуждение продажи дата-центров NEC пока носит предварительный характер. Официальный процесс продажи может начаться не раньше конца 2024 года. Есть вероятность, что NEC примет решение сохранить миноритарную долю в ЦОД-бизнесе или даже отказаться от идеи продажи. На сегодняшний день NEC управляет тремя основными облачными дата-центрами: один из них располагается в Кобе к западу от Осаки, другой — в Канагаве к югу от Токио, третий — в районе Индзай к востоку от Токио (его строительство было завершено в 2022 году). У компании также есть ЦОД в Нагое, небольшие дата-центры в префектуре Эхимэ на острове Сикоку, Фукуоке на острове Кюсю, Саппоро на острове Хоккайдо, в Хиросиме, Токио и префектуре Канагава (отдельно от облачного объекта). У NEC также имеется совместное предприятие в области ЦОД с местным системным интегратором SCSK, который является частью конгломерата Sumitomo Corporation. SCSK управляет 10 дата-центрами в Японии общей площадью 95 тыс. м2 через свою дочернюю компанию netXDC. |
|