Материалы по тегу: hardware
01.07.2024 [12:35], Сергей Карасёв
Mini-ITX плата Milk-V Jupiter получила чип RISC-V с восемью ядрамиКомпания Shenzhen MilkV Technology (Milk-V), по сообщению ресурса Liliputing, подготовила к выпуску плату под названием Jupiter, оснащённую процессором на архитектуре RISC-V. Новинка имеет типоразмер Mini-ITX, благодаря чему совместима с разнообразными существующими корпусами. Габариты изделия составляют 170 × 170 мм. В зависимости от модификации применяется процессор SpacemiT K1 или M1 с восемью ядрами SpacemiT X60 на базе RISC-V. В состав чипа входят графический ускоритель Imagination BXE-2-32 и нейропроцессорный модуль (NPU) с производительностью до 2 TOPS. Объём оперативной памяти LPDDR4x может составлять 4, 8 или 16 Гбайт (напаяна на плату, что исключает возможность апгрейда). ![]() Источник изображения: Liliputing Доступны коннектор для SSD формата M.2 2280 с интерфейсом PCIe 2.0 x2 и слот для карты microSD. Кроме того, может быть добавлен чип eMMC. Есть также слот PCIe 2.0 х8 для карт расширения, например, GPU или дополнительных SSD. Поддерживается беспроводная связь Wi-Fi 6 и Bluetooth 5.2. Набор разъёмов включает порты USB 2.0 Type-C, USB 3.0 Type-A (×2) и USB 2.0 Type-A (×2), интерфейс HDMI (до 1920 × 1440 пикселей; 60 Гц), 3,5-мм аудиогнёзда (аудиовыход, вход для микрофона), два коннектора RJ-45 для сетевых кабелей (адаптер 1GbE), DC-гнездо для подачи питания (12 В). Через разъёмы на самой плате также можно задействовать по два дополнительных порта USB 3.0 и USB 2.0. Среди прочего упомянуты коннектор RTC для батарейки стандарта CR1220 и разъём для подключения вентилятора с ШИМ-управлением. Опционально доступна поддержка технологии PoE.
01.07.2024 [08:44], Сергей Карасёв
MaxLinear представила DPU MxL8900 для NVMe-хранилищКомпания MaxLinear, по сообщению ресурса Blocks & Files, разработала ускорители обработки данных Panther III серии MxL8900, предназначенные для использования в ЦОД. В семейство вошли изделия с интерфейсом PCIe 4.0, а в дальнейшем планируется реализовать поддержку PCIe 5.0. Устройства берут на себя выполнение таких задач, как сжатие данных, дедупликация, кодирование/декодирование и шифрование. Благодаря этому снижается нагрузка на CPU, что позволяет поднять производительность и энергоэффективность серверов. Panther III является разновидностью DPU (Data Processing Unit), но MaxLinear предпочитает не использовать этот термин. Директор компании по маркетингу Марк Моран (Mark Moran) говорит, что у многих клиентов DPU ассоциируется с применением Arm-чипа, но в устройствах Panther III такие процессоры не применяются из-за недостаточно высокой производительности. В серию MxL8900 вошли варианты с интерфейсом PCIe 4.0 х4, PCIe 4.0 х8 и PCIe 4.0 х16 с пропускной способностью 25, 50, 100 и 200 Гбит/с. Ускорители выпускаются в виде карт PCIe HHHL и OCP NIC SFF. Задержки при кодировании и декодировании информации заявлены на уровне 40 мкс и 25 мкс. До 16 карт можно объединить в каскадную конфигурацию, чтобы увеличить пропускную способность до 400–3200 Гбит/с. Возможно шифрование по алгоритму AES. Поддерживается сжатие GZIP Level 9, ZLIB Level 9, Deflate Level 9, XP10 Level 6/11, LZS/eLZS. Говорится о коэффициенте компрессии до 15:1 для структурированных данных и 12:1 для неструктурированных данных, что увеличивает эффективную ёмкость NVMe-накопителей в 15 и 12 раз соответственно.
30.06.2024 [15:08], Владимир Мироненко
Аэропорт Женевы временно не принимал и не отправлял рейсы из-за подтопления ЦОД аэронавигационной службы SkyguideШвейцарская аэронавигационная служба Skyguide на этой неделе пострадала от сбоя своего ЦОД, вызванного повреждением системы охлаждения, пишет ресурс DatacenterDynamics. 25 июня в Швейцарии прошли грозы, которые привели к наводнению в районе, где находится дата-центр Skyguide, и подтоплению ЦОД. Особенно пострадала система охлаждения, находящаяся в подвале ЦОД в Женеве. Из-за её повреждения служба Skyguide была вынуждена в этот день закрыть воздушное пространство Женевы на два с половиной часа, в связи с чем взлёт и посадка всех бортов в международном аэропорту Женевы были приостановлены. По словам представителя аэропорта Игнаса Жаннерата (Ignace Jeannerat), было отменено более 50 рейсов, более десятка было перенаправлено в другие аэропорты. «Был принят ряд мер, чтобы гарантировать, что системы управления воздушным движением не перегреваются, а также гарантировать охлаждение машинного зала», — указано в заявлении Skyguide. Как сообщается, к 26 июня работа системы охлаждения ЦОД была частично восстановлена, а 28 июня она уже функционировала в полном объёме. Во избежание повторения подобных сбоев Skyguide приобрела дополнительную внешнюю систему охлаждения и мобильный дизель-генератор для поддержки имеющихся изношенных генераторов. В службе отметили, что это временное решение, и для реального устранения ущерба, нанесённого затоплением помещений ЦОД, потребуется ещё некоторое время.
30.06.2024 [14:28], Сергей Карасёв
В Австралии запущен ИИ-суперкомпьютер Virga [Обновлено]Государственное объединение научных и прикладных исследований Австралии (CSIRO) сообщило о вводе в эксплуатацию высокопроизводительного вычислительного комплекса Virga. Система, предназначенная для ИИ-задач, ускорит научные открытия, а также поможет развитию промышленности и экономики страны. Суперкомпьютер располагается в дата-центре Hume компании CDC в Канберре. Его созданием занималась компания Dell: в основу положены серверы PowerEdge XE9640, оснащённые двумя процессорами Intel Xeon Sapphire Rapids 8452Y (36C/72T, 2,0/3,2 ГГц, 300 Вт), до 512 Гбайт RAM и четырьмя 61,44-Тбайт NVMe SSD. Задействованы ИИ-ускорители NVIDIA H100 с 96 Гбайт памяти HBM3 — всего 448 шт. Система занимает 14 стоек, а в качестве интерконнекта используется Infiniband NDR. Dell заключила контракт на создание Virga в 2023 году: сумма изначально составляла $9,65 млн, однако фактическое строительство комплекса обошлось в $10,85 млн. Новый суперкомпьютер придёт на смену НРС-системе CSIRO предыдущего поколения под названием Bracewell, но унаследует от неё BeeGFS-хранилище, также построенное на оборудовании Dell. В нынешнем рейтинге TOP500 машина занимает 72 место с пиковой и практической FP64-производительностью 18,46 Пфлопс и 14,94 Пфлопс соответственно. Комплекс Virga получил своё имя в честь метеорологического эффекта «вирга» — это дождь, который испаряется, не достигая земли: видеть его можно в виде полос, выходящих из-под облаков. Систему Virga планируется использовать для таких задач, как прогнозирование пожаров, разработка вакцин нового поколения, проектирование гибких солнечных панелей, анализ медицинских изображений и пр. Пока подробные технические характеристики Virga и показатели быстродействия не раскрываются. Отмечается лишь, что в составе комплекса применена гибридная система прямого жидкостного охлаждения. Говорится также, что CDC оперирует двумя кампусами дата-центров Hume. Площадка Hume Campus One объединяет три ЦОД и имеет мощность 21 МВт, тогда как в состав Hume Campus Two входят два объекта суммарной мощностью 51 МВт.
29.06.2024 [21:30], Сергей Карасёв
Alibaba Cloud закроет дата-центры в Австралии и Индии, чтобы сфокусироваться на Юго-Восточной Азии и МексикеОблачная платформа Alibaba Cloud, по сообщению ресурса Datacenter Dynamics, намерена закрыть ЦОД в Австралии и Индии. Речь идёт о площадках в Сиднее и Мумбаи, работа которых будет свёрнута до конца текущего года. Решение связано с изменением стратегии по развитию инфраструктуры дата-центров. Alibaba Cloud запустила облачный регион в Сиднее в 2016 году: на сегодняшний день он имеет две зоны доступности. Регион в Мумбаи был открыт в 2018 году и также включает две зоны доступности. ЦОД в Индии прекратят работу уже 15 июля, а объекты в Австралии — 30 сентября 2024 года. Alibaba Cloud рекомендует всем клиентам этих дата-центров при первой возможности перенести свои рабочие нагрузки на площадки компании в Сингапуре или в других регионах. После сворачивания деятельности в Австралии и Индии усилия компании будут направлены на развитие облачного бизнеса в Юго-Восточной Азии и Мексике. В частности, в мае Alibaba Cloud объявила о планах по формированию мексиканского региона, а также заявила, что в ближайшие три года создаст дополнительные ЦОД на некоторых рынках присутствия, включая Малайзию, Филиппины, Таиланд и Южную Корею. ![]() Источник изображения: Alibaba Индонезия, Малайзия и Таиланд в последнее время смогли привлечь миллиарды долларов инвестиций на развитие ЦОД как от американских, так и азиатских операторов и гиперскейлеров. Индийскому рынку дата-центров тоже предрекают стремительный рост, а вот Сингапур, похоже, вскоре может потерять статус не только регионального, но и международного лидера индустрии ЦОД. Осенью прошлого года Alibaba объявила о намерении привлечь $3 млрд для развития облачного бизнеса. Компания рассчитывала провести масштабную реорганизацию, в ходе которой на базе облачных активов планировалось создать отдельную структуру. Однако впоследствии от этой инициативы пришлось отказаться в связи с американскими санкциями в отношении Китая. В целом, Alibaba Cloud управляет 89 зонами доступности в 30 регионах мира.
29.06.2024 [21:18], Владимир Мироненко
Omdia: ИИ-приложения станут основной нагрузкой в ЦОД и подстегнут рост расходов на серверыВ настоящее время ИИ является основным драйвером инвестиций в ЦОД, капитальные затраты на которые в этом году вырастут почти на 30 %, пишет The Register со ссылкой на исследование Omdia. Согласно прогнозу аналитиков, в течение нескольких лет ИИ станет основной серверной рабочей нагрузкой в ЦОД. Приложения ИИ являются наиболее быстрорастущей категорией среди нагрузок, исходя из количества развёртываемых в год серверов. Согласно данным Omdia, рост расходов на серверы в прошлом году полностью приходится на ИИ-оборудование. В 2024 году спрос на использование ИИ ускорил инвестиции в ЦОД — капитальные затраты, «подкреплённые корпоративными денежными резервами крупных гиперскейлеров», как ожидает Omdia, вырастут на 28,5 %. По подсчётам Omdia, продажи серверов в этом году вырастут на 74 % до $210 млрд с $121 млрд в 2023 году. В дальнейшем количество серверов для обучения ИИ будет расти примерно на 5 % в год до чуть менее 1 млн/год в 2029 году. А количество серверов для инференса будет расти со скоростью 17 % в год, и к 2029 году годовые поставки достигнут 4 млн шт. Это объясняется тем, что серверы для обучения ИИ в основном нужны небольшому количеству гиперскейлеров. Они сосредоточены на достижении максимальной эффективности своего ИИ-оборудования и у них нет потребности закупать много серверов. В Omdia считают, что обучение ИИ можно классифицировать как деятельность в области НИОКР, и поэтому, оно будет подлежать плановому распределению бюджета, то есть реинвестированию доли доходов. А количество серверов, необходимых для инференса, наоборот, будет расти по мере увеличения аудитории пользователей приложений ИИ. Как утверждают в Omdia, в основном в течение следующих пяти лет будут продолжать быстро расти продажи ИИ-серверов, а рост поставок других типов серверов будет значительно меньше. Прогнозируется, что расходы на управление температурным режимом в ЦОД вырастут в 2024 году на 22 % год к году до $9,4 млрд. Побочным эффектом роста спроса на более мощное серверное оборудование стал бум внедрения СЖО. По прогнозам Omdia, общий доход от СЖО превысит к концу этого года отметку в $2 млрд, а к 2028 году будет больше $5 млрд. Доходы от инфраструктуры распределения электроэнергии в этом году впервые превысят $4 млрд, а доходы от источников бесперебойного питания вырастут на 10 % до $13 млрд.
29.06.2024 [13:08], Сергей Карасёв
Энергопотребление ИИ-ускорителя AWS Trainium 3 может достигать 1000 ВтОблачная платформа Amazon Web Services (AWS) готовит ИИ-ускоритель нового поколения — изделие Trainium 3. Завесу тайны над этим решением, как сообщает ресурс Fierce Networks, приоткрыл вице-президент компании по инфраструктурным услугам Прасад Кальянараман (Prasad Kalyanaraman). Оригинальный ускоритель AWS Trainium дебютировал в конце 2021 года. Его производительность — 3,4 Пфлопс на вычислениях малой точности и до 840 Тфлопс в FP32-расчётах. В ноябре 2023-го было представлено решение AWS Trainium 2, которое, как утверждается, вчетверо производительнее первой версии. Теперь AWS готовит изделие третьего поколения. Кальянараман намекнул, что энергопотребление Trainium 3 достигнет 1000 Вт или более. Он не стал называть конкретные цифры, но сказал, что для ускорителя планируется применение СЖО. «Текущее поколение ускорителей не требует СЖО, но следующему она понадобится. Когда мощность чипа превышает 1000 Вт, ему необходимо жидкостное охлаждение», — отметил Кальянараман. ![]() Источник изображения: AWS В настоящее время единственными ИИ-изделиями, показатель TDP которых достигает 1000 Вт, являются ускорители NVIDIA Blackwell. Вместе с тем, по имеющимся сведениям, Intel разрабатывает устройство в соответствующей категории с энергопотреблением на уровне 1500 Вт. На текущий момент почти все дата-центры AWS используют технологию воздушного охлаждения. Но Кальянараман сказал, что компания рассматривает возможность внедрения технологии однофазной СЖО (а не иммерсионного охлаждения) для поддержки ресурсоёмких рабочих нагрузок. К внедрению СЖО вынужденно пришли и Meta✴ с Microsoft — компании используют гибридный подход с водоблоками на чипах и теплообменниками на дверях стойки или же в составе отдельной стойки. Кроме того, отметил Кальянараман, AWS стремится к дальнейшей оптимизации своих ЦОД путём «стратегического позиционирования стоек» и модернизации сетевой архитектуры. Речь идёт о применении коммутаторов следующего поколения с пропускной способностью до 51,2 Тбит/с, а также оптических компонентов.
29.06.2024 [12:58], Сергей Карасёв
Бывший специалист Google по СЖО присоединился к OpenAIКомпания OpenAI, по сообщению ресурса Datacenter Dynamics, наняла еще одного бывшего сотрудника Tesla и Google для развития своей вычислительной инфраструктуры. Несмотря на использование облака Microsoft Azure, OpenAI развивает собственное направление ЦОД, в связи с чем расширяет штат специалистов в соответствующей области. В OpenAI перешел Реза Хиабани (Reza Khiabani), который ранее в течение почти двух лет работал в Tesla в качестве инженера-теплотехника. Он, в частности, помогал в создании системы охлаждения для ИИ-суперкомпьютера Dojo, для которого планируется построить специальный дата-центр. Однако с реализацией проекта возникли сложности. До прихода в Tesla Хиабани проработал почти девять лет в Google, из которых основную часть времени выполнял обязанности технического менеджера, архитектора тепловых систем и технического руководителя команды по разработке СЖО для ИИ-ускорителей семейства Cloud TPU. Он курировал проектирование ЦОД, тепловой дизайн TPU и «разработку машстабных систем жидкостного охлаждения». В OpenAI Хиабани войдёт в техническую команду. Чем именно ему предстоит заниматься, не уточняется. Но можно предположить, что его работа снова будет связана с решениями СЖО для дата-центров, ориентированных на ресурсоёмкие приложения ИИ. OpenAI активно нанимает бывших специалистов Tesla и Google. В частности, ранее ИИ-компания назначила бывшего руководителя Google TPU Ричарда Хо (Richard Ho) главой отдела аппаратного обеспечения. В OpenAI также перешли ветеран Google Тодд Андервуд (Todd Underwood) и старший инженер-программист команды Tesla Dojo Клайв Чан (Clive Chan).
29.06.2024 [12:52], Сергей Карасёв
ИИ-ускоритель InspireSemi Thunderbird объединяет 6144 ядра RISC-V на карте PCIeКомпания InspireSemi объявила о разработке чипа Thunderbird на открытой архитектуре RISC-V для ИИ-нагрузок. Это изделие легло в основу специализированной карты расширения с интерфейсом PCIe, которая, как утверждается, подходит для решения широкого спектра задач. Чип Thunderbird содержит 1536 кастомизированных 64-битных суперскалярных ядер RISC-V, а также высокопроизводительную память SRAM. Говорится о наличии ячеистой сети с малой задержкой для меж- и внутричиповых соединений. Кроме того, предусмотрены блоки ускорения определённых алгоритмов шифрования. Идея заключается в том, чтобы объединить универсальность и возможности программирования традиционных CPU с высокой степенью параллелизма GPU. Изделие ориентировано на НРС-приложения, но при этом поддерживает исполнение программ общего назначения. InspireSemi называет новинку «суперкомпьютерным кластером на кристалле». Точно так же назвала свои ИИ-ускорители Esperanto Technologies. Именно её чипы ET-SoC-1, по-видимому, впервые объединили более 1 тыс. ядер RISC-V. Впрочем, сама Esperanto позиционировала их как гибкие и энергоэффективные решения для инференса. В случае Thunderbird четыре могут быть объединены на одной карте PCIe, что в сумме даёт 6144 ядра RISC-V. Более того, заявлена возможность масштабирования до 256 чипов, связанных с помощью высокоскоростных трансиверов. Таким образом, количество ядер может быть доведено до 393 216. Чип обеспечивает производительность до 24 Тфлопс (FP64) при энергетической эффективность 50 Гфлопс/Вт. Для сравнения: NVIDIA A100 обладает быстродействием 19,5 Тфлопс (FP64), а NVIDIA H100 — 67 Тфлопс (FP64). Суперскалярные ядра поддерживают векторные и тензорные операции и форматы данных с плавающей запятой смешанной точности. Однако о совместимости с Linux ничего не говорится. Среди возможных областей применения названы ИИ, НРС, графовый анализ, блокчейн, вычислительная гидродинамика, сложное моделирование в области энергетики, изменений климата и пр.
28.06.2024 [15:03], Владимир Мироненко
Micron увеличила выручку на 82 % благодаря буму ИИ, но акции упали из-за слабого прогнозаMicron Technology сообщила финансовые результаты III квартала 2024 финансового года, завершившегося 30 мая. Несмотря на значительный рост выручки по сравнению с прошлым годом, а также то, что показатели за квартал превысили прогноз аналитиков, акции Micron упали в минувшую среду в цене на 8 %, поскольку прогноз компании на текущий квартал оказался ниже ожиданий инвесторов, отметил ресурс MarketWatch. Выручка Micron в III финансовом квартале составила $6,81 млрд, что на 17 % больше, чем в предыдущем квартале, и на 82 % больше показателя аналогичного периода годом ранее. Также был превышен консенсунс-прогноз аналитиков, опрошенных FactSet, в размере $6,67 млрд. При этом продажи DRAM составили $4,7 млрд (69 % общей выручки), NAND — $2,1 млрд (30 %). Подразделение Compute and Networking (CNBU) принесло компании $2,57 млрд (рост год к году на 85 %), мобильное подразделение (Mobile, MBU) увеличило выручку на 94 % до $1,59 млрд, у подразделения встраиваемых решений (Embedded, EBU) выручка составила $1,29 млрд (рост — 42 %), у подразделения решений для СХД (SBU) — $1,35 млрд (рост — 116 %). Отчётный квартал компания завершила с чистой прибылью (GAAP) в размере $332 млн или $0,30 на акцию, тогда как годом ранее она объявила о чистом убытке в размере $1,9 млрд, или $1,73 на акцию. Вместе с тем консенсунс-прогноз аналитиков по чистой прибыли равнялся $399,39 млн. Скорректированная прибыль (non-GAAP) на акцию составила $0,62, тогда как аналитики, опрошенные FactSet, ожидали $0,48 прибыли на акцию. Санджей Мехротра (Sanjay Mehrotra), президент и гендиректор Micron Technology, отметил устойчивый спрос на ИИ-решения, позволивший увеличить выручку и превысить собственный прогноз на III финансовый квартал. «Мы увеличиваем долю в высокодоходных продуктах, таких как память HBM, а выручка от SSD для ЦОД достигла рекордно высокого уровня, демонстрируя силу нашего портфолио продуктов для ИИ, включая DRAM и NAND», — заявил он. Также Мехротра сообщил, что компания «добилась значительного повышения цен» и что «улучшение цен в сочетании с усилением ассортимента продукции привело к увеличению прибыльности на всех конечных рынках». В IV финансовом квартале Micron ожидает получить скорректированную прибыль (non-GAAP) в размере $1,08 на акцию при выручке в $7,6 млрд. Прогноз аналитики Уолл-стрит на текущий финансовый квартал по прибыли (non-GAAP) составляет $1,02 на акцию при выручке в $7,59 млрд. В комментариях к финансовому отчёту Мехротра отметил, что благодаря росту использования ИИ-технологий, у компании есть «хорошие возможности для достижения существенного рекордного дохода в 2025 финансовом году». «Мы находимся в начале многолетней гонки за создание общего ИИ, или AGI, который произведёт революцию во всех аспектах жизни», — сообщил глава Micron. — Запуск AGI потребует обучения моделей с постоянно растущими размерами с триллионами параметров и сложных серверов для инференса. ИИ также распространится на периферию через компьютеры с ИИ и смартфоны с ИИ, а также умные автомобили и интеллектуальные промышленные системы. Эти тенденции будут способствовать значительному росту спроса на DRAM и NAND, и мы считаем, что Micron станет одним из крупнейших бенефициаров в полупроводниковой промышленности благодаря возможностям многолетнего роста, обусловленных ИИ». |
|