Материалы по тегу: hardware
31.12.2024 [14:12], Сергей Карасёв
ByteDance в 2025 году планирует потратить $7 млрд на ускорители NVIDIAКитайская холдинговая интернет-компания ByteDance, владеющая сервисом TikTok, по сообщению ресурса The Information, намерена в 2025 году закупить ИИ-продукты NVIDIA на сумму до $7 млрд. Если эти планы удастся осуществить, ByteDance получит в своё распоряжение один из самых масштабных парков ускорителей NVIDIA в мире. Приобретение передовых ИИ-решений китайскими компаниями затруднено из-за американских санкций. В 2022 году США объявили об ограничениях на экспорт определённых ИИ-чипов в КНР, и с тех пор данные меры несколько раз ужесточались. Недавно администрация президента США Джо Байдена (Joe Biden) ограничила экспорт в Китай памяти HBM, которая применяется в высокопроизводительных ИИ-ускорителях. Формально ByteDance придерживается санкционных ограничений: компания не ввозит ускорители напрямую в Китай, а использует их в дата-центрах, расположенных в других регионах, в частности, в Юго-Восточной Азии. Такая схема даёт возможность разворачивать ИИ-платформы с наиболее современными и производительными ускорителями. ![]() Источник изображения: ByteDance В частности, ранее сообщалось, что ByteDance реализует масштабный проект по расширению кампуса ЦОД в Малайзии: на создание хаба для ИИ-нагрузок будет потрачено свыше $2 млрд. Кроме того, ByteDance рассчитывает открыть новый дата-центр в Таиланде. Вместе с тем компания проектирует собственные ИИ-ускорители, которые, как ожидается, в перспективе помогут снизить зависимость от изделий NVIDIA. Так, ByteDance сотрудничает с Broadcom над 5-нм ИИ-решением, соответствующим всем ограничениям: производством этого чипа займётся тайваньская TSMC. По данным The Information, часть средств из $7 млрд ByteDance потратит на аренду вычислительных мощностей в американских облаках. Известно, что китайские организации нашли лазейку в законах США: они используют облачные сервисы Amazon, Microsoft и их конкурентов для доступа к передовым чипам и технологиям ИИ. Так, ByteDance остаётся остаётся крупнейшим потребителем сервисов Microsoft Azure OpenAI.
31.12.2024 [01:00], Владимир Мироненко
В России утвердили свод правил по проектированию зданий и сооружений ЦОДМинстрой России подвёл итоги завершающегося 2024 года, в котором он утвердил 147 документов нормативного технического регулирования. В числе наиболее значимых документов нормативного технического регулирования, разработанных в уходящем году, Минстрой назвал свод правил по проектированию зданий и сооружений ЦОД. СП «Здания и сооружения центров обработки данных. Правила проектирования», распространяющийся на проектирование зданий, сооружений и помещений ЦОД, предназначенных для размещения IT-оборудования, сетевого и телекоммуникационного оборудования, обеспечивает возможность оказания услуг в области хранения, обработки и передачи данных. Проект свода правил имеет следующую структуру, разделы и приложения:
Разработка свода правил (СП) была выполнена в рамках мероприятий по совершенствованию технического регулирования в строительной сфере с целью поэтапного отказа от использования устаревших технологий, повышения уровня безопасности проведения работ по проектированию, монтажу, пуску, наладке и вводу в эксплуатацию и техническому обслуживанию систем внутреннего инженерно-технического обеспечения зданий и сооружений ЦОД, а также повышения эффективности использования энергоресурсов и т.п. Целью разработки СП является, в том числе, обеспечение условий для создания экосистемы цифровой экономики РФ, повышения доступности, услуг и качества товаров цифровой экономики, «в которой данные в цифровой форме являются ключевым фактором производства во всех сферах социально-экономической деятельности».
30.12.2024 [15:59], Руслан Авдеев
Облачные ИИ-стартапы вряд ли потеснят гиперскейлеров, но всё равно повлияют на нихОблачные ИИ-стартапы вроде xAI, OpenAI, Vultr и др. интенсивно развиваются и уже планируют строить собственную инфраструктуру ИИ-серверов и дата-центров. И они уже влияют на традиционных облачных провайдеров, но заменить их вряд ли смогут, передаёт IEEE ComSoc. xAI построила построила ИИ-кластер Colossus из 100 тыс. ускорителей NVIDIA и готова расширить его до 1 млн ускорителей. Colossus используется для обучения LLM, но также пригодится для создания систем автономного вождения, решений для робототехники и научных исследований. Облако Vultr привлекло $333 млн в недавнем раунде финансирования, источником средств стали AMD и хеджевый фонд LuminArx Capital Management, теперь компания оценивается в $3,5 млрд. Облако CoreWeave уже можно считать «тяжеловесом» — оценка компании достигла $23 млрд, а сама она развивает ЦОД по всему миру. В OpenAI сообщают, что компания построит цифровую инфраструктуру для обучения своих систем, а «чипы, данные и энергия» станут ключевыми факторами для решения задач вроде создания «общего искусственного интеллекта» (AGI), способного превзойти человеческий мозг по сообразительности. Не так давно глава компании Сэм Альтман (Sam Altman) призывал американские власти строить в стране сеть 5-ГВт ЦОД. Имеются данные, что компания намерена строить кластеры ЦОД на Среднем Западе США и юго-западе страны. ![]() Источник изображения: Maximalfocus/unsplash.com Облачные ИИ-стартапы могут представлять некоторую угрозу гиперскейлерам, поскольку они специализируются исключительно на ИИ и часто работают над специфическими и передовыми решениями именно для этой области, тогда сервисы гиперскейлеров носят более общий характер. Стартапы способны на быстрые инновации в сравнении с неповоротливыми техногигантами и быстро отвечают на запросы нишевых рынков, предлагая уникальные ИИ-инструменты. Также стартапы более экономично расходуют средства, что позволяет им предлагать более гибкие и привлекательные системы ценообразования в сравнении с предложениями гиперскейлеров. Наконец, некоторые просто дополняют своими решениями сервисы гиперскейлеров. При этом такие услуги от новичков со временем могут развиться в более масштабные предложения, способные посягнуть на часть бизнеса партнёров-техногигантов. В то же время гиперскейлеры обладают несопоставимо большей и развитой инфраструктурой. Они обеспечивают высокую производительность, надёжность и глобальный охват, не говоря уж об известности их брендов. Именно на них обычно полагаются крупные корпоративные клиенты. Поэтому стартапы должны предлагать решения, совместимые с уже работающими инструментами, или найти аргументы, чтобы мотивировать компании выбрать новые сервисы с неясным будущим. Таким образом, хотя стартапы, вероятно, получат свои ниши на быстрорастущем рынке ИИ-решений, они смогут состязаться с гиперскейлерами только в отдельных сегментах. Крупные провайдеры располагают инфраструктурой, ресурсами и базами лояльных клиентов для сохранения своих рыночных позиций. Впрочем, со временем ИИ-стартапы, возможно, повлияют на эволюцию традиционных облачных сервисов, заставляя гиперскейлеров поддерживать высокий уровень конкурентоспособности. Небольшая угроза гиперскейлерам вроде AWS, Microsoft Azure и Google Cloud, конечно, есть, но эффект появится только спустя значительное время и вряд ли будет иметь критическое значение.
30.12.2024 [15:26], Сергей Карасёв
Китайский ускоритель Moore Threads MTT X300 обеспечивает FP32-быстродействие до 14,4 ТфлопсКитайская компания Moore Threads, по сообщению ресурса TechPowerUp, подготовила к выпуску профессиональный GPU-ускоритель MTT X300. Изделие предназначено для работы с системами автоматизированного проектирования (CAD), платформами информационного моделирования зданий и сооружений (BIM), видеоредакторами и пр. Новинка выполнена в виде двухслотовой карты расширения с интерфейсом PCIe 5.0 x16. В основе лежит архитектура MUSA второго поколения с 4096 ядрами MUSA и 16 Гбайт памяти GDDR6 с 256-бит шиной (пропускная способность достигает 448 Гбайт/с). Производительность на операциях ИИ в режиме FP32 составляет до 14,4 Тфлопс. Показатель TDP равен 255 Вт. Ускоритель оснащён тремя разъёмами DisplayPort 1.4a и одним коннектором HDMI 2.1 с возможностью вывода изображения одновременно на четыре монитора. Поддерживается разрешение до 7680 × 4320 пикселей (8К). Реализовано аппаратное ускорение при декодировании материалов AV1, H.264, H.265, VP8, VP9, AVS, AVS2, MPEG4 и MPEG2, а также при кодировании видео AV1, H.264 и H.265. Устройство поддерживает до 36 параллельных потоков 1080p (30 кадров в секунду) как для декодирования, так и для кодирования. Подчёркивается, что Moore Threads разработала для MTT X300 драйверы, обеспечивающие совместимость со всеми распространёнными архитектурами CPU, включая x86, Arm и LoongArch. Нужно отметить, что ещё год назад Moore Threads представила ускоритель MTT S4000 на архитектуре MUSA третьего поколения с 48 Гбайт памяти GDDR6 с пропускной способностью до 768 Гбайт/с. Это решение демонстрирует производительность до 25 Тфлопс на операциях FP32, до 50 Тфлопс на операциях TF32, до 100 Тфлопс на операциях FP16/BF16 и 200 TOPS на операциях INT8. Карта способна обрабатывать одновременно до 96 видеопотоков 1080p.
30.12.2024 [12:56], Сергей Карасёв
Firefly представила серверы CSB1-N10 для создания ИИ-кластеров из одноплатных компьютеровКомпания Firefly Technology, по сообщению ресурса CNX-Software, выпустила серверы серии CSB1-N10 для построения ИИ-кластеров. Устройства, выполненные в форм-факторе 1U, подходят для дата-центров, периферийных развёртываний и локальных площадок. В семейство вошли пять моделей: CSB1-N10S1688, CSB1-N10R3588, CSB1-N10R3576, CSB1-N10NOrinNano и CSB1-N10NOrinNX. Узлы систем оснащены соответственно процессором Sophgo Sophon BM1688 (8 ядер, до 1,6 ГГц), Rockchip RK3588 (8 ядер, до 2,4 ГГц), Rockchip RK3576 (8 ядер, до 2,2 ГГц), NVIDIA Jetson Orin Nano (6 ядер, до 1,5 ГГц) и Jetson Orin NX (8 ядер, до 2,0 ГГц). Первые три из перечисленных узлов комплектуются оперативной памятью LPDDR4 объёмом 8, 16 и 8 Гбайт соответственно, а также флеш-модулем eMMC вместимостью 32, 256 и 64 Гбайт. Варианты Orin оборудованы 8 и 16 Гбайт памяти LPDDR5 и накопителем NVMe SSD на 256 Гбайт. Все серверы содержат десять вычислительных узлов и дополнительный управляющий узел на чипе RK3588. Присутствует слот для SSD с интерфейсом SATA-3. В оснащение входят по два сетевых порта 10GbE (SFP+) и 1GbE (RJ45), выделенный сетевой порт управления 1GbE, аналоговый разъём D-Sub (1080p60), два порта USB 3.0, а также последовательный порт. Применяется воздушное охлаждение. За питание отвечает блок мощностью 550 Вт. Диапазон рабочих температур — от 0 до +45 °C. Кластер на базе CSB1-N10S1688 обеспечивает ИИ-производительность до 160 TOPS на операциях INT8. В случае CSB1-N10R3588 и CSB1-N10R3576 это показатель составляет 60 TOPS. Эти три системы поддерживают работу с большими языковыми моделями (LLM), а также фреймворками TensorFlow, PyTorch, PaddlePaddle, ONNX, Caffe. В случае CSB1-N10NOrinNano и CSB1-N10NOrinNX быстродействие достигает 400 и 1000 TOPS. Говорится о поддержке LLaMa3 и Phi-3 Mini, фреймворков TensorFlow, PyTorch, Matlab и др. Цена варьируется от $2059 до $14 709.
29.12.2024 [17:40], Владимир Мироненко
Конструктор вместо монолита: NVIDIA дала больше свободы в кастомизации GB300 NVL72Для новых суперускорителей (G)B300 компания NVIDIA существенно поменяла цепочку поставок, сделав её более дружелюбной к гиперскейлерам, то есть основным заказчиком новинок, передаёт SemiAnalysis. В случае GB200 компания поставляла готовые, полностью интегрированные платы Bianca, включающие ускорители Blackwell, CPU Grace, 512 Гбайт напаянной LPDDR5X, VRM и т.д. GB300 будут поставляться в виде модулей (дизайн Cordelia): SXM Puck B300, CPU Grace в корпусе BGA, HMC от Axiado (вместо Aspeed). А в качестве системной RAM будут применяться модули LPCAMM, преимущественно от Micron. Переход на SXM Puck даст возможность создавать новые системы большему количеству OEM- и ODM-поставщиков, а также самим гиперскейлерам. Если раньше только Wistron и Foxconn могли производить платы Bianca, то теперь к процессу сборки ускорителей могут подключиться другие. Wistron больше всех потеряет от этого решения, поскольку лишится доли рынка производителей Bianca. Для Foxconn же, которая благодаря NVIDIA вот-вот станет крупнейшим в мире поставщиком серверов, потеря компенсируется эксклюзивным производством SXM Puck. Еще одно важное изменение касается VRM. Хотя на SXM Puck есть некоторые компоненты VRM, большая часть остальных комплектующих будет закупаться гиперскейлерами и вендорами напрямую у поставщиков VRM. Стоечные NVSwitch-коммутаторы и медный backplane по-прежнему будут поставляться самой NVIDIA. Для GB300 компания предлагает 800G-платформу InfiniBand/Ethernet Quantum-X800/Spectrum-X800 с адаптерами ConnectX-8, которые не попали GB200 из-за нестыковок в сроках запуска продуктов. Кроме того, у ConnectX-8 сразу 48 линий PCIe 6.0, что позволяет создавать уникальные архитектуры, такие как MGX B300A с воздушным охлаждением. Сообщается, что все ключевые гиперскейлеры уже приняли решение перейти на GB300. Частично это связано с более высокой производительностью и экономичностью GB300, но также вызвано и тем, что теперь они сами могут кастомизировать платформу, систему охлаждения и т.д. Например, Amazon сможет, наконец, использовать собственную материнскую плату с водяным охлаждением и вернуться к архитектуре NVL72, улучшив TCO. Ранее компания единственная из крупных игроков выбрала менее эффективный вариант NVL36 из-за использования собственных 200G-адаптеров и PCIe-коммутаторов с воздушным охлаждением. Впрочем, есть и недостаток — гиперскейлерам придётся потратить больше времени и ресурсов на проектирование и тестирование продукта. Это, пожалуй, самая сложная платформа, которую когда-либо приходилось проектировать гиперскейлерам (за исключением платформ Google TPU), отметил ресурс SemiAnalysis.
29.12.2024 [15:58], Владимир Мироненко
С 1 января вступает в силу новый стандарт для производства ПК и серверов, который заменит документ 40-летней давностиС 1 января 2025 года в России будет действовать новый стандарт для производства ПК и серверов. ГОСТ Р 71784-2024 «Средства вычислительной техники. Общие технические требования, приемка, методы испытаний, маркировка, упаковка, транспортирование и хранение», разработанный в качестве замены межгосударственного стандарта ГОСТ 21552-84, введённого в действие 1 января 1986 года. Новый стандарт был разработан ООО «КНС групп» (YADRO), внесён Техническим комитетом по стандартизации ТК 166 «Вычислительная техника», утверждён и введён в действие приказом Федерального агентства по техническому регулированию и метрологии (Росстандарт) 1659-ст от 12 ноября 2024 года. Им устанавливаются основные параметры, общие технические требования, требования к упаковке, хранению и транспортировке серверов, ПК и другой вычислительной техники. «ГОСТ задает чёткие и прозрачные критерии разработки, производства и испытаний средств вычислительной техники, что должно позитивно повлиять на контроль качества и уменьшить вероятность брака. Уже сейчас производителям необходимо ознакомиться с требованиями нового ГОСТа; актуализировать техническую документацию и проверить производственные процессы на соответствие новым требованиям», — сообщается на сайте Росстандарта. ![]() Источник изображения: YADRO ГОСТ Р 71784-2024 содержит:
Стандарт также включает рекомендации по разработке программ обеспечения надёжности для производителей, что направлено на повышение долговечности и отказоустойчивости продукции. Для экспортной продукции, помимо стандарта, дополнительно необходимо соблюдать условия контракта и рабочие чертежи. Перед выходом на рынок техника подлежит обязательной оценке соответствия требованиям электрических технических регламентов. В отдельных случаях требуется оформление декларации или сертификатов средств связи и транспортной безопасности.
29.12.2024 [15:25], Руслан Авдеев
AWS планирует сократить расходы на оборудование ZT Systems, покупаемой AMDAmazon Web Services (AWS) планирует сократить расходы на закупки оборудования для дата-центров у одного из ключевых поставщиков — всё больше аппаратного обеспечения гиперскейлер разрабатывает самостоятельно. Речь идёт о компании ZT Systems, которая в скором времени станет частью AMD, сообщает Business Insider. В прошлом году AWS потратила почти $2 млрд на дела с ZT Systems, разрабатывающей и выпускающей серверы и сетевые решения — об этом свидетельствует один из внутренних документов Amazon 2023 года, попавших в распоряжение журналистов. Согласно материалам AWS, компания намерена перейти на самостоятельную разработку некоторых «серверных и сетевых стоек». Эти изменения «потенциально повлияют» на сотрудничество с ZT Systems. Информацию подтвердили источники в AWS, также сообщившие, что компания снижает расходы на оборудование данного производителя. Правда, один из них уточнил, что сокращения будут происходить поэтапно, поскольку решения ZT Systems тесно интегрированы с серверами AWS. Официально в AWS утверждают, что компании продолжат сотрудничество. Правда, представитель гиперскейлера подчеркнул, что компания непреклонна в желании сократить расходы. И подход к покупкам инфраструктурных решений в этом отношении ничем не отличается. AWS считается крупнейшим облачным провайдером в мире. Несмотря на сокращение закупок у отдельных поставщиков, траты компании на оборудование вряд ли уменьшатся. Капитальные затраты Amazon должны составить в 2024 году $75 млрд. В основном средства будут направлены на развитие дата-центров. В последние годы AWS использует всё больше оборудования собственной разработки для снижения издержек, повышения эффективности и снижения зависимости от внешних поставщиков. Прочие облачные гиганты, включая Google, также разрабатывают собственные чипы и сетевое оборудование. Летом AMD согласилась приобрести ZT Systems за $4,9 млрд. Это, как ожидается, усилит её позиции в качестве поставщика решений для дата-центров. Несмотря на сокращение сотрудничества, AWS всё ещё может направлять ZT собственные разработки, чтобы та выпускала их на своих мощностях. Правда, ранее AMD сообщала, что планирует продать производственный бизнес ZT Systems после того, как сделка будет закрыта. В последние месяцы некоторые сотрудники AWS выражали обеспокоенность сотрудничеством с ZT Systems, поскольку AWS и AMD выпускают некоторые похожие продукты. Впрочем, AWS тесно сотрудничает с AMD и даже предлагает в облаках доступ к процессорам компании, но новейших ИИ-чипов последней в облачной линейке предложений Amazon пока нет. Отчасти, по данным источников, это объясняется низким спросом.
28.12.2024 [12:42], Сергей Карасёв
Итальянская нефтегазовая компания Eni запустила суперкомпьютер HPC6 с производительностью 478 ПфлопсИтальянский нефтегазовый гигант Eni запустил вычислительный комплекс HPC6. На сегодняшний день это самый мощный суперкомпьютер в Европе и один из самых производительных в мире: в свежем рейтинге TOP500 он занимает пятую позицию. О подготовке HPC6 сообщалось в начале 2024 года. В основу системы положены процессоры AMD EPYC Milan и ускорители AMD Instinct MI250X. Комплекс выполнен на платформе HPE Cray EX4000 с хранилищем HPE Cray ClusterStor E1000 и интерконнектом HPE Slingshot 11. В общей сложности в состав HPC6 входят 3472 узла, каждый из которых несёт на борту 64-ядерный CPU и четыре ускорителя. Таким образом, суммарное количество ускорителей Instinct MI250X составляет 13 888. Суперкомпьютер обладает FP64-быстродействием 477,9 Пфлопс в тесте Linpack (HPL), тогда как пиковый теоретический показатель достигает 606,97 Пфлопс. Максимальная потребляемая мощность системы составляет 10,17 МВА. Комплекс HPC6 смонтирован на площадке Eni Green Data Center в Феррера-Эрбоньоне: это, как утверждается, один из самых энергоэффективных и экологически чистых дата-центров в Европе. Новый суперкомпьютер оснащён системой прямого жидкостного охлаждения, которая способна рассеивать 96 % вырабатываемого тепла. ЦОД, где располагается HPC6, оборудован массивом солнечных батарей мощностью 1 МВт. Как отмечает ресурс Siliconangle, на создание суперкомпьютера потрачено более €100 млн. Применять комплекс планируется, в частности, для оптимизации работы промышленных предприятий, повышения точности геологических и гидродинамических исследований, разработки источников питания нового поколения, оптимизации цепочки поставок биотоплива, создания инновационных материалов и моделирования поведения плазмы при термоядерном синтезе с магнитным удержанием.
28.12.2024 [12:16], Сергей Карасёв
Xiaomi создаст ИИ-кластер с 10 тыс. GPUКитайская компания Xiaomi, по сообщению Jiemian News, намерена создать собственный вычислительный кластер для решения ресурсоёмких задач в области ИИ. Предполагается, что в основу системы лягут около 10 тыс. ускорителей на базе GPU. Отмечается, что Xiaomi активно развивает направление ИИ. Соответствующее подразделение было сформировано ещё в 2016 году, и с тех пор его штат увеличился примерно в шесть раз — до более чем 3000 сотрудников (включая специалистов, задействованных в смежных областях). С начала 2024 года Xiaomi использует для проектов ИИ вычислительную платформу, насчитывающую около 6500 ускорителей на основе GPU. В дальнейшем количество GPU планируется наращивать. Инициативы Xiaomi в области ИИ курирует генеральный директор компании Лэй Цзюнь (Lei Jun). ![]() Источник изображения: Xiaomi Проекты Xiaomi в сфере ИИ охватывают самые разные направления, включая компьютерное зрение, обработку естественного языка, графы знаний, машинное обучение, большие языковые модели (LLM) и мультимодальные технологии. Эти технологии по мере развития интегрируются в смартфоны, автомобильные бортовые системы, робототехнику, а также в интеллектуальные устройства Интернета вещей (AIoT). Ранее Цзюнь сообщил, что Xiaomi успешно адаптировала LLM для локального использования на мобильных устройствах: утверждается, что модель с 1,3 млрд параметров достигла сопоставимой с облаком производительности в некоторых сценариях. Кроме того, компания создала более мощную LLM с 6 млрд параметров. Говорится также, что Xiaomi сотрудничает с другими участниками рынка в рамках развития проектов ИИ: в число партнёров входят Qualcomm и MediaTek. |
|