Материалы по тегу: hardware
|
30.04.2026 [17:07], Сергей Карасёв
Giga Computing представила 4OU-сервер TO46-SD3 на базе NVIDIA HGX B300 с СЖОGiga Computing, подразделение Gigabyte Group, анонсировала OCP-сервер TO46-SD3-LA07 для ресурсоёмких ИИ-нагрузок. Новинка выполнена на платформе NVIDIA HGX B300 в форм-факторе 4OU и наделена прямым жидкостным охлаждением. Говорится, что применённая СЖО охватывает и секцию GPU, и зону CPU. Предусмотрена функция обнаружения утечек. Система несёт на борту два процессора Intel Xeon 6 6500/6700 поколения Granite Rapids-SP. Доступны 32 слота для модулей DDR5 RDIMM/MRDIMM. Во фронтальной части расположены восемь отсеков для SFF-накопителей (NVMe) с возможностью горячей замены. Кроме того, могут быть установлены два SSD типоразмера M.2 с интерфейсом PCIe 5.0 x4 и PCIe 5.0 x2. Сервер оборудован четырьмя слотами PCIe 5.0 x16 для карт расширения формата FHHL. Говорится о совместимости с DPU NVIDIA BlueField-3. Могут быть реализованы восемь OSFP-портов InfiniBand XDR с пропускной способностью до 800 Гбит/с или сдвоенные 400GbE-порты на базе NVIDIA ConnectX-8 SuperNIC. Кроме того, есть два сетевых порта 10GbE на основе контроллера Intel X710-AT2. Интерфейсные разъёмы, включая гнёзда RJ45 для сетевых кабелей и порты USB Type-A, сосредоточены во фронтальной части. Giga Computing отмечает, что сервер TO46-SD3-LA07 подходит для решения таких задач, как обучение крупных ИИ-моделей и инференс. Система построена с применением открытых стандартов и модульных принципов, обеспечивая масштабируемость и эффективность в рамках корпоративных инфраструктур и дата-центров гиперскейлеров.
30.04.2026 [15:18], Владимир Мироненко
Lumai анонсировала «оптические» ИИ-серверы Iris с фотонными ускорителями инференсаБританский ИИ-стартап Lumai анонсировал семейство серверов для инференса Lumai Iris с использованием оптических вычислений, предназначенное для исполнения в реальном времени больших языковых моделей (LLM) с миллиардами параметров. Семейство Lumai Iris включает серверы Nova, Aura и Tetra. Lumai Iris Nova уже доступен для оценки гиперскейлерами, неооблачными платформами, предприятиями и исследовательскими институтами. Lumai заявил, что использование Lumai Iris позволяет ускорить выполнение задач инференса, используя свет вместо кремниевой обработки. Оптическая вычислительная система Lumai обеспечивает более быстрый инференс, более высокую эффективность выполнения и до 90 % меньшее энергопотребление по сравнению с традиционными архитектурами, при этом являясь более экологичными по сравнению с традиционными системами на базе GPU. Впрочем, технические детали оптических ИИ-ускорителей пока не раскрыты.
Источник изображений: Lumai Компания отметила, что спрос на вычисления для ИИ смещается от обучения моделей к крупномасштабному инференсу, когда модели используются в реальных приложениях. По мере роста объёмов вычислительных задач ЦОД сталкиваются с жёсткими ограничениями по энергопотреблению и масштабируемости, с которыми традиционные кремниевые архитектуры с трудом справляются. Компания заявила, что семейство Iris призвано решить проблемы с энергопотреблением и стоимостью ИИ-инфраструктуры за счёт повышения производительности на киловатт. Традиционные кремниевые архитектуры сталкиваются с фундаментальными физическими ограничениями в масштабируемости, энергопотреблении и тепловой эффективности. Каждое новое поколение кремниевых чипов предлагает небольшие улучшения, но при этом требует значительно больше энергии и средств для масштабирования. «По мере перехода отрасли в эру инференса мы одновременно пересекаем порог посткремниевой эры, — сказал Сяньсинь Го (Xianxin Guo), генеральный директор и соучредитель Lumai. — Переходя от электронно-фотонной вычислительной парадигмы к фотонной, Lumai может обеспечить увеличение производительности на порядок при значительной экономии энергии». ![]() Lumai отметила, что оптические вычисления позволяют значительно повысить эффективность выполнения обработки ИИ-нагрузок. Технология оптических вычислений Lumai, разработанная на основе исследований в Оксфордском университете, использует свет в трёхмерном среде, тогда как обычные чипы «живут» в 2D. Благодаря использованию массового пространственного параллелизма, миллионы операций выполняются одновременно, обеспечивая низкую стоимость и высокую пропускную способность токенов при выполнении ресурсоёмких вычислительных задач. Технология Lumai также показала свою эффективность на этапе предварительного заполнения дезагрегированных архитектур инференса, обрабатывая токены с максимальной эффективностью и масштабированием. Iris Nova выполняет инференс в реальном времени моделей Llama 8B и 70B с помощью гибридного процессора. Его гибридная архитектура сочетает цифровую обработку для управления системой и ПО с оптическим тензорным движком для основных математических операций. Такой подход обеспечивает бесшовную интеграцию серверов в ЦОД.
30.04.2026 [12:24], Руслан Авдеев
ИИ-облако Verda развернёт процессоры Arm AGI в своих ЦОДФинская компания Verda намерена предложить клиентам новые решения в сфере ИИ и доступ к новейшему процессору AGI, разработанный компанией Arm. По словам Arm, Verda является самым быстрорастущим поставщиком неооблачных решений в Европе. В настоящее время компания работает над развёртыванием Arm AGI в комбинации с решениями NVIDIA GB300 и, в перспективе — с NVIDIA Vera Rubin. Предполагается, что взаимодействие с NVIDIA обеспечит совместную работу стоек разных типов и поколений в одном дата-центре. Сотрудничество с техногигантом позволяет добиться большей согласованности ПО и серверов и дать ИИ-агентам возможность автономно распределять рабочие нагрузки. Подробности о масштабах развёртывания и сроках доступности процессоров будут объявлены позже. Verda сообщает, что управляет ИИ-облаком, работающим на возобновляемой энергии и созданном для команд, занимающимся машинным обучением (ML). Сочетание Arm AGI с NVIDIA GB300 и готовящимися к выпуску VR200 обеспечит клиентам эффективноcть, необходимую для агентного ИИ. Фактически Arm AGI создан специально для современных систем агентного ИИ и будет выполнять роль «координатора», работая вместе с ускорителями и управляя потоками данных и взаимодействием компонентов в больших ИИ-системах. Чип создан в по 3-нм техпроцессу TSMC и включает 136 ядер. Verda, ранее известная как DataCrunch, основана в 2020 году и сегодня имеет дата-центры в Финляндии, работающие на 100 % возобновляемой энергии. Также она управляет ЦОД в Исландии и намерена построить ЦОД в Латвии.
30.04.2026 [12:10], Сергей Карасёв
До 128 Тбайт памяти: Majestic Labs анонсировала ИИ-сервер нового типа PrometheusСтартап Majestic Labs анонсировал сервер нового типа Prometheus, призванный решить проблему «стены памяти» в современных ИИ-системах, оперирующих моделями с огромным количеством параметров. Утверждается, что Prometheus может обеспечить производительность, сопоставимую с несколькими стойками традиционных серверов, одновременно снижая энергопотребление и общую стоимость владения. Компания Majestic Labs вышла из скрытого режима (Stealth) в ноябре прошлого года. Стартап отмечает, что в современных ИИ-системах наблюдается разрыв между объёмом и производительностью памяти и вычислительными возможностями ускорителей. Majestic Labs предлагает решить проблему путём внедрения новой архитектуры, предполагающей разделение памяти и вычислительных ресурсов. Речь идёт об использовании специализированных ИИ-ускорителей и блоков быстрой памяти, объём которой составит до 128 Тбайт в рамках одного сервера. В составе Prometheus задействованы проприетарные чипы AI Processing Units (AIU) под названием Ignite. Они объединяют CPU-ядра на базе Arm с векторными и тензорными движками RISC-V. При этом используется единое пространство памяти. Говорится о поддержке популярных фреймворков, таких как PyTorch, vLLM и OpenAI Triton, что позволяет запускать существующие рабочие нагрузки без изменения кода. По заявлениям Majestic Labs, платформа Prometheus способна работать с ИИ-моделями с огромными контекстными окнами и триллионами параметров. При этом отсутствуют фрагментация и узкие места, присущие традиционным ИИ-серверам. Среди сфер применения названы смешанные экспертные системы, ИИ-агенты, графовые нейронные сети и пр.
29.04.2026 [21:36], Руслан Авдеев
ИИ ЦОД Project Jupiter для OpenAI запитают от топливных элементов Bloom Energy мощностью 2,45 ГВт
bloom energy
hardware
openai
oracle
stargate
сша
топливные элементы
цод
экология
электропитание
энергетика
Масштабный кампус ИИ ЦОД Project Jupiter, строящийся в округе Донья-Ана (Doña Ana, Нью-Мексико) компанией BorderPlex Digital Assets для Oracle в интересах проекта OpenAI Stargate, будет запитан от топливных элементов Bloom Energy мощностью 2,45 ГВт, сообщает Converge! Digest. Оценочная стоимость Project Jupiter составляет $165 млрд, совокупная мощность — до 2,45 ГВт. Кампус из четырёх ЦОД займёт территорию около 567 га, где также разместятся электрическая микросеть, энергохранилище и установка по опреснению воды. Генерация «за счётчиком» обеспечит кампус автономное питание. Основой стало расширенное соглашение между Oracle и Bloom, предполагающее развёртывание топливных элементов в США общей мощностью 2,8 ГВт. Oracle объявила, что решения Bloom позволяют сократить как выбросы, так и водопотребление, в то же время обеспечивая надёжную подачу электричества для ресурсоёмких ИИ-задач. Также компания подтвердила, что возьмёт расходы на электроснабжение проекта на себя, а работа нового кампуса не скажется на местных тарифах на электричество. Предполагается создание около 1,5 тыс. постоянных рабочих мест. А инвестиции в местное сообщество должны составить $416,9 млн. Oracle сообщает, что для охлаждения будет использоваться «непитьевая» вода — в системе замкнутого цикла с минимальной необходимостью пополнения, единовременная заправка системы потребует порядка 3,6 тыс. м3, а ежедневно потребуется около 75 м3 и до 227 м3 на пике. Для топливных элементов в норме воды не требуется. На системы водоснабжения и сопутствующую инфраструктуру потратят $50 млн. Проект более не предусматривает использования газовых турбин или резервных дизельных генераторов. Основное внимание уделяется обретению независимости от магистральных электросетей, снижению водопотребления и снижению выбросов. Впрочем, выбор элементов Bloom Energy может быть объяснён банальной нехваткой газовых турбин. Project Jupiter — ещё одна инициатива, предусматривающая отказ от использования централизованных электросетей для энергоснабжения ИИ-инфраструктуры, особенно для регионов, где электроэнергия в дефиците. Газовые топливные элементы обеспечивают быстрое внедрение, но ключевыми факторами остаются экономическая целесообразность в долгосрочной перспективе и вопросы поставок «голубого» топлива. Летом 2025 года аналитики Bloom Energy утверждали, что к 2030 году более четверти ЦОД в США обзаведутся собственными электростанциями.
29.04.2026 [15:34], Сергей Карасёв
Китай анонсировал 2,5-Эфлопс Arm-суперкомпьютер LineShine на домашних процессорахКитайский национальный суперкомпьютерный центр в Шэньчжэне (NSCCSZ) анонсировал проект вычислительного комплекса LineShine (LingSheng), производительность которого после полноценного ввода в эксплуатацию окажется на уровне 2 Эфлопс. Особенностью системы является то, что её конфигурация предполагает применение исключительно CPU-серверов — без ускорителей на базе GPU. Как отмечает ресурс HPC Wire, LineShine будет создаваться в несколько этапов. Одна из секций нового суперкомпьютера получит серверы Huawei Kunpeng с десятками тысяч вычислительных ядер. Предусмотрено использование 428 узлов хранения с суммарной вместимостью 650 Пбайт. Заявленная пропускная способность — 10 Тбайт/с. Вторая секция LineShine предполагает применение 20480 вычислительных узлов, каждый из которых будет оснащён двумя процессорами LX2 на архитектуре Armv9. Конструкция чипов LX2 включает два вычислительных кристалла со 152 ядрами (в сумме 304 ядра) и восемь стеков памяти HBM (32 Гбайт, 4 Тбайт/с). Каждый кристалл использует 128 Гбайт внешней памяти DDR. За обмен данными между блоками DDR и HBM отвечает специальный механизм SDMA. Каждый кристалл поделён на четыре NUMA-домена (38 ядер и 4 Гбайт HBM). Узлы соединены между собой высокоскоростным интерконнектом LingQi, обеспечивающим пропускную способность до 1,6 Тбит/с на узел. Говорится о поддержке режимов FP64/FP32/FP16/INT8. Заявленная производительность LX2 достигает 60,3 Тфлопс на операциях FP64 и 120,6 Тфлопс на операциях FP32. Таким образом, пиковая теоретическая FP64-производительность составляет 2,47 Эфлопс.
Источник изображения: South China Morning Post Для сравнения, самый быстрый на сегодняшний день суперкомпьютер в мире по версии TOP500 — американский комплекс El Capitan — обладает быстродействием 1,809 Эфлопс с пиковым значением 2,821 Эфлопс, но в нём применяются как CPU, так и ускорители (AMD Instinct MI300A). Таким образом, LineShine станет самым мощным НРС-комплексом, построенным исключительно на базе CPU. Другой особенностью машины станет то, что в её составе будут применяться только китайские компоненты, включая процессоры, накопители и сетевое оборудование. При этом официально КНР не участвует в TOP500 уже пять лет, да и в целом не любит рассказывать о своих самых мощных суперкомпьютерах. Нужно отметить, что в Китае действует другой суперкомпьютер экзафлопсного класса — система China New-generation Intelligent Supercomputer (CNIS). Этот комплекс имеет гетерогенную конфигурацию с 5632 вычислительными узлами. Каждый из них наделён двумя 64-бит серверными процессорами на базе CISC с 64 ядрами (2,4 ГГц) и восемью ускорителями GPGPU с архитектурой SIMT с 64 Гбайт HBM (1,8 Тбайт/с). Задействованы 8-канальная подсистема памяти DDR5-6400. Каждый GPGPU обеспечивает пиковую производительность 32,7 Тфлопс в режиме FP64, 65,5 Тфлопс на операциях FP32 и 470 Тфлопс в режиме FP16, что в сумме даёт пиковую теоретическую FP64-произвоидительность на уровне 1,47 Эфлопс.
29.04.2026 [14:46], Руслан Авдеев
Юта одобрила гигантский 9-ГВт ИИ ЦОД Stratos — весь штат потребляет вдвое меньшеНа днях Управление по развитию военных объектов штата Юта (Military Installation Development Authority, MIDA) одобрило строительство 9-ГВт кампуса ЦОД Project Strator гиперскейл-уровня в рамках проекта Wonder Valley. При этом в среднем штат целиком сейчас потребляет около 4 ГВт, сообщает Tom’s Hardware. Похожая ситуация складывается и Вайоминге. Реализацией проекта Stratos занимается компания O'Leary Digital — инфраструктурное подразделение, подконтрольное инвестору Кевину О’Лири (Kevin O'Leary). Объект будет размещён на территории более 16 тыс. га частной земли, в ведении компании будут и 485 га военной и государственной собственности. Уже на первом этапе потребуется приблизительно 3 ГВт, после полного завершения строительства мощность достигнет 9 ГВт. Всю генерацию организуют на месте благодаря близкому расположению трубопровода Ruby Pipeline протяжённостью более 1 тыс. км, пересекающему север Юты по пути из Вайоминга в Орегон. По данным MIDA, новый объект «не будет забирать ни одного электрона» из имеющейся электросети и даже сможет подавать в неё избыточную энергию. Ставка на автономное энергоснабжение позиционирует Stratos в одном ряду с растущим списком ИИ ЦОД, для которых строятся собственные электростанции, без необходимости годами ждать подключения к имеющимся электросетям. Например, запланированный в Огайо кампус SoftBank рассчитан на 10 ГВт с использованием газовой генерации, а недавно Meta✴ решила профинансировать семь новых газовых электростанций для 7-ГВт объекта в Луизиане.
Источник изображения: Arturo Rivera/unsplash.com При этом разработчики обратили особое внимание на меры, принимаемые для минимизации воздействия на бассейн Большого Солёного озера, в том числе использование воздушных систем охлаждения вместо жидкостных. Впрочем, продолжаются переговоры о праве на использование и водных ресурсов. Сам О'Лири привёл совету директоров MDIA «неотразимый» довод в пользу мега-ЦОД, сославшись на активные инвестиции Китая в ИИ-инфраструктуру. Он сообщил, что за последние 24 мес. КНР построила электростанции общей мощностью 400 ГВт, большая часть используется для питания ИИ ЦОД. Инвестор прямо сказал, что соревноваться приходится именно с ними. Также под патронажем О'Лири и его структур планируется строительство кампуса Wonder Valley в Канаде мощностью до 7,5 ГВт. Для привлечения гиперскейлеров MDIA снизило налог на энергетику со стандартных 6 % до 0,5 % и готово вернуть 80 % налогов на недвижимость, уплаченных O'Leary Digital в связи с реализацией проекта. Впрочем, даже при таких низких ставках прогнозируются ежегодные поступления для округа Бокс-Элдер (Box Elder), где разместится ЦОД, в объёме $30 млн/год на начальном этапе и более $100 млн/год после выхода объекта на запланированную мощность. MIDA рассчитывает, что только налог с продаж от ЦОД достигнет $250 млн/год.
29.04.2026 [12:47], Руслан Авдеев
Core Scientific переделает свою 300-МВт биткоин-ферму в 1,5-ГВт ИИ ЦОДКриптомайнинговая компания Core Scientific решила полностью сменить профиль деятельности. Недавно она объявила о намерении «переформатировать» майнинговые мощности в Пекосе (Pecos, Техас) на 300 МВт — вместо них появится кампус ИИ ЦОД на 1,5 ГВт, сообщает The Register. Недавно Core Scientific рассказала о намерении продать высокодоходные облигации на сумму $3,3 млрд, это должно упростить переход. Пожалуй, больше всех от смены профиля деятельности выиграла CoreWeave. Она давно арендует объекты у Core Scienetific и даже намеревалась купить её, но акционеры последней отказались от продажи, причём уже не в первый раз. CoreWeave рассматривается ключевым арендатором компании, которая будет занимать её объекты не только в Техасе, но и в Джорджии, Оклахоме и Северной Каролине. По информации Datacenter Dynamics, Core Scientific зарезервировала более 80 га на расширение своих проектов. Помимо Техаса, Core Scientific реализует проекты в Кентукки, Северной Дакоте и Алабаме. По некоторым данным, она имеет 520 МВт доступных для аренды мощностей на существующих площадках и ещё 700 МВт «скрытых резервов». Строительство нового объекта Core Scientific в Пекосе начато в начале 2026 года, первый зал рассчитывают ввести в эксплуатацию в начале 2027 года. После завершения строительства объект предоставит более 1 ГВт доступной для аренды мощности. Впрочем, пока неизвестно, сможет ли компания получить достаточно электроэнергии. Она уже зарезервировала дополнительные 300 МВт у местной энергетической компании, которые планируется дополнить неким решением «за счётчиком» для прямого питания ЦОД энергией. Ранее сообщалось, что в округе появится автономная 5-ГВт газовая электростанция GW Ranch от Pacifico Energy, которая строится исключительно для питания ИИ ЦОД. В последние годы компании активно внедряют необычные технологии генерации и хранения энергии. Google, Oracle и AWS делают ставку на малые модульные реакторы (SMR). Тем временем Meta✴ подписала соглашение с Overview Energy о передачи 1 ГВт солнечной энергии с космической орбиты, хотя система заработает не раньше 2030 года. Вероятным кандидатом на обеспечение ЦОД электричеством остаются менее экзотические технологии — например, топливные элементы Bloom Energy. Крайне востребованы и мобильные газовые турбины, подобные тем, что используются суперкомпьютером Colossus компании xAI.
29.04.2026 [12:07], Сергей Карасёв
Ёмкость отгруженных за квартал Nearline-накопителей Seagate выросла в полтора разаКомпания Seagate обнародовала показатели деятельности в III квартале 2026 финансового года, который был закрыт 3 апреля. Выручка составила $3,11 млрд, увеличившись на 44 % по сравнению с показателем за аналогичный период предыдущего финансового года, когда было получено $2,16 млрд. На продукты для дата-центров пришлось примерно 80 % от общей квартальной выручки Seagate — $2,5 млрд. Это на 55 % больше по сравнению с результатом годичной давности: тогда продажи в указанном сегменте равнялись $1,62 млрд. Оставшиеся 20 %, или $612 млн, обеспечили все прочие решения: по сравнению с III кварталом предыдущего финансового года, когда было получено $545 млн, отгрузки в денежном выражении поднялись на 12 %. За трёхмесячный период Seagate поставила накопители суммарной вместимостью 199 Эбайт. Для сравнения: годом ранее этот показатель составлял 144 Эбайт. Таким образом, зафиксирован рост на 39 %. По направлению Nearline-устройств продажи в ёмкостном выражении подскочили практически в полтора раза (на 47 %) — со 120 до 175 Эбайт. Отгрузки накопителей других классов за год не изменились, оставшись на уровне 24 Эбайт. Чистая прибыль Seagate, рассчитанная в соответствии с общепринятыми принципами бухгалтерского учёта (GAAP), составила $748 млн против $340 млн годом ранее, что соответствует росту на 120 %. Прибыль в пересчёте на одну ценную бумагу поднялась с $1,57 до $3,27. В IV квартале текущего финансового года Seagate прогнозирует выручку в объёме $3,45 млрд ± $100 млн. Одним из главных драйверов роста компания называет высокий спрос на накопители для ЦОД, обусловленный стремительным расширением инфраструктуры ИИ.
29.04.2026 [01:23], Владимир Мироненко
Tenstorrent представила ИИ-серверы Galaxy Blackhole для быстрой генерации токенов и без дезагрегацииTenstorrent представила вычислительную систему Galaxy Blackhole на базе ускорителей Blackhole с архитектурой RISC-V, которая позиционируется как системная ИИ-платформа, способная конкурировать с другими решениями за счёт стабильной производительности инференса, высокоскоростного доступа к памяти и масштабируемой сети — трёх факторов, которые всё чаще определяют эффективность развёртывания ИИ в реальных условиях, пишет Forbes. 6U-сервер Tensorrent Galaxy Blackhole с воздушным охлаждением основан на 32 ИИ-ускорителях Blackhole суммарной производительностью 23 Пфлопс в режиме FP8. Система включает 6,2 Гбайт SRAM (суммарно 2,9 Пбайт/с) и 1 Тбайт GDDR6 (суммарно 16 Тбайт/с). Высокоскоростную связь между узлами при горизонтальном масштабировании обеспечивают 800GbE-порты — до 56 портов на систему с общей пропускной способностью 11,2 Тбайт/с (в дуплексе). Стоимость системы Tensorrent Galaxy Blackhole составляет $110 тыс. Восьмичиповые системы NVIDIA DGX будут производительнее, но и обойдутся в три-пять раз дороже, сообщил The Register. Базовый суперкластер Galaxy Supercluster стоимостью в $440 тыс. включает четыре системы Blackhole. При этом архитектура Tenstorrent поддерживает масштабирование до 32 узлов с 1024 ускорителями. Mesh-сеть Tenstorrent не ограничивается одним узлом. Подобно кластерам TPU от Google или Trainium2 от Amazon, её можно расширить для поддержки более крупных моделей, более высокой пропускной способности или большей интерактивности, добавив больше узлов и отрегулировав параллелизм тензоров и конвейеров. Как сообщает Tenstorrent, для DeepSeek V3 её четырёхузловые суперкластеры Blackhole Galaxy Supercluster могут обрабатывать запрос на 100 тыс. токенов — эквивалент 166 страниц текста — менее чем за четыре секунды. Tenstorrent заявила, что кластеры Galaxy Blackhole могут генерировать видео быстрее, чем в реальном времени, а также очень быстро генерировать токены LLM. Демонстрационные версии систем Tenstorrent настроены на обычный режим с генерацией текста с удобочитаемой скоростью, и режим Blitz, обеспечивающий максимально быструю обработку данных, подходящую для таких приложений, как генерация кода и агентный ИИ. В режиме Blitz MoE-модель DeepSeek-671B обеспечивает «до 350 т/с на пользователя со временем получения первого токена менее 4 с», сообщила компания. Ресурс EE Times протестировал этот режим за несколько дней до официального запуска, получив 255 т/с на пользователя для коротких запросов в стиле чат-бота. Этот режим поддерживает пакетную обработку от 8 до 64 и длину контекста до 128 тыс токенов. Он работает на 16 серверах Galaxy (512 чипов) с использованием конвейерного параллелизма на этапе декодирования. Компания отметила, что её системы не нуждаются в дезагрегации. «Мы можем выполнять и [предварительное заполнение, и декодирование] на одном узле, — сообщил генеральный директор Tenstorrent Джим Келлер (Jim Keller) изданию EE Times. — Мы создаём большой кластер, на котором можно запускать предварительное заполнение и декодирование LLM, генерацию видео, агентный ИИ… мы не специализируемся на чём-то одном. У нас много чипов, большой объём SRAM, но все чипы имеют DRAM, и все они тесно связаны между собой, поэтому наша платформа гораздо более универсальна». |
|

