Лента новостей
|
16.03.2026 [10:43], Руслан Авдеев
Korea Zinc собралась добывать редкоземельные элементы из отходов ЦОД американских бигтеховЮжнокорейская Korea Zinc объявила о начале переговоров с американскими технологическими гигантами о переработке отходов дата-центров. Это позволит добывать редкоземельные элементы из «вторичного» сырья, что особенно выгодно для США на фоне стремления страны снизить зависимость от поставок таких элементов из Китая, сообщает Reuters. По данным компании, считающейся одним из крупнейших металлургических предприятий мира, дополнительно она намерена перерабатывать аккумуляторы и солнечные панели, также получая редкоземельные элементы и металлы, необходимые в электронике, для производства транспорта, в энергетике и оборонной промышленности. Инициатива обеспечит США дополнительным источником редкоземельного сырья, поскольку в Китае добывается около 90 % общемирового объёма подобных элементов. В рамках торговых войн с США Китай ограничил их экспорт. В Korea Zinc сообщили, что два года тайно изучали технологии добычи редкоземельных элементов. Сумма инвестиций и компании, участвующие в проекте, пока не раскрываются, но сообщается, что компания уже инвестировала в переработку отходов, в том числе купила предприятие, занимающееся переработкой ненужной электроники, а также компанию, торгующую металлическим ломом. Дополнительно заключено соглашение с одной из компаний, владеющих технологией разделения минералов. В целом Korea Zinc намерена стать важным участником цепочки поставок в США, освоив в стране добычу, очистку и поставку редкоземельных элементов.
Источни к изображения: Korea Zinc Первые сведения о строительстве предприятия площадью 650 тыс. м2 при помощи Министерства обороны и Министерства торговли США появились ещё в 2025 году. В декабре 2025 года Korea Zinc объявила о намерении построить в Теннесси завод по переработке критически важных минералов за $7,4 млрд. Это первое плавильное предприятие в США с 1970-х годов, большей частью финансируемое за счёт американского правительства. По данным Korea Zinc, завод будет обеспечивать выплавку 540 тыс. тонн цветных металлов, в т.ч. 11 важнейших: сурьмы, галлия, германия и др. В Korea Zinc подчёркивают, что после введения Китаем контроля за экспортом редкоземельных металлов в США в апреле 2025 года отношение американцев к проблеме поставок значительно изменилось. В 2025 году Korea Zinc зарегистрировала высокую операционную прибыль в объёме 1,2 трлн вон ($813 млн) — во многом благодаря продажам сурьмы, которая критически важна для военной промышленности и, в частности, для производства ядерного оружия. Как заявляют в компании, «прошлый год был годом сурьмы», поскольку она стоила вдвое дороже, чем годом ранее. Рентабельность нового завода планируется на уровне 17–19 %. По данным сеульской DB Securities, это выше, чем у действующего 51 год перерабатывающего завода компании, работающего в Корее. Власти США, будучи соинвестором, оказывают проекту всевозможную поддержку. В частности, сообщается об ускоренном получении разрешений. Также ожидается обеспечение минимальных закупочных цен на критически важные элементы в США. Строительство должно стартовать в начале 2027 года, а завод должен выйти на безубыточность в течение года после начала работы, которое запланировано на 2030 год. В последнее время проекты утилизации электроники для добычи сырья активно продвигаются в США. Например, Western Digital запустила в США масштабную программу извлечения редкоземельных элементов из HDD — по состоянию на апрель 2025 года было уже переработано почти 23 т дисков Microsoft.
16.03.2026 [10:26], Сергей Карасёв
Продажи серверов бьют рекорды: квартальный объём рынка превысил $125 млрдОбъём мирового рынка серверов в IV квартале 2025 года, по оценкам IDC, достиг $125,3 млрд, что стало новым рекордом. Рост в годовом исчислении составил 52,4 %. Аналитики отмечают, что бурное развитие отрасли связано с продолжающимся расширением инфраструктуры ИИ. Выручка от реализации серверов с архитектурой x86 в последней четверти 2025-го зафиксирована в размере $69,8 млрд, что на 16,9 % больше по сравнению с аналогичным периодом 2024 года. Продажи машин с процессорами на других архитектурах год к году подскочили на 146,4 % — до $55,5 млрд. Системы, оснащённые ускорителями на основе GPU, показали рост на 59,1 % в денежном выражении.
Источник изображения: IDC Крупнейшим поставщиком серверов является Dell Technologies, которая в IV квартале 2025 года получила $12,56 млрд, что соответствует 10,0 % мирового рынка: за год продажи этой компании взлетели на 126,7 %. На втором месте располагается Supermicro с $11,7 млрд (плюс 133,7 % в годовом исчислении) и долей в 9,3 %. Замыкает тройку IEIT Systems, у которой отгрузки в деньгах поднялись на 33,7 % — до $5,19 млрд, тогда как доля составила 4,1 %. В первую пятёрку также входят Lenovo и НРЕ с показателями $5,07 млрд и $3,87 млрд и 4,0 % и 3,1 % соответственно. В региональном разрезе США показали самые высокие темпы роста — плюс 72,4 % по сравнению с IV кварталом 2024 года (в сегменте серверов с ИИ-ускорителями плюс 80,1 %). В Канаде отмечена прибавка в 70,7 %, в регионе EMEA (Европа, Ближний Восток и Африка) — 43,6 %, в APeJC (Азиатско-Тихоокеанский регион за исключением Китая и Японии) — 27,9 %. КНР и Латинская Америка показали рост на 17,7 % и 12,8 % соответственно, в то время как в Японии продажи снизились на 4,7 %. По итогам 2025 года в целом объем рынка достиг $444,1 млрд, что также является абсолютным рекордом. По отношению к предыдущему году отгрузки серверов в денежном выражении поднялись на 80,4 %.
16.03.2026 [10:00], Сергей Карасёв
Selectel впервые проведет ежегодную конференцию MLечный путь в МосквеSelectel, крупнейший независимый провайдер сервисов IT-инфраструктуры в России, проведёт конференцию MLечный путь 22 апреля на площадке Connect Space в Москве. Мероприятие будет посвящено практическим кейсам, архитектурным решениям, а также экономическим аспектам внедрения и управления ИИ-проектами в бизнесе. MLечный путь — это ежегодная конференция компании Selectel, посвященная использованию искусственного интеллекта для решения бизнес-задач. Она объединяет специалистов, принимающих решения об использовании ИИ в корпоративной среде, а также инженеров, отвечающих за техническую реализацию и интеграцию моделей в IT-инфраструктуру. Мероприятие будет разделено на два параллельных направления: бизнес-трек и технический трек. В центре внимания первого трека – внедрение ИИ в бизнес-процессы и получение измеримого эффекта. Второй трек будет посвящён техническим особенностям интеграции ИИ в IT-инфраструктуру. Бизнес-трек будет интересен руководителям (CEO, СIO, CTO), аналитикам и специалистам по стратегическому внедрению ИИ. Эксперты Selectel и приглашенные спикеры расскажут о том, как в компаниях формируются решения по внедрению ИИ: сколько стоит внедрение ИИ-агентов и какие подводные камни есть в этом процессе, как составить роадмап внедрения ИИ на базе платформенных решений, а также как оптимизировать обмен знаниями в компании с помощью LLM. Технический трек ориентирован на инженеров, архитекторов и специалистов по DevOps. В программу включено обсуждение выбора серверного железа под разные ИИ-нагрузки, а также тема безопасного использования генеративных технологий. Дополнительно будет организована дискуссия о том, способен ли вайбкодинг заменить классические инструменты разработки. На площадке конференции гостей ожидает технологическая выставка с уникальными стендами и интерактивными зонами для знакомства с продуктами Selectel и партнёрами компании. Также будет организована онлайн-трансляция мероприятия. Более подробная программа — на странице мероприятия. Участие бесплатное, необходима предварительная регистрация на сайте конференции. Реклама | АО «Селектел» ИНН 7810962785 erid: F7NfYUJCUneTVSvziBVa
16.03.2026 [09:32], Сергей Карасёв
Everspin представила MRAM-чипы Unisyst ёмкостью до 2 ГбитКомпания Everspin Technologies на мероприятии Embedded World 2026, которое проходило с 10 по 12 марта в Нюрнберге (Германия), анонсировала новое семейство чипов магниторезистивной энергонезависимой памяти с произвольным доступом (MRAM) — изделия Unisyst, ориентированные на применение во встраиваемых системах. Отмечается, что решения Unisyst используют унифицированную архитектуру MRAM, объединяющую традиционную память и постоянное хранилище высокой плотности. На первом этапе чипы новой серии будут предлагаться в вариантах ёмкостью от 128 Мбит до 2 Гбит. Задействован последовательный интерфейс xSPI (8 линий, работающих на частоте 200 МГц).
Источник изображения: Everspin Technologies Устройства на базе Unisyst будут соответствовать стандарту AEC-Q100 Grade 1. Гарантирована сохранность записанной информации в течение как минимум 10 лет. При этом чипы могут эксплуатироваться при экстремальных температурах. Заявленная скорость чтения данных достигает 400 Мбайт/с, скорость записи — приблизительно 90 Мбайт/с: это, как подчёркивает Everspin Technologies, более чем в 400 раз превосходит показатели памяти NOR Flash. Изделия Unisyst предназначены для приложений, которым требуется энергонезависимая память, сочетающая высокую пропускную способность, износостойкость и предсказуемое поведение при изменении температуры. В качестве ключевых сфер использования названы автомобильная, аэрокосмическая и промышленная отрасли, а также периферийные системы с ИИ-функциями. Инженерные образцы MRAM-чипов Unisyst станут доступны в IV квартале 2026 года. Впоследствии компания Everspin Technologies намерена расширять данное семейство.
16.03.2026 [00:10], Владимир Мироненко
Гиперскейлеры и разработчики чипов создали консорциум OCI MSA для внедрения масштабируемого оптического интерконнекта для ИИГруппа компаний, включая AMD, Broadcom, Meta✴, Microsoft, NVIDIA и OpenAI, объявила о создании отраслевого консорциума OCI (Optical Compute Interconnect) Multi-Source Agreement (MSA) с целью формирования открытой экосистемы, управляемой гиперскейлерами, для обеспечения развития многовендорной цепочки поставок для масштабируемых оптических интерконнектов, отвечающих потребностям современной ИИ-инфраструктуры. Компании отметили, что по мере совершенствования LLM традиционные медные интерконнекты достигают физических пределов с точки зрения пропускной способности, энергоэффективности и дальности. Оптические соединения позволяют передавать данные на большие расстояния, сохраняя при этом более предсказуемое энергопотребление. Поэтому многие компании рассматривают их как решение для расширения ИИ-инфраструктуры. До сих пор в отрасли отсутствовал единый стандарт для реализации оптических каналов связи в крупномасштабных ИИ-системах. Спецификация OCI разработана с учетом оптимизации энергопотребления, задержки и стоимости. Она основана на NRZ-модуляции с WDM-мультиплексированием. Кроме того, она отражает смещение фокуса подключения с «модульно-ориентированной» к «кремниево-ориентированной» модели. Благодаря более тесной интеграции оптики с вычислительными и сетевыми компонентами, OCI обеспечивает значительное увеличение плотности полосы пропускания и масштабируемости системы, обеспечивая энергопотребление на уровне медных линий связи. Как сообщает консорциум, открытая и совместимая спецификация позволяет гиперскейлерам дезагрегировать любые XPU и коммутаторы на основе общего оптического физического уровня (PHY), обеспечивая соответствие лучших в своём классе вычислительных мощностей самым современным оптическим решениям. Консорциум опубликовал первоначальную спецификацию оптического интерфейса 200G, разработанного для масштабных сетей ИИ:
В спецификации также подробно описаны требования к мощности сигнала, чувствительности приеъёмника, устойчивости к шуму и коррекции ошибок для поддержания стабильности сигнала на экстремальных скоростях. Стандартизированный подход и совместный план развития значительно снижают риски интеграции, сокращают циклы разработки и обеспечат всей цепочке поставок стоек для ИИ чёткий, безопасный путь для развёртывания многопоколенных оптических межсоединений от разных производителей. Как отметил ресурс The Technology Express, консорциум выделяется тем, что объединяет компании, выступающие конкурентами в разработке аппаратного обеспечения для ИИ. Например, собственная разработка NVLink одной компании доминирует в высокопроизводительных кластерах GPU. В то же время другие игроки отрасли поддерживают конкурирующий открытый стандарт UALink. Однако протокол OCI MSA фокусируется на PHY, а не на протоколах. Поэтому он потенциально может поддерживать трафик NVLink и UALink по оптическому волокну вместо медных кабелей.
15.03.2026 [22:34], Владимир Мироненко
Китайская Hygon увеличила выручку благодаря высокому спросу на отечественные high-end чипыКитайская компания Hygon Information Technology, специализирующаяся на выпуске ускорителей и процессоров, опубликовала финансовые результаты за 2025 год. Выручка компании составила ¥14,38 млрд (около $2,1 млрд), что на 56,91 % больше, чем годом ранее, а чистая прибыль выросла на 31,66 % до ¥2,54 млрд (около $0,4 млрд). Впервые в истории компании её выручка за год превысила ¥10 млрд, сообщил ресурс Digitimes. Hygon объяснила значительный рост продаж «продолжающимся ростом спроса на high-end чипы отечественного производства», пишет ресурс South China Morning Post. Компания заявила, что ее рыночная доля в сегменте высокопроизводительных процессоров расширилась благодаря сотрудничеству с производителями оригинального оборудования и другими партнёрами в ключевых отраслях и сферах. В I квартале 2026 года Hygon прогнозирует выручку в размере ¥3,91–4,22 млрд ($0,57–$0,61 млрд), что на 62,91–75,82 % больше по сравнению с аналогичным периодом прошлого года, а чистая прибыль, как ожидается, вырастет на 22,56–42,32 %. Как отметил Digitimes, рост ИИ-рынка подтолкнул спрос на вычислительные ресурсы к беспрецедентным уровням. В период с 2010 по 2023 год глобальные потребности в вычислительных ресурсах ИИ увеличились в сотни тысяч раз, значительно превысив темпы согласно закону Мура. Глобальный ИИ-рынок быстро расширяется, достигнув $540 млрд в 2023 году и, по прогнозам, вырастет до $900 млрд к 2026 году. Внутренний рынок ускорителей ИИ в Китае вступает в фазу высокого роста. Согласно прогнозам отрасли, рынок ИИ-ускорителей может превысить в период с 2025 по 2029 год ¥1,3 трлн ($188,5 млрд) при среднегодовом темпе роста в 53,7 %. Финансовые показатели компаний в этом секторе Китая сильно различаются. Loongson сообщила о выручке в 2025 году в размере ¥635 млн ($92 млн, рост год к году на 25,99 %), оставаясь при этом убыточной. Компания Cambricon получила выручку в размере ¥6,497 млрд ($0,94 млрд), что на 453 % больше год к году и вернулась к прибыльности с чистой прибылью в ¥2,059 млрд ($0,3 млрд). Конкурентные позиции Hygon основаны на двух факторах: доступе к архитектуре x86, полученном в 2016 году благодаря соглашению о совместном предприятии и технологиях с AMD, а также собственным разработкам ускорителей. Архитектура x86 по-прежнему составляет примерно 85 % мировых серверных процессоров по состоянию на 2024 год. Доступ к набору инструкций позволяет процессорам Hygon поддерживать совместимость с существующими программными экосистемами, снижая затраты на миграцию и упрощая внедрение в корпоративной среде. Также Hygon вложила значительные средства в разработку DCU (Data Center Units), сопроцессоров на базе технологии GPGPU, предназначенных для обработки крупномасштабных параллельных рабочих нагрузок. Digitimes отметил, что высокий спрос на процессоры позволил Hygon повысить показатели прибыльности. С 2020 года по III квартал 2025 года валовая маржа Hygon выросла с 50,5 до 60,1 %, превзойдя показатели отечественных конкурентов, включая Loongson и Cambricon. При этом с 2021 года ежегодные инвестиции Hygon в НИОКР выросли более чем на 30 % в годовом исчислении, достигнув почти ¥3 млрд ($0,43 млрд) за 9 месяцев 2025 года. В 2025 году чистая прибыль компании росла медленнее, чем выручка, из-за более высокой интенсивности НИОКР и стимулирования инженерных кадров выделением акций. Ожидается, что скорректированная чистая прибыль за I квартал 2026 года вырастет на 63–82 % в годовом исчислении. В течение первых трёх кварталов 2025 года чистый операционный денежный поток вырос на 465,64 % год к году до ¥2,26 млрд ($0,33 млрд), что улучшило возможности компании по финансированию исследований и разработки чипов. К концу III квартала 2025 года обязательства Hygon по контрактам достигли ¥2,8 млрд ($0,41 млрд). В марте Hygon объявила о том, что её ускорители DCU будут проходить тестирование в Шанхайской лаборатории ИИ, которая сосредоточится на гибридном планировании и совместном инференсе. Эта инициатива основана на разработанной в лаборатории гетерогенной вычислительной платформе DeepLink, которая позволяет выполнять смешанные задачи инференса на разных китайских ИИ-чипах, включая Huawei Ascend, MetaX, T-Head Semiconductor и Biren. В случае успеха различные китайские ускорители можно будет использовать в рамках общих вычислительных кластеров, смещая отрасль от изолированных аппаратных хранилищ к скоординированным вычислительным архитектурам. Ещё одним фактором роста спроса на вычислительную инфраструктуру Hygon может стать расширение использования ИИ-агентов. По оценкам экспертов отрасли, выполнение задач ИИ-помощниками может расти более чем на 500 % в год в период с 2025 по 2030 год, а потребление токенов может увеличиться более чем на 3000 %.
15.03.2026 [11:46], Руслан Авдеев
Microsoft ведёт переговоры об аренде мощностей в техасском кампусе Stargate на сотни мегаваттПо данным The Information, компания Microsoft ведёт переговоры об аренде сотен мегаватт мощностей дата-центров во флагманском кампусе проекта Stargate в Абилине (Техас). Некоторые резиденты площадки готовы отказаться от планов расширения бизнеса, поэтому предложение IT-гиганта может оказаться весьма кстати. Кампус строит компания Crusoe на площадке Clean Campus, принадлежащей Lancium. Именно здесь располагается флагманская площадка Stargate — первые ЦОД совместного предприятия стоимостью $500 млрд, представленного в 2025 году. Дата-центры уже работают и управляются Oracle в интересах OpenAI. Два здания ввели в эксплуатацию в сентябре 2025 года, ещё шесть должны заработать в 2026-м. Совокупная мощность кампуса должна достичь 1,2 ГВт. Ранее предполагалось, что Oracle и OpenAI расширят площадку до 2 ГВт, однако от этих планов решили отказаться, в том числе из-за финансовых ограничений. Кроме того, OpenAI регулярно пересматривает прогнозы спроса и собственное видение развития проекта Stargate. Ожидается, что дополнительные мощности компании получат на других площадках.
Источник изображения: Crusoe Полноценное электроснабжение кампуса в Абилине, по всей видимости, станет доступно лишь примерно через год. К тому времени OpenAI рассчитывает использовать ускорители Nvidia Vera Rubin вместо ускорителей Nvidia Blackwell, которые планируется установить в Абилине, поэтому планы по развитию площадки были скорректированы. По информации The Information, переговоры Microsoft об аренде мощностей находятся на продвинутой стадии. Microsoft в целом быстро наращивает инфраструктуру дата-центров. В последнем финансовом отчёте компания сообщила, что только за последний квартал ввела в эксплуатацию около 1 ГВт мощностей. Всего за 2025 год инфраструктура выросла примерно на 2 ГВт. Капитальные затраты за квартал также достигли рекордных $37,5 млрд, хотя вряд ли компания продолжит увеличивать инвестиции такими же темпами. Помимо Microsoft, переговоры о размещении в кампусе Stargate, по данным источников, ведёт и Meta✴ Platforms. Потенциальные соглашения могут предусматривать использование в общей сложности около 600 МВт с поэтапным вводом мощностей. По слухам, Nvidia уже выплатила Crusoe депозит в размере $150 млн, чтобы зарезервировать мощности после того, как Oracle отказалась от первоначальных планов расширения. Компания рассчитывает, что в дата-центрах кампуса будет использоваться именно её оборудование, а не решения конкурентов.
15.03.2026 [11:16], Сергей Карасёв
GigaDevice представила чипы SPI NOR Flash серии GD25UF для периферийных и ИИ-устройствКомпания GigaDevice сообщила о расширении семейства чипов флеш-памяти SPI NOR Flash GD25UF: теперь в него входят изделия со сверхнизким энергопотреблением ёмкостью от 8 до 256 Мбит. Они предназначены для использования в периферийном оборудовании, маломощных ИИ-устройствах, электронике с питанием от батареи и пр. Чипы GD25UF работают при напряжении от 1,14 В до 1,26 В, что обеспечивает бесшовную интеграцию с «системами на чипе» (SoC), рассчитанными на 1,2 В. В частности, устраняется необходимость в дополнительных преобразователях или сложном управлении питанием. Благодаря этому сокращается количество вспомогательных компонентов в конечных устройствах, что способствует снижению стоимости при одновременном повышении энергоэффективности. Изделия семейства GD25UF поддерживают режимы Single, Dual, Quad и DTR Quad SPI. Максимальная тактовая частота составляет 120 МГц в режиме STR и 80 МГц в режиме DTR. Пропускная способность достигает 80 Мбайт/с. Отмечается, что по сравнению с традиционной флеш-памятью, рассчитанной на напряжение 1,8 В, у чипов GD25UF это значение снижено примерно на 33 %, что способствует сокращению энергопотребления на 50–70 %. Допускается работа в обычном режиме и с пониженным энергопотреблением. Заявленное количество циклов записи/стирания находится на отметке 100 тыс., тогда как сохранность данных гарантирована в течение 20 лет. Диапазон рабочих температур в зависимости от модификации простирается от -40 до +85 °C, от -40 до +105 °C или от -40 до +125 °C. Массовое производство изделий GD25UF уже началось: они доступы в исполнениях SOP8, WSON8, USON8 и WLCSP.
15.03.2026 [11:15], Сергей Карасёв
Выпуск ИИ-чипов DeepX DX-M2 отложен из-за проблем у TeslaИзменение графика разработки ИИ-ускорителя Tesla следующего поколения, по сообщению ресурса DigiTimes, привело к тому, что южнокорейская компания DeepX вынуждена отложить выпуск своих чипов DX-M2, массовое производство которых изначально было запланировано на II квартал 2027 года. Отмечается, что задержки возникли с разработкой изделия Tesla AI6. Предполагается, что это решение будет применяться для поддержания разнообразных нагрузок в инфраструктуре Tesla, включая платформы автономного вождения, системы человекоподобного робота Optimus и дата-центры для ИИ-задач. В 2025 году Tesla подписала контракт с Samsung на изготовление AI6 вплоть до декабря 2033-го: стоимость соглашения составляет $16 млрд. Первоначальный договор предусматривал производство около 16 тыс. пластин в месяц, однако затем Tesla запросила дополнительно 24 тыс. пластин, что в сумме предполагает объем до 40 тыс. пластин ежемесячно. Для Tesla AI6 планируется применение 2-нм техпроцесса Samsung. По такой же методике будут выпускаться чипы DeepX DX-M2. Для обоих этих изделий оговорено использование услуги Multi-Project Wafer (MPW), при которой на одной кремниевой пластине в рамках получения прототипов размещаются изделия нескольких разных заказчиков. Такой подход позволяет снизить затраты на разработку перед организацией массового производства. Однако, по информации DigiTimes, с выходом Tesla AI6 на этап MPW возникли задержки. С чем именно связаны сложности, не уточняется. Отраслевые эксперты полагают, что пересмотр графика может быть обусловлен изменением сроков инвестиций в автономные транспортные средства, роботизированные платформы и суперкомпьютеры с ИИ. Компания Samsung отказалась от комментариев, сославшись на конфиденциальность проектов заказчиков. Между тем из-за задержек Tesla выпуск чипов DeepX DX-M2 по программе MPW, который планировалось начать в апреле, переносится на более поздний срок. В соответствии с новым графиком, тестирование качества этих решений будет организовано не ранее III квартала текущего года. Ожидается, что DX-M2 обеспечит ИИ-производительность на уровне 80 TOPS при максимальном энергопотреблении примерно 5 Вт. Чип поддерживает память LPDDR5X. Утверждается, что процессор способен работать с ИИ-моделями, насчитывающими до 100 млрд параметров.
14.03.2026 [18:42], Владимир Мироненко
AWS и Cerebras готовят решение для пятикратного ускорения инференса ИИAmazon Web Services (AWS) и Cerebras Systems объявили о сотрудничестве, «которое позволит создать в ближайшие месяцы самые быстрые решения для инференса в системах генеративного ИИ и рабочих нагрузок машинного обучения». Решение, которое будет развернуто на платформе Amazon Bedrock в ЦОД AWS, объединяет серверы на базе AWS Trainium, системы Cerebras CS-3 на базе чипов WSE-3 и сетевое оборудование Amazon Elastic Fabric Adapter (EFA). Ожидается, что эта технология увеличит скорость генерации результатов ИИ-моделями в пять раз. AWS сообщила, что также позже в этом году предложит ведущие решения машинного обучения с открытым исходным кодом и собственные ИИ-модели Amazon Nova, использующие оборудование Cerebras. Как отметил Дэвид Браун (David Brown), вице-президент по вычислительным и машинным сервисам AWS, при инференсе критическим узким местом для ресурсоёмких рабочих нагрузок, таких как помощь в кодировании в реальном времени и интерактивные приложения, остаётся скорость: «Решение, которое мы разрабатываем совместно с Cerebras, решает эту проблему: разделяя рабочую нагрузку по инференсу между Trainium и CS-3 и соединяя их с помощью адаптера Amazon Elastic Fabric, каждая система делает то, что у неё лучше всего получается. В результате инференс будет на порядок быстрее и производительнее, чем то, что доступно сегодня». Совместное решение использует «дезагрегацию вывода данных» — метод, который разделяет ИИ-инференс на два этапа: этап интенсивной обработки подсказок, или «предварительного заполнения» (процесс обработки запроса LLM), и этап генерации выходных данных, известный как «декодирование», на котором модель формирует ответ на вопрос пользователя. Предварительное заполнение является параллельным, вычислительно интенсивным процессом и не требует большой пропускной способности памяти. Декодирование, с другой стороны, является последовательным процессом с минимальными требованиями к вычислительным ресурсам, но интенсивно использует пропускную способность памяти. Декодирование обычно занимает большую часть времени при инференсе, поскольку каждый выходной токен должен генерироваться последовательно, отметила AWS. Задачи предварительного заполнения и декодирования обычно выполняются одним и тем же чипом. В дезагрегированной архитектуре AWS процессоры Trainium обеспечивают этап предварительного заполнения, а Cerebras CS-3 на базе чипов WSE-3 выполняют декодирование. «Дезагрегированный подход идеален, когда у вас большие, стабильные рабочие нагрузки, — сообщил в блоге директор по маркетингу продукции Cerebras Джеймс Ванг (James Wang). — Большинство клиентов используют смешанные рабочие нагрузки с различными коэффициентами предварительного заполнения/декодирования, где традиционный агрегированный подход по-прежнему идеален. Мы ожидаем, что большинство клиентов захотят иметь доступ к обоим вариантам». Одним из главных преимуществ WSE-3 является то, что он может передавать данные между своими логическими схемами и цепями памяти быстрее, чем многие другие чипы. По данным Cerebras, WSE-3 обеспечивает внутреннюю пропускную способность памяти в 21 Пбайт/с, что значительно превышает пропускную способность межсоединения NVLink для ускорителей от NVIDIA. Несколько недель назад Cerebras заключила с OpenAI сделку на $10 млрд по поставке чипов общей мощностью 750 МВт до 2028 года. Сделка была объявлена в период между двумя раундами финансирования, которые в совокупности принесли Cerebras более $2 млрд. Ожидается, что компания подаст заявку на первичное публичное размещение акций уже во II квартале 2026 года. Сделки с AWS и OpenAI могут способствовать повышению интереса инвесторов к листингу, отметил SiliconANGLE. |
|


