Материалы по тегу: ии
12.05.2025 [17:27], Владимир Мироненко
Облако.ру предлагает ИИ-системы, которые позволят запускать даже мощные ИИ-моделиВедущий российский поставщик решений для облачной инфраструктуры Облако.ру предлагает различные специализированные интегрированные решения для обработки ресурсоёмких нагрузок, включая обучение и запуск ИИ-моделей. GPU-серверы, доступные в Облако.ру, отлично справляются со сложными задачами с использованием больших объёмов данных и вычислений. Использование услуг по аренде вычислительных мощностей позволяет избежать существенных капитальных затрат. Главное отличие GPU от CPU заключается в его способности параллельно выполнять множество операций, распределяя задачи между своими ядрами, что предоставляет ему возможность выполнения громадных объёмов вычислений, лежащих в основе ИИ, в гораздо более короткие сроки и обеспечивает значительное преимущество в таких областях, как обработка изображений и видео, научное моделирование, машинное обучение, где используются большие наборы данных и сложные алгоритмы. Изначально созданные для обработки изображений GPU стали крайне важными для ИИ-индустрии, позволяя обучать и развёртывать продвинутые ИИ модели, обеспечивающие широкие возможности в сфере ИИ — от распознавания изображений до обработки естественного языка. Благодаря ускорению процессов обучения и инференса использование серверных GPU позволяет разрабатывать и развёртывать модели ИИ быстрее и эффективнее, чего невозможно добиться, используя только классические CPU. А по мере роста сложности ИИ-моделей потребность в GPU будет только расти. Так, для локального запуска компактной версии популярной ИИ-модели DeepSeek R1 8B, разработанной посредством дистилляции нейросеть Llama 3.2 и демонстрирующей высокую эффективность в задачах текстовой генерации, обработки естественного языка, создания программного кода и анализа данных, потребуется система с 4 Гбайт VRAM (видеопамяти) для инференса с низкой и целочисленной точностью вычислений (FP8/INT8), 8 Гбайт VRAM для инференса с половинной точностью (FP16) и 16 Гбайт VRAM для инференса с полной точностью (FP32). Точность вычислений влияет на качество и скорость ответов ИИ-модели. Если же использовать DeepSeek R1 8B в качестве основы для собственных моделей, ориентированных на конкретные бизнес-задачи, то при обучении с низкой и целочисленной точностью (FP8/INT8) потребуется система с 8 Гбайт VRAM, при обучении с половинной точностью (FP16) — с 16 Гбайт VRAM, а и при обучении с полной точностью (FP32) — с 32 Гбайт VRAM. С увеличением количества параметров модели, определяющих её «эрудицию» и знания о мире или предметной области, одновременно растут и требования к доступной памяти и вычислительной мощности GPU. Кроме того, т.н. размышляющие модели, к которым относится и семейство DeepSeek R1, тем лучше и оперативнее отвечают на запросы, чем больше им доступно ресурсов. Предлагаемые Облако.ру системы позволяют запускать не только базовые модели уровня DeepSeek R1 8B, которым требуется 8–12 Гбайт VRAM, но и более мощные ИИ-модели, такие как DeepSeek R1 14B, которая подходит для большинства профессиональных рабочих процессов. DeepSeek R1 14B, содержащая 14 млрд параметров и созданая с помощью метода дистилляции модели Qwen 2.5, предназначена для решения сложных задач, требующих высокой точности и производительности, таких, как написание сложных текстов, анализ больших объёмов данных, написание кода уровня Senior и т.д. Для инференса с использованием DeepSeek R1 14B с низкой и целочисленной точностью (FP8/INT8) потребуется система с 7 Гбайт VRAM, с полной точностью (FP32) — с 28 Гбайт VRAM. Для обучения с низкой и целочисленной точностью (FP8/INT8) требуется система с 14 Гбайт VRAM, с половинной точностью (FP16) — с 28 Гбайт VRAM, с полной точностью (FP32) — с 56 Гбайт VRAM. Облако.ру предлагает различные системы с серверными GPU, которые способны удовлетворить нужды практически любого заказчика. Доступны системы с самыми простыми ускорителями NVIDIA T4, с ускорителями среднего класса 3 × RTX6000 (суммарно 72 Гбайт) и с ускорителями топового уровня. К последним относятся конфигурации сразу с восемью PCIe-ускорителями с суммарным объёмом памяти 640 Гбайт, 1 Тбайт системной памяти и парой 24-ядерных AMD EPYC 9224. А для самых требовательных заказчиков предлагается платформа с восемью ускорителями, объединёнными быстрой шиной (900 Гбайт/с) и 1128 Гбайт VRAM, которые работают как единое целое. Компанию им составляют два 48-ядерных Intel Xeon Platinum 8558 и 2 Тбайт RAM. При этом во всех случаях речь идёт именно о физических серверах, что гарантирует полную доступность всех вычислительных ресурсов.
10.05.2025 [14:59], Руслан Авдеев
xAI может построить 1,56-ГВт газовую электростанцию для очередного ИИ-суперкомпьютераЭкоактивисты уверены, что компания xAI, основанная Илоном Маском (Elon Musk), может построить электростанцию на природном газе для нового дата-центра в Мемфисе. Мощность электростанции составит 1,56 ГВт, а состоять она будет из десятков газовых турбин, сообщает Datacenter Dynamics. Согласно мартовскому отчёту агентства Trinity Consultants, подготовленному для xAI, возможно развёртывание 40–90 газовых турбин на Тулейн-роуд (Tulane Road) мощностью до 1,56 ГВт в одном из районов Мемфиса — данные получены экогруппой Southern Environmental Law Center (SELC). Ранее местная коммунальная компания Memphis, Light, Gas and Water (MLGW) заявляла, что xAI пока не подала заявку на электроснабжение объекта, но изучила несколько вариантов присоединения в диапазоне от 260 МВт до 1,1 ГВт. По данным отчёта Trinity, новая электростанция сможет применять два вида турбин Solar Turbines — PGM-130 и Solar Titan 350. По словам юристов SELC, xAI, вероятно, готовится к установке «ошеломляющего» количества загрязняющих воздух генераторов для второго ЦОД компании в Южном Мемфисе, одновременно эксплуатируя поблизости турбины, разрешение для которых вообще не получено. Деятельность xAI в Мемфисе неоднократно вызывала споры в городе с момента открытия в нём первого ЦОД на территории бывшего завода Electrolux, где разместился суперкомпьютер Colossus. Пока местный бизнес приветствовал появление компании в городе и тот стимул, который она обеспечит экономике Мемфиса, местные жители начали выражать обеспокоенность возможным влиянием на доступность электроэнергии и воды, а также влиянием объекта на качество воздуха. Для питания Colossus компания разместила 35 газовых турбин общей мощностью 422 МВт. По данным местных властей, примерно половина из них будет демонтирована в течение двух месяцев. Остальные продолжат функционировать до ввода в эксплуатацию второй подстанции на 150 МВт осенью 2025 года, после чего турбины переведут в резервную систему питания. Таким образом, власти косвенным образом признали, что xAI действительно воспользовалась лазейкой в законах, развернув 35 турбин вместо изначально разрешённых 15. От имени xAI было объявлено, что компания выводит из эксплуатации турбины в округе Шелби и не имеет планов размещения турбин на площадке в районе Тулейн-роуд. Компания продолжит рассматривать энергетические решения для объектов в Мемфисе с учётом всех применимых нормативных ограничений. Впрочем, ей никто не мешает снова повторить трюк с размещением нужного количества генераторов.
10.05.2025 [10:07], Сергей Карасёв
Huawei представила комплексную платформу хранения и обработки ИИ-данныхКомпания Huawei на форуме Innovative Data Infrastructure (IDI) в Мюнхене (Германия) анонсировала решение AI Data Lake для хранения и обработки данных, призванное ускорить внедрение ИИ в различных отраслях. Платформа ориентирована на обучение больших языковых моделей (LLM), инференс и другие нагрузки. Аппаратная составляющая AI Data Lake предполагает использование СХД трёх типов: Huawei OceanStor A Series для быстрого доступа к информации, Huawei OceanStor Pacific для Nearline-хранения с динамическим распределением по уровням и Huawei OceanProtect для резервного копирования из системы Pacific. В частности, OceanProtect E8000 вмещает до 16 Пбайт данных с пропускной способностью до 255 Тбайт/ч. Поверх аппаратного массива работают два программных уровня — слой управления данными и слой инструментов ИИ. Уровень управления базируется на движке Data Management Engine (DME) и включает три продукта: DME Omni-Dataverse, DME IQ и eDataInsight. Они отвечают за такие векторные БД, каталог данных, управление версиями, контроль доступа и пр. Omni-Dataverse — глобальная файловая система и фреймворк управления данными для устранения разрозненности информации в географически распределённых ЦОД: достигается это путём предоставления единого пространства имён. Иными словами, формируется единый виртуальный репозиторий (озеро данных), который охватывает несколько отдельных хранилищ в публичном облаке, на площадке клиента или в гибридной среде. Omni-Dataverse предоставляет средства для получения, индексации, обработки данных и их предоставления для обучения LLM, инференса и других задач. По заявлениям Huawei, система способна индексировать и/или извлекать наборы данных в масштабе экзабайт. Возможна обработка более 100 млрд файлов за считаные секунды с использованием более 15 критериев поиска. Omni-Dataverse поддерживает динамическое распределение данных между СХД OceanStor A Series и OceanStor Pacific. Устаревшие и неиспользуемые файлы удаляются. DME IQ — это облачная система на базе аналитики больших данных и AIOps для автоматизированного оповещения о неполадках и отслеживания проблем в режиме реального времени. В свою очередь, программный уровень ИИ-инструментов предназначен для предоставления наборов данных из хранилища для обработки различными аппаратными движками: Huawei iData, ModelEngine и др. Концепция виртуализации дата-центра DCS (Data Center Solution) объединяет вычисления, хранение, сетевые технологии и управление. Задействованы средства eSphere с использованием Omni-Dataverse для доступа к единому глобальному пространству имен.
10.05.2025 [09:45], Руслан Авдеев
NVIDIA ослабит и без того урезанные ускорители H20, чтобы вернуть возможность поставок в КитайNVIDIA планирует представить искусственно ухудшенные версии ИИ-ускорителей H20 для Китая в ближайшие пару месяцев. Это позволит обойти экспортные ограничения, введённые в отношении исходной модели, сообщает Reuters со ссылкой на три источника, знакомых с вопросом. По информации двух из них, американский производитель чипов уведомил ключевых китайских покупателей, включая ведущих облачных провайдеров, что намерен представить модифицированную версию H20 в июле. Это последняя из попыток NVIDIA сохранить присутствие на китайском рынке, являющемся для компании одним из ключевых — при этом официальный Вашингтон всеми силами стремится ограничить доступ Поднебесной к передовым полупроводниковым технологиям. До недавнего времени H20 были самыми производительными ИИ-чипами, допущенными американскими властями к продаже в Китай, но в прошлом месяце компанию уведомили, что на их поставки в страну потребуется специальная экспортная лицензия, что фактически означает запрет массовых продаж. Правда, многие компании из КНР успели сделать большие запасы H20. ![]() Источник изображения: NVIDIA NVIDIA уже подготовила новое техническое задание на новую версию чипов. В результате H20 будут значительно ослаблены, в частности, по словам одного из источников, новинкам уменьшат ёмкость памяти. Правда, один из источников сказал, что потребители смогут перенастраивать модули для изменения производительности чипа. В самой NVIDIA новость не комментируют, как и в Министерстве торговли США. В минувшем фискальном году, закончившемся 26 января, на рынок Китая приходилось $17 млрд или 13 % общей выручки NVIDIA, а в прошлом году глава компании Дженсен Хуанг (Jensen Huang) лично засвидетельствовал важность китайского рынка, нанеся в страну визит — всего через несколько дней после того, как американские власти анонсировали новые торговые ограничения, касавшиеся поставок H20. В ходе встреч с китайскими чиновниками он подчеркнул важность рынка страны для компании. Стоит отметить, что это не первое искусственное ухудшение чипов, инициированное американскими властями. Ранее NVIDIA пришлось представить модели A800 и H800 вместо A100 и H100, а позже, в октябре 2023 года их тоже посчитали слишком производительными и появилась модель H20. На фоне роста спроса на ИИ-решения ключевые китайские IT-гиганты вроде Tencent, Alibaba и ByteDance нарастили закупки для использования эффективных ИИ-моделей компаний вроде DeepSeek. По данным Reuters, с января NVIDIA получила заказы на H20 на сумму $18 млрд. Впрочем, в марте сообщалось, что H20 не соответствуют новым китайским требованиям к энергоэффективности ИИ-ускорителей и местные бизнесы негласно вынуждают применять отечественные, китайские решения вроде Ascend 910B. Для Huawei это шанс закрепиться на рынке, компания уже готовит ускорители Ascend 910D и 920.
09.05.2025 [14:04], Сергей Карасёв
StorONE и Phison предложат СХД для ИИ-задач, с которой можно будет поговоритьКомпании StorONE и Phison объявили о расширении стратегического сотрудничества с целью создания новой платформы хранения данных для локальных развёртываний. Речь идёт о системе, оптимизированной для различных ИИ-задач, таких как разработка больших языковых моделей (LLM), их обучение и инференс в режиме реального времени. В рамках партнёрства будет осуществлена интеграция технологии Phison aiDAPTIV+ с высокопроизводительной программно-определяемой платформой хранения StorONE. Система aiDAPTIV+ позволяет «расширять» память GPU-ускорителей путём использования системной памяти и SSD. Благодаря этому компании могут закупать меньшее количество GPU, что снижает входные барьеры для локального использования LLM. Совместное решение StorONE и Phison обеспечит возможность развёртывания ИИ СХД на площадках клиентов, что важно для отраслей, где большое значение имеет конфиденциальность информации: здравоохранение, финансы, государственное управление и пр. Благодаря технологии aiDAPTIV+ компании и организации смогут использовать в собственных ЦОД крупные модели ИИ. При этом встроенный чат-бот поможет в управлении и оптимизации конфигурации хранилища: делать запросы и отдавать команды пользователи смогут на естественном языке. Ожидается, что первое интегрированное решение в рамках партнёрства станет доступно во II квартале текущего года. Оно объединит массивы хранения данных с высокой пропускной способностью StorONE и усовершенствованную систему aiDAPTIV+. Ключевыми сферами применения названы локальное обучение LLM, мультимодальный ИИ и генеративные приложения.
09.05.2025 [09:22], Владимир Мироненко
OpenAI планирует развивать ИИ-инфраструктуру Stargate за пределами СШАOpenAI объявила о намерении продолжить развитие проекта Stargate, в рамках которого предполагается построить в США ИИ-инфраструктуру стоимостью $500 млрд, за пределами Соединённых Штатов, пишет The Financial Times. Глобальное развитие Stargate, которое будет осуществляться под брендом OpenAI for Countries, предполагает запуск десяти проектов с историческими союзниками США. «Эти инвестиции [в проекты] превзойдут то, что мы рассматриваем в США», — сказал Крис Лихейн (Chris Lehane), вице-президент OpenAI по глобальным вопросам. Он отметил, что во Франции, Великобритании и Германии выразили заинтересованность в строительстве новых ЦОД. Ранее сообщалось, что OpenAI взвешивает возможность направления инвестиций на строительство регионального объекта Stargate в Великобритании и уже начала переговоры по этому поводу. Вместе с тем Лихейн уточнил, что в отличие о США, где ведущая роль в финансировании Stargate отведена SoftBank, разработки OpenAI за рубежом будут финансироваться индивидуальной группой партнёров по каждому отдельному проекту. «Правительства, государственные инвестиционные фонды, фонды прямых инвестиций и более традиционный капитал — все они присматриваются к этому, — сказал он. — Наша роль заключается в предоставлении лучшей ИИ-технологии… наше участие в создании этой структуры помогает привлечь этот капитал». Лихейн также отметил, что сотрудничество с OpenAI в реализации проектов Stargate обеспечит возможность союзникам США получить доступ к передовым американским полупроводникам. OpenAI направила властям США предложение ослабить экспортные ограничения на передовые чипы для компаний, инвестирующих в инфраструктуру США.
09.05.2025 [01:40], Владимир Мироненко
Первая фаза ИИ-кластера xAI Colossus полностью обеспечена энергией1 мая ИИ-кластер xAI Colossus в Мемфисе (Теннесси, США), менее чем через год после запуска проекта, достиг полной готовности для эксплуатации в рамках первой фазы развёртывания, поскольку оборудование подключили к основной энергосети посредством недавно построенной электрической подстанции, сообщается на сайте Торговой палаты Большого Мемфиса. Питание ИИ-кластера в пределах 150 МВт будут обеспечивать энергоснабжающие компании Memphis Light, Gas, and Water (MLGW) и Tennessee Valley Authority (TVA). Кроме того, площадка оборудована аккумуляторными системами Tesla Megapack на 150 МВт (ёмкость явно не указана), предназначенными для использования в качестве резервного источника питания на случай аварийных отключений сети или повышенного спроса, говорится в сообщении. «xAI привержена Мемфису посредством своих устойчивых экологических практик. Компания участвует в программе Demand Response, как указала MLGW, и изучает способы подачи энергии в сеть на благо общества, особенно в чрезвычайных ситуациях или других случаях необходимости. По мере роста xAI будет расти и Мемфис», — отметила Торговая палата Большого Мемфиса. xAI запустила ИИ-кластер xAI Colossus в июле прошлого года. В нём было установлено 100 тыс. ускорителей NVIDIA H100. В связи с тем, что ИИ-кластер был построен в рекордные сроки — всего за 19 дней — на период строительства подстанций для подключения к сетям операторов, для обеспечения его энергией установили временные газовые генераторы, а также энергохранилища Tesla Megapack. Торговая палата сообщила, что примерно половина газовых турбин будет демонтирована в течение двух месяцев. Остальная часть продолжит функционировать до ввода в эксплуатацию второй подстанции на 150 МВт, строительство которой должны закончить осенью 2025 года, после чего газовые турбины переведут в резервную систему электропитания. Таким образом, власти косвенным образом признали, что xAI действительно воспользовалась лазейкой в законах, развернув 35 турбин вместо изначально разрешённых 15. Как сообщает The Register, всего в качестве резерва в дальнейшем будет использоваться 15 газовых турбин: восемь новых, оснащённых системами селективного каталитического восстановления (SCR) для снижения выбросов, и семь модернизированных, которые будут соответствовать существующим требованиям Закона о чистом воздухе США. По словам основателя xAI Илона Маска (Elon Musk), со временем в ИИ-кластере будет развернуто до 1 млн ускорителей. В феврале сообщалось, что xAI рассматривает возможность строительства ещё одного ЦОД.
08.05.2025 [23:59], Владимир Мироненко
Квартальная выручка Arm впервые превысила $1 млрд, но акции упали из-за слабого прогнозаArm Holdings объявила результаты IV квартала и всего 2025 финансового года, завершившегося 31 марта 2025 года. Несмотря на рекордную выручку, впервые в истории компании превысившую $1 млрд за квартал, её акции упали в ходе расширенных торгов на 11 % из-за слабого прогноза на I квартал 2026 финансового года, оказавшегося ниже ожиданий Уолл-стрит, а также из-за отказа предоставить прогноз на весь финансовый год, пишет Reuters. «Масштабные мировые пошлины, объявленные президентом США Дональдом Трампом (Donald Trump), и более жёсткие ограничения США на экспорт передовых полупроводников на ключевой рынок микросхем Китая омрачили перспективы полупроводниковых компаний», — отметило новостное агентство. «Учитывая неопределённость глобальной торговой и экономической ситуации, у нас меньше возможностей для обзора, чем обычно, чтобы начать год. В результате мы не считаем целесообразным давать прогноз на весь год», — сообщил финансовый директор Джейсон Чайлд (Jason Child) аналитикам во время телефонной конференции. В свою очередь, гендиректор Рене Хаас (Rene Haas) заявил, что растущая доля выручки Arm от роялти за чипы, реализация которых, в свою очередь, связана с продажами таких устройств, как смартфоны и ноутбуки, затрудняет прогнозирование показателей. Выручка Arm за IV финансовый квартал составила $1,24 млрд, превысив результат аналогичного квартала годом ранее в размере $928 млн на 34 %, а также консенсус-прогноз аналитиков, опрошенных LSEG, равный $1,23 млрд. При этом выручка от лицензирования за квартал увеличилась на 53 % до $634 млн с $414 млн годом ранее, выручка от роялти выросла на 18 % — с $514 млн до $607 млн. Чистая прибыль (GAAP) упала на 6 % до $210 млн, или 20 центов на акцию, с $224 млн или 21 цента годом ранее. Скорректированная прибыль (non-GAAP) на акцию в размере 55 центов превысила прогноз аналитиков, опрошенных FactSet и LSEG, равный в обоих случаях 52 центам на акцию. По итогам 2025 финансового года выручка компании составила $4 млрд, а доходы от роялти впервые превысили $2 млрд, составив $2,17 млрд. Выручка Arm от лицензирования за год равна $1,84 млрд. Arm прогнозирует выручку за I квартал 2026 финансового года в размере от $1,00 до $1,10 млрд, что ниже средней оценки аналитиков, опрошенных LSEG, в $1,10 млрд. Прогноз скорректированной прибыли составляет от 30 до 38 центов на акцию по сравнению с оценкой аналитиков в 42 цента на акцию. Как сообщает Reuters, прогноз компании, оказавшийся ниже ожиданий аналитиков, был обусловлен крупной лицензионной сделкой, которую, возможно, не удастся закрыть в течение текущего финансового квартала. Он добавил, рост выручки от роялти составит в I финансовом квартале от 25 до 30 %, что выше, чем в предыдущем квартале. Arm отметила, что быстрый рост использования ИИ от облака до периферии создаёт спрос на энергоэффективные вычисления, который способны удовлетворить её решения, в частности, платформа Arm Neoverse. Она добавила, что NVIDIA запустила суперчип Grace Blackwell на базе Armv9 в серийное производство. Согласно прогнозу Arm, около 50 % всех новых серверных чипов, поставляемых гиперскейлерам в 2025 году, будут основаны на архитектуре Arm. Эти компании объединяют собственные чипы на базе Armv9 с собственными же ускорителями для запуска ИИ-нагрузок. Так, Google подтвердила, что её чип Axion теперь доступен в 10 регионах и используется примерно 40 из 100 ее крупнейших клиентов, включая Spotify. Microsoft расширила спектр программной поддержки своих чипов Cobalt 100, запустив рабочие нагрузки различных клиентов, включая Databricks, Siemens и Snowflake. Arm также сообщила, что продолжает увеличивать инвестиции в свою экосистему из более чем 22 млн разработчиков ПО, включая новое бесплатное расширение для GitHub Copilot. Кроме того, ПО Arm Kleidi для максимизации производительности ИИ на платформе Arm было установлено более 8 млрд раз на устройствах на базе Arm.
08.05.2025 [19:22], Сергей Карасёв
Cadence представила суперкомпьютер Millennium M2000 на базе NVIDIA BlackwellКомпания Cadence анонсировала суперкомпьютер Millennium M2000, спроектированный для выполнения сложного моделирования с использованием ИИ. Новая НРС-система предназначена для ускорения проектирования микрочипов, разработки лекарственных препаратов следующего поколения и пр. Суперкомпьютер построен на платформе NVIDIA HGX B200. Кроме того, задействованы карты NVIDIA RTX Pro 6000 Blackwell Server Edition, оснащённые 96 Гбайт памяти GDDR7. Применены библиотеки NVIDIA CUDA-X и специализированное ПО для решения ресурсоёмких задач. Утверждается, что Millennium M2000 обеспечивает до 80 раз более высокую производительность по сравнению с системами на базе CPU в области автоматизации проектирования электроники (EDA), создания и анализа систем (SDA) и разработки медикаментов. При этом глубоко оптимизированный программно-аппаратный стек помогает существенно сократить общее энергопотребление. В качестве примера приводится моделирование подсистемы питания на уровне полупроводниковых чипов. В случае вычислительных комплексов на основе сотен традиционных CPU на выполнение такой задачи может потребоваться около двух недель. Суперкомпьютер Millennium M2000 позволит получить результат менее чем за один день. Генеральный директор NVIDIA Дженсен Хуанг (Jensen Huang) сообщил, что компания планирует приобрести десять суперкомпьютерных систем Millennium на базе GB200 NVL72 для ускорения проектирования собственных продуктов. Сторонние заказчики смогут получить доступ к Millennium M2000 через облако или купить устройство для установки в собственном дата-центре. Базовая конфигурация включает около 32 ускорителей и стоит $2 млн, но это не финальная цена.
07.05.2025 [18:23], Владимир Мироненко
AMD получила рекордную квартальную выручку, но ожидает до $1,5 млрд потерь из-за экспортных ограничений СШАAMD сообщила о рекордной выручке в I квартале 2025 финансового года, закончившемся 29 марта. Выручка составила $7,44 млрд, что на 3 % меньше, чем в предыдущем квартале, но на 36 % больше в годовом исчислении, что, как пишет ресурс CRN, стало возможным благодаря значительному росту продаж ускорителей Instinct и процессоров EPYC, а также процессоров Ryzen для ПК. Согласно консенсус-прогнозу аналитиков, опрошенных LSEG, выручка должна была составить $7,13 млрд. Чистая прибыль составила $709 млн или 44 цента на разводнённую акцию, по сравнению с $123 млн или 7 центов на акцию за аналогичный период годом ранее. Скорректированная прибыль (non-GAA) равняется $1,57 млрд или $0,96 на разводнённую акцию, что немного выше прогноза аналитиков, опрошенных LSEG, в $0,94 на разводнённую акцию. «Несмотря на неопределённый макроэкономический фон, наши результаты за I квартал подчёркивают силу нашего дифференцированного портфеля продуктов и его реализацию, и хорошо позиционируют нас для сильного роста в 2025 году», — отметила генеральный директор AMD Лиза Су (Lisa Su) в отчёте компании за I квартал. Су сообщила, что компания расширяет инвестиции в свой полный програмнный стек для ИИ и возможности решений для ЦОД, которые получили импульс после завершения приобретения AMD ZT Systems за $4,9 млрд в марте. Су сказала, что команда ZT Systems «полностью вовлечена и совместно с ключевыми клиентами уже разрабатывает оптимизированные конструкции уровня стойки». Компания также «работает с клиентами и OEM-партнёрами, чтобы ускорить выход на рынок» MI350. Выручка сегмента ЦОД за квартал составила $3,7 млрд, что на 57 % больше по сравнению с прошлым годом и выше прогноза аналитиков, опрошенных StreetAccount — в основном благодаря росту продаж процессоров AMD EPYC и ускорителей AMD Instinct. Компания отметила высокий спрос на EPYC со стороны предприятий, как в облаке, где количество инстансов на базе EPYC, активированных компаниями из списка Forbes 2000, более чем удвоилось по сравнению с прошлым годом, так и on-premise, где, по словам Су, их продажи стали выше «на большой двузначный процент по сравнению с прошлым годом» — рост наблюдается седьмой квартал подряд. Су заявила, что партнёры AMD увеличили количество платформ на базе EPYC до более чем 450, а компания расширила совместные программы выхода на рынок. «В результате EPYC теперь используется всеми 10 крупнейшими телекоммуникационными, аэрокосмическими и полупроводниковыми компаниями, 9 из 10 крупнейших автомобильных, 7 из 10 крупнейших производственных и 6 из 10 крупнейших энергетических компаний из списка Forbes 2000», — добавила она. Лиза Су сообщила, что выручка от продаж AMD Instinct увеличилась на «значительные двузначные проценты в годовом исчислении» благодаря поставкам чипов Instinct MI325X для новых корпоративных и облачных развертываний. По её словам, несколько гиперскейлеров расширили использование ускорителей Instinct, чтобы охватить всё больше вариантов использования генеративного ИИ, поиска, ранжирования и рекомендаций. «В этом квартале мы также добавили несколько ключевых облачных и корпоративных клиентов, включая одного из крупнейших разработчиков передовых моделей, который теперь использует ускорители Instinct для обслуживания значительной части инференса», — рассказала Су. «Глубина и широта нашего взаимодействия с клиентами продолжают увеличиваться, поскольку прорывы в крупномасштабных моделях, такие как выход OpenAI 03 и DeepSeek R1, стимулируют рост спроса», — сказала Су. По её словам, чтобы стимулировать внедрение ускорителей Instinct, компания «значительно ускорила» частоту выпуска обновлений своего программного стека ROCm AI. Теперь релизы выходят каждые две недели, а не ежеквартально, и содержат «готовые к развёртыванию контейнеры для обучения и инференса», которые «включают оптимизацию производительности и поддержку новейших библиотек, ядер и алгоритмов», отметила Лиза Су. Су также сообщила, что AMD начала в I квартале тестировать ускорители Instinct MI350 следующего поколения с несколькими клиентами и готовится к старту их производства к середине этого года. «Интерес клиентов к серии MI350 очень высок, что создаёт условия для широкого развёртывания во II половине этого года», — сказала она. Ускоритель MI400 следующего поколения компания планирует выпустить в следующем году. Сегмент встраиваемых решений, продажи которого в основном состоят из продуктов Xilinx, сократил выручку на 3% в годовом исчислении до $823 млн. При этом Су заявила, что спрос в сегменте продолжает «постепенно восстанавливаться». «Мы ожидаем, что улучшение спроса на рынках тестирования и измерений, связи и аэрокосмической отрасли приведёт к возобновлению роста во II половине 2025 года», — сказала она. Выручка сегмента клиентских и игровых решений за квартал составила $2,9 млрд, увеличившись на 28 % по сравнению с прошлым годом. При этом выручка клиентского сегмента выросла год к году на 68 % до $2,3 млрд, в игровом сегменте упала на 30 % до $647 млн. В текущем квартале AMD прогнозирует выручку около $7,4 млрд ± $300 млн, в то время как Уолл-стрит оценивает ожидаемые продажи в $7,25 млрд при скорректированной прибыли в 86 центов на разводнённую акцию. Также компания сообщила, что ожидает из-за экспортных ограничений около $700 млн упущенной выгоды в текущем квартале и $1,5 млрд в общей сложности до конца финансового года. Для сравнения, NVIDIA недосчитается $5,5 млрд только по итогам одного квартала. |
|